Resumen Alejandro Brancaleoni
Resumen Alejandro Brancaleoni
Resumen Alejandro Brancaleoni
057
Resumen
Autocorrelación
1- Definición
El término autocorrelación se define como la “correlación entre miembros de series de
observaciones ordenadas en el tiempo (como en datos de series de tiempo) o en el espacio (como en
datos de corte transversal), es decir, la autocorrelación es un caso particular del modelo de regresión
generalizado que se produce cuando las perturbaciones del modelo presentan correlaciones entre
ellas y supone que la matriz de varianzas y covarianzas de las perturbaciones presentan valores
distintos de cero en los elementos que están fuera de la diagonal principal.
En el modelo clásico de regresión lineal supone que no existe tal autocorrelación en las perturbaciones
ui . Simbólicamente:
cov(ui , u j | x i , x j ) = E(ui u j ) =0 i≠ j
2- Causas o fuentes
El problema de la autocorrelación se presenta mucho en series históricas, en las cuales la
“memoria” se transmite a través de los errores. Un “shock” (grande o pequeño) se mantiene en el
tiempo.
Entre las principales causas que hacen que aparezca la autocorrelación en una muestra tenemos
las siguientes:
Tiempo de ajuste: Implica el tiempo que los agentes económicos deben tomar para
procesar información de un período dado. Así un fenómeno sucedido en un período
determinado puede impactar en uno o varios posteriores.
Preparación de datos: En datos de corte transversal al “ordenar” los datos con respecto
alguna variable (consumo ordenado de mayor a menor por la variable ingreso) puede
introducir un proceso “aparentemente” autocorrelacionado.
3- ¿Cómo se detecta?
Método gráfico
Sabemos que el supuesto de no autocorrelación del modelo clásico se relaciona con las
perturbaciones poblacionales u^ , las cuales no pueden observarse directamente. En su lugar
disponemos de valores sustitutos, los residuos u^ t , a partir del procedimiento usual MCO. Aunque las u^ t
no son lo mismo que las u, con mucha frecuencia un examen visual de las û da algunas claves sobre
la posible presencia de autocorrelación en las u. En realidad, un examen visual de u^ t o (u^ 2 ¿ proporciona
información útil no sólo sobre la autocorrelación, sino también sobre heteroscedasticidad, sobre el
grado de adecuación del modelo o sobre el sesgo de especificación.
La prueba de Berenblut-Webb
La prueba de BW se basa en el estadístico:
4- ¿Cómo se corrige?
Si hay evidencia de que haya autocorrelación:
1) Averiguar si es una autocorrelación pura o un problema de mal especificación del modelo.
2) Si es un problema de autocorrelación pura: Método de MCG= transformar el modelo
3) Para muestras grandes: método de Newey-West para corregir errores estándar
4) En ocasiones, seguir utilizando MCO
5- Consecuencias
Bajo los supuestos del Teorema de Gauss-Markov los estimadores MCO son ELIO.
Multicolinealidad
1- Definición
Podemos encontrar:
2- Causas o fuentes
3- ¿Cómo se detecta?
Una primera aproximación para diagnosticarla consiste en obtener los coeficientes de correlación
muestral simples para cada par de variables explicativas y ver si el grado de correlación entre estas
variables es alto. Pero se puede dar el caso de tener una relación lineal casi perfecta entre tres o más
variables y, sin embargo, las correlaciones simples entre pares de variables no ser mayores que 0,5.
Otro método consiste en realizar la regresión de cada variable explicativa sobre el resto. Se
realizan j regresiones, y se obtienen los coeficientes de determinación . Si alguno de ellos es alto,
podemos sospechar la existencia de multicolinealidad.
4- ¿Cómo se corrige?
Mejora del diseño muestral extrayendo la información máxima de las variables observadas.
En caso de disponer de pocas observaciones, aumentar el tamaño de la muestra.
Utilizar la relación extramuestral que permita realizar relaciones entre los parámetros
(información a priori) que permita estimar el modelo por mínimos cuadrados restringidos.
5- Consecuencias