Resumen Alejandro Brancaleoni

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 3

Alejandro Brancaleoni C.I 26.687.

057
Resumen
Autocorrelación
1- Definición
El término autocorrelación se define como la “correlación entre miembros de series de
observaciones ordenadas en el tiempo (como en datos de series de tiempo) o en el espacio (como en
datos de corte transversal), es decir, la autocorrelación es un caso particular del modelo de regresión
generalizado que se produce cuando las perturbaciones del modelo presentan correlaciones entre
ellas y supone que la matriz de varianzas y covarianzas de las perturbaciones presentan valores
distintos de cero en los elementos que están fuera de la diagonal principal.

En el modelo clásico de regresión lineal supone que no existe tal autocorrelación en las perturbaciones
ui . Simbólicamente:

cov(ui , u j | x i , x j ) = E(ui u j ) =0 i≠ j

2- Causas o fuentes
El problema de la autocorrelación se presenta mucho en series históricas, en las cuales la
“memoria” se transmite a través de los errores. Un “shock” (grande o pequeño) se mantiene en el
tiempo.
Entre las principales causas que hacen que aparezca la autocorrelación en una muestra tenemos
las siguientes:

 Sesgos de especificación: Cuando se elige mal la forma funcional o cuando se omiten


variables, lo cual genera un comportamiento sistemático en el término estocástico.

 Tiempo de ajuste: Implica el tiempo que los agentes económicos deben tomar para
procesar información de un período dado. Así un fenómeno sucedido en un período
determinado puede impactar en uno o varios posteriores.

 Preparación de datos: En datos de corte transversal al “ordenar” los datos con respecto
alguna variable (consumo ordenado de mayor a menor por la variable ingreso) puede
introducir un proceso “aparentemente” autocorrelacionado.

 Existencia de efectos de proximidad entre las observaciones.

3- ¿Cómo se detecta?
Método gráfico

Sabemos que el supuesto de no autocorrelación del modelo clásico se relaciona con las
perturbaciones poblacionales u^ , las cuales no pueden observarse directamente. En su lugar
disponemos de valores sustitutos, los residuos u^ t , a partir del procedimiento usual MCO. Aunque las u^ t
no son lo mismo que las u, con mucha frecuencia un examen visual de las û da algunas claves sobre
la posible presencia de autocorrelación en las u. En realidad, un examen visual de u^ t o (u^ 2 ¿ proporciona
información útil no sólo sobre la autocorrelación, sino también sobre heteroscedasticidad, sobre el
grado de adecuación del modelo o sobre el sesgo de especificación.

La prueba de Berenblut-Webb
La prueba de BW se basa en el estadístico:

Donde el residuo ê se obtienen de una regresión en primeras diferencias de la variable


dependiente (Y) sobre las primeras diferencias de los regresores ( X s), sin un término constante, en
caso de incluirlo es posible utilizar las tablas de DW con el estadístico g, y û representa los errores de
la regresión en niveles.
Existen otros métodos como los llamados:
- Prueba de “las rachas”
- Prueba d de Durbin-Watson
- La razón de Von Neumann (RVN)
- El estadístico Breusch y Godfrey
- El estadístico de Box y Pearce

4- ¿Cómo se corrige?
Si hay evidencia de que haya autocorrelación:
1) Averiguar si es una autocorrelación pura o un problema de mal especificación del modelo.
2) Si es un problema de autocorrelación pura: Método de MCG= transformar el modelo
3) Para muestras grandes: método de Newey-West para corregir errores estándar
4) En ocasiones, seguir utilizando MCO

5- Consecuencias
Bajo los supuestos del Teorema de Gauss-Markov los estimadores MCO son ELIO.

Si no satisface el supuesto de independencia: es decir


I. Los estimadores MCO son lineales.
II. Los estimadores MCO son insesgados.
III. Los estimadores MCO no son eficientes.
Ya que los estimadores MCO no son eficientes:
i. Las estimaciones de las varianzas de los estimadores son sesgadas.
ii. Las contrastaciones de hipótesis y los intervalos de confianza ya no son fiables.

Multicolinealidad
1- Definición

El problema de multicolinealidad consiste en la existencia de relaciones lineales entre dos o más


variables independientes del modelo lineal uniecuacional múltiple.

Podemos encontrar:

 Multicolinealidad exacta: Se da cuando los valores de una variable explicativa se obtienen


como combinación lineal exacta de otras.
 Multicolinealidad de grado: Se da cuando los valores de diferentes variables están tan
correlacionados que se hace casi imposible estimar con precisión los efectos individuales de cada uno
de ellos.

2- Causas o fuentes

Las principales causas que producen multicolinealidad en un modelo son:

 Relación causal entre variables explicativas del modelo.


 Escasa variabilidad en las observaciones de las variables independientes.
 Reducido tamaño de la muestra.

3- ¿Cómo se detecta?

Una primera aproximación para diagnosticarla consiste en obtener los coeficientes de correlación
muestral simples para cada par de variables explicativas y ver si el grado de correlación entre estas
variables es alto. Pero se puede dar el caso de tener una relación lineal casi perfecta entre tres o más
variables y, sin embargo, las correlaciones simples entre pares de variables no ser mayores que 0,5.

Otro método consiste en realizar la regresión de cada variable explicativa sobre el resto. Se
realizan j regresiones, y se obtienen los coeficientes de determinación . Si alguno de ellos es alto,
podemos sospechar la existencia de multicolinealidad.

4- ¿Cómo se corrige?

Algunas de las posibles soluciones al problema de multicolinealidad son las siguientes:

 Mejora del diseño muestral extrayendo la información máxima de las variables observadas.
 En caso de disponer de pocas observaciones, aumentar el tamaño de la muestra.
 Utilizar la relación extramuestral que permita realizar relaciones entre los parámetros
(información a priori) que permita estimar el modelo por mínimos cuadrados restringidos.

5- Consecuencias

- Estimadores de MCO con varianzas y covarianzas grandes.


- Intervalos de confianza tienden a ser mucho más amplios.
- Razones t “no significativas”.
- Una alta pero pocas razones t significativas.
- Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.

También podría gustarte