El Modelo de Koyck
El Modelo de Koyck
El Modelo de Koyck
de inters esperado, normal, o de largo plazo 2) La variable de expectativa: Xt* no es directamente observable 3) Por lo cual se propone la siguiente hiptesis que describe como se forma las expectativas: Xt* - X*t-1 = ( Xt X*t-1 ); donde 0<1
4) La hiptesis implica que los agentes econmicos adaptaran sus expectativas a la luz de la experiencia pasada, es decir aprendern de sus errores 5)Xt* - X*t-1 : brecha entre el valor esperado actual y el valor esperado en el periodo anterior ( Xt X*t-1 ): brecha entre el valor actual y su valor esperado anterior 6) Las expectativas son corregidas en cada periodo por una fraccin de la brecha entre el valor actual de la variable y su valor esperado anterior Demostrar para el modelo de Koyck: 1) E(vt vt-1) = -2 2) cov(vt yt-1)= -2 Para corregir estos problemas el modelo Koyck y el modelo de expectativas adaptativas se estima utilizando el Mtodo de variables instrumentales que dar estimaciones consistentes y sesgadas en muestras pequeas, sin embargo, el mtodo de variables instrumentales puede a su vez generar el problema de multicolinealidad, por ende el mtodo mas adecuado para estimar estos modelos es el mtodo de la mxima verosimilitud
METODO DE VARIABLES INTRUMENTALES Consideremos el modelo lineal Y = X_ + u con el supuesto de exogeneidad E(X0u) = 0 en donde, naturalmente, u = Y -XB Consideremos la siguiente magnitud 1/n X`e = 0 con e =Y - X B VARIABLES INTRUMENTALES Consideremos el modelo lineal con K variables Y = XB + u En donde no requeriremos que E(ujX) = 0 (una o mas variables Explicativas pueden ser endogenas). Alternativamente, supondremos la existencia de una matriz Z, nB K, de K variables instrumentales. La prueba h de Durbin para detectar la autocorrelacion
1) La prueba de Durbin Watson no puede ser utilizado para detectar la autocorrelacion en los modelos autorregresivos( como son el modelo de Koyck, y el modelo de expectativas adaptativas y el modelo de ajuste de existencias), debido al siguiente hecho: 2) 2)Sabemos que en la prueba de Durbin Watson, el estadstico d calculado debe estar alrededor de 2 para que el modelo sometido a prueba de autocorrelacion no este autocorrelacionado. 3) 3)En los modelos autorregresivos, el estadstico d calculado tiende siempre a 2, por ende, mediante la prueba de Durbin Watson no se puede detectar la autocorrelacion en la variable aleatoria t en estos modelos. 4) 4) En vista de ello se ha propuesto la prueba h de Durbin para muestras grandes para detectar la autocorrelacion de primer orden en los modelos autorregresivos ( ut = p ut-1 +t )
5) En esta prueba se utiliza el estadstico h h= p n/1- n(var a2) donde: n= tamao de la muestra var(a2) = varianza del coeficiente del rezago Yt-1 P= estimacin de p (coeficiente de correlacin serial de primer orden), donde p se puede calcular con: p= 1-d/2; donde d: el estadstico de Durbin Watson 6) Para un tamao de muestra grande( asinttica) Durbin demostr que, bajo la hiptesis nula de que p=0, h sigue una distribucin normal estndar, es decir h ~N(0,1) A un nivel de significacin del 5%: h ,69.1>por consiguiente, si en una aplicacin: h , 69.1>se puede rechazar la hiptesis nula de que p=0, es decir existe evidencia de que existe autocorrelacion de primer orden en el modelo autorregresivo dado a) H0: P=0 (hay autocorrelacion ) HA :P 0(No hay autocorelacion ) b) si h >= 69.1 >se rechaza H0 y se acepta la HA, es decir, que hay evidencia de autocorrelacion en el modelo. METODO TEST DE GRANGER El procedimiento es estimar sucesivos modelos con distinto polinomio y, el que mejor modelo estimado arroje, ese ser el polinomio a adoptar finalmente. La eleccin del modelo final puede hacerse a travs de los criterios de informacin de Akaike o Schwarz, cuanto menor sean estos indicadores mejor modelo. El mtodo es flexible para incorporar diversas estructuras, no se encuentra la variable dependiente rezagada y, si se puede ajustar un polinomio de grado bajo, se reduce el nmero de coeficientes a estimar. Los pasos consisten en 1. regresar Y sobre los rezagos de Y para obtener la suma de los Cuadrados de los residuos restringidos ( r SCR )
2. repetir la regresin anterior pero incorporando los trminos Rezagados de X para obtener la suma del cuadrado de los Residuos sin restringir ( nr SCR ) 3. se construye el estadstico donde: mes el nmero de trminos rezagados de X kes el nmero de parmetros estimados en la regresin no restringida 4. Bajo la hiptesis nula de que el trmino rezagado de X no pertenece a la regresin : 00iH si el valor de F calculado excede al crtico, a un nivel de significacin de , se rechaza la 0 H . Esto significa que los trminos rezagados de X pertenecen a la regresin. Granger distingue 4 casos de causalidad 1. Unidireccional de X a Y : cuando los i son estadsticamente distintos de cero y los i estadsticamente iguales a cero 2. Unidireccional de Y a X : cuando los i son estadsticamente iguales a cero y los i estadsticamente distintos de cero 3. Retroalimentacin o causalidad bilateral: cuando los i ,i , i yi son estadsticamente distintos de cero. 4. Independencia: cuando el conjunto de coeficientes no es significativo.