Serie Temporal Uca

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 104

UNIDAD 6: MODELOS DE

SERIES DE TIEMPO
Aspectos básicos y fundamentales

Econometría Aplicada – UCA


Prof. Jesús Aquino

Capítulos 10,11 y 18 “Introducción a la econometría”, Wooldrige.


Capítulo 21, “Econometría” Gujarati.
Capítulos 2 y 3: ”Time series analysis” Hamilton. 1
Handout: Randall Romero, macroeconometría.
Contenido
• Series temporales: Aspectos generales

• Componentes de una serie temporal

• El operador de rezagos

• Características y supuestos del MRL en las series temporales

• Procesos estocásticos: ARMA

• Estacionariedad y proceso ARIMA

• Raices unitarias y Cointegración

2
Series Temporales: breve historia

• El análisis de series de tiempo ayuda a detectar regularidades en las


observaciones de una variable y derivar “leyes” a partir de ellas, o bien
para explotar toda la información incluida en la variable para predecir
mejor el futuro.

• A inicios del siglo XX, Slutzky y Yule mostraron que series de tiempo
con propiedades similares a series económicas pueden generarse
como sumas o restas (simples o ponderadas) de procesos puramente
aleatorios.

• Desarrollaron los procesos de media móvil y autorregresivos como


modelos para representar series de tiempo.

3
Series Temporales: breve historia

En 1919 Persons propuso la descomposición de una serie de


tiempo en componentes no observables que dependen de
causas distintas.
Los componentes son:
•un movimiento de largo plazo, la tendencia
•un componente cíclico con períodos de más de un año, el
ciclo económico,
• un componente que contiene los aumentos y disminuciones
dentro del año, el ciclo estacional,
•un componente que contiene todos los movimientos no
atribuibles a los demás componentes, el residual o
componente irregular

4
Componentes de una serie temporal

5
Representaciones gráficas y transformaciones
de una serie temporal
• Primera diferencia: Elimina la tendencia, mantiene los ciclos
estacionales.
• Tasa de crecimiento %: Elimina la tendencia, mantiene los ciclos
estacionales. (Tiende a generar mucha asimetría en los datos o alta
variabilidad)
• Tasa contínua de crecimiento %: Idem caso anterior con la diferencia
que homogeniza más los datos (gracias a los logaritmos).
• Diferencia interanual: Elimina la tendencia y todo factor estacional
• Tasa de crecimiento interanual %: Idem caso anterior, con la
salvedad que tenemos incrementos porcentuales.
• Serie suavizada por media móvil: Elimina la estacionalidad, pero
mantiene la tendencia.

6
Serie Original: PIB trimestral paraguayo en
millones de Gs. costantes
60000000
40000000
pib/t
20000000
0

1995q1 2000q1 2005q1 2010q1 2015q1 2020q1


t

7
Serie diferenciada: ∆yt = yt − yt−1
2000000 4000000
0
dPIB/t
-6000000-4000000-2000000

1995q1 2000q1 2005q1 2010q1 2015q1 2020q1


t

8
Serie con tasa de crecimiento ∆%y = yt– yt-1/yt-1 *100

20
10
tasa_pib
0
-10
-20

1995q1 2000q1 2005q1 2010q1 2015q1 2020q1


t

9
Serie con tasa de crecimiento contínuo
20
10
(diferencia de logaritmos) ∆%yt ≈ (ln yt − ln yt−1) × 100
tasa_pib
0
-10
-20

1995q1 2000q1 2005q1 2010q1 2015q1 2020q1


t

10
Serie con diferencia interanual o diferencia
estacional ∆4yt ≡ yt − yt−4
4000000
2000000
pib, S4
0
-2000000

1995q1 2000q1 2005q1 2010q1 2015q1 2020q1


t

11
Serie con tasa de crecimiento interanual
(trimestre actual con mismo trimestre del
periodo anterior) ∆4%yt ≈ (ln yt − ln yt−4) × 100
15
10 5
tasa_4_pib
0 -5
-10

1995q1 2000q1 2005q1 2010q1 2015q1 2020q1


t

12
pib/ma: x(t)= PIB: window(3 1 0)
20000000 30000000 40000000 50000000 60000000

1995q1
2000q1
2005q1
t
2010q1
Serie suavizada con media móvil

2015q1

13
2020q1
La transformación de datos en STATA para el
PIB trimestral de Paraguay
Transformación Comando en STATA
Serie original PIB

Primera diferencia D.PIB

Tasa de crecimiento D.PIB/L.PIB*100

Tasa de crecimiento contínua Primero: gen logpib= log(PIB)


Segundo: gen log_tasa_pib = D.logpib*100

Diferencia interanual s4.PIB

Tasa de crecimiento interanual s4.logpib*100

Suavizada por media móvil tssmooth ma y = PIB, window(3 1 0)

14
Las series de tiempo y
el uso
de
los rezagos

15
El papel del “tiempo” o del “rezago” en los
modelos económicos
• Con mucha frecuencia una serie temporal Y, responde ante un
cambio en X de manera lenta y no instantánea, ese lapso se
denomina rezago.
• Por ejemplo en un modelo de gastos de consumo si se produce un
aumento permanente de 2000 US$, la persona no gastará los 2000
US$ de forma rápida, el impacto del ingreso puede transladarse
varios periodos.
• Yt = constante + 0.4Xt + 0.3Xt−1 + 0.2Xt−2 + ut
• El impacto comporáneo ante un aumento del ingreso de 2000 es un
aumento del gasto de consumo en 800 US$, transcurrido un año, el
aumento inicial de 2000, tiene un impacto de 600 US$ en el gasto de
consumo, y luego de dos años 400 US$, en consecuencia el efecto de
largo plazo es 1800 US$.
• El impacto del “shock” se propaga durante dos años , en
consecuencia el ”shock” tiene un impacto tanto instantáneo y
rezagado.
16
El operador de rezagos
• Un operador de una serie temporal es un “proceso” que transforma una
o más series en nuevas series de tiempo.
• El operador de rezago se denota por L y se define como
• Lxt ≡ xt−1
• L2xt = xt−2
• L3xt = xt−3
• L-1xt = xt+1

La fórmula general: Lk xt = xt−k

17
Ejemplos de aplicación del operador de
rezagos

18
Inverso de un polinomio de grado 1

19
Inverso de un polinomio de grado p

20
El operador de rezagos, ecuaciones en
diferencias y estabilidad de un proceso

21
Operador de rezagos y estabilidad de un
proceso de ecuaciones en diferencias de
orden p

Se obtienen las raices de esta ecuación


característica, si z>1, el proceso es
estable (las raíces están fuera del círculo
unitario)

Es lo mismo que la expresión de la opción 1, con la diferencia que


las f(z) son los recíprocos (autovalores) de las raíces anteriores. 22
Ejemplo 1: yt = 0.4yt-1 + wt

23
24
En los softwares estadísticos…..
Roots of the companion matrix
1
.5
Imaginary
0-.5
-1

-1 -.5 0 .5 1
Real

All the eigenvalues lie inside the unit circle.


No root lies outside the unit circle.
VAR satisfies stability condition.
STATA EVIEWS

GRETL
25
Aspectos Generales
de Series
Temporales

26
Series temporales
yt = b0 + b1xt1 + . . .+ bkxtk + ut

Tienen un orden temporal y es


relevante.
Constituyen un proceso estocástico
(proceso de series de tiempo).
El pasado puede influir en las series
futuras.

27
Características de las series temporales

• Las series temporales tienen un orden cronológico que influye en la


estimación. Las de corte transversal solo interesa las observaciones
y no el orden.
• En cada periodo se obtendrá una realización diferente (proceso
estocástico)
• El tamaño de la base de datos no constituyen individuos sino el
número de periodos analizados.

28
Ejemplos de modelos de series temporales
• Modelo estático de variables con relación contemporánea:
yt = b0 + b1zt + ut

• Modelo de Rezagos Distribuidos Finitos: (RDF):


yt = a0 + d0zt + d1zt-1 + d2zt-2 + ut

• Permite que una o más variables influyan en la variable


independiente contemporáneamente y con rezagos.

29
Modelo de Rezagos Distribuidos Finitos (RDF)

• d0 es el multiplicador de impacto contemporáneo o propensión de


impacto. Refleja el cambio inmediato en “y”

• d0 + d1 +…+ dq es la propensión de largo plazo o multiplicador de


largo plazo. Es el cambio en y ante un cambio permanente en una
unidad de x.

30
Ejemplo: un modelo dinámico de RDF
• intt = 1.6 + 0.48inft - 0.15inft-1 + 0.32inft-2 +ut
Donde int es la tasa de interés e inf es la tasa de inflación donde
ambos son datos anuales.

Ante un cambio en 1 p.p de la tasa de inflación el tipo de interés se


incrementa en 0.48p.p. La inflación tiene un impacto rezagado, la
inflación del año anterior influye en 0.15p.p en la disminución del
tipo de interés. Luego de 2 años la inflación tiene un impacto de
0.32p.p en el tipo de interés.
• Impacto contemporáneo: 0.48p.p
• Impacto de largo plazo o multiplicador de largo plazo: 0.65p.p

31
Series temporales: supuestos para un
estimador insesgado

1. Un proceso de series de tiempo es lineal en los parámetros:


yt = b0 + b1xt1 + . . .+ bkxtk + ut
2. Media condicional cero: E(ut|X) = 0, t = 1, 2, …, n es decir, las x son
estrictamente exógenas
3. No multicolinealidad: No hay variables explicativas constantes ni que
son combinacionales lineales de otras.

Con el cumplimiento de estas 3 hipótesis, en especial y más


importante E(ut|X) , BMCO será un estimador insesgado.

32
Varianza del estimador BMCO

4. Var(ut|X) = Var(ut) = s2
La varianza del término de error es constante en el tiempo y no
depende de las x.
5. Ausencia de correlación serial:
Corr(ut,us| X)=0 for t ¹ s
Los errores en cualquier momento del tiempo no deben estar
correlacioados

Bajo los supuestos 1 al 5, el estimador BMCO es el mejor estimador


lineal e insesgado de varianza mínima (Teorema de Gauss-Markov).

33
Tendencia en una serie temporal

• Una serie económica por lo general tendrá tendencia.


• Sin embargo si dos series económicas tienen tendencia no implica
causalidad.
• Una tendencia también se debe a factores inobservados.
• Añadir una tendencial lineal en nuestro modelo puede mejorar
nuestras estimaciones.

34
Tendencia en una serie temporal

• Tendencia lineal
yt = a0 + a1t + et, t = 1, 2, …

• Tendencia exponencial
log(yt) = a0 + a1t + et, t = 1, 2, …

• Tendencia cuadrática
yt = a0 + a1t + a2t2 + et, t = 1, 2, …

35
Uso de una variable de tendencia en un
modelo de regresión
• Importante: tener en cuenta factores no observados con tendencia
que afectan a la variable endógena pueden estar correlacionados
con nuestras variables explicativas.

• Si no tenemos en cuenta la tendencia de la serie en nuestro modelo


podemos caer en falsa conclusion (Regresión espúrea)

• La solución es añadir una variable de tendencia a nuestro modelo.

• La adición de una variable de tendencia nos indicaría si existe


relación causal o se trata de un problema de regresion espúrea.

36
Ejemplo de una regresion con tendencia
Inversión en viviendas Índice de precios de vivienda

1.05
80000 100000 120000 140000 160000

1
housing price index; 1982 = 1
real housing inv, millions $

.85 .9 .95
60000

.8
1950 1960 1970 1980 1990 1950 1960 1970 1980 1990
1947-1988 1947-1988

37
Ejemplo de una regresion con tendencia
linv Coef. Std. Err. t P>|t| [95% Conf. Interval]

lprice 3.278315 .5159568 6.35 0.000 2.235527 4.321102


_cons 11.82087 .0580511 203.63 0.000 11.70354 11.9382

linvpc Coef. Std. Err. t P>|t| [95% Conf. Interval]

lprice -.3809612 .6788352 -0.56 0.578 -1.754035 .9921125


trend .0098287 .0035122 2.80 0.008 .0027246 .0169328
_cons -.9130595 .1356133 -6.73 0.000 -1.187363 -.6387557

• Si sólo hacemos una regresión de loginversión y logprice diríamos que el precio de la


vivienda influye totalmente en la oferta de viviendas.
• Sin embargo, estamos ignorando varias variables omitidas que afectan al precio y a su
vez la inversión de viviendas, el estimador está sesgado.
• Al incorporar una variable de tendencia se captura la influencia que tienen factores
no observados que hace que la oferta crezca hacia arriba o hacia abajo. En el
ejemplo, la inversión en vivienda estuvo creciendo alrededor de 0.9% periodo tras
periodo.
• No podemos decir en absoluto que la oferta de viviendas es sólo afectada por el
precio. La primera regresión muestra una relación espúrea.
38
Estacionalidad
• Estacionalidad es un comportamiento típico de series mensuales, diarias y
trimestrales. Las anuales no tienen este comportamiento.

• Ejemplo: Empresas comerciales tienen ventas superiores en el 4to trimestre


que los primeros trimestres (efecto vacaciones, navidad, Aguinaldo).

• Para poder analizar la evolución real de una serie se debe ajustar por el factor
estacional. Es decir, se debe trabajar con una serie desestacionalizada.

• La estacionalidad puede ser capturada añadiendo variables binarias


mensuales/diarias/ trimestrales y omitiendo una para evitar multicolinealidad.
Si se desea eliminarla se deben tomar tasas de crecimiento interanual o
desestacionalizarla (promedios móviles, paquetes eviews , spss).

• La desestacionalización implica trabajar con una serie aislada de cualquier ciclo


estacional que pueda afectar las estimaciones.

39
Estacionalidad ejemplos

40
Capturando el efecto estacional en un
modelo de regresión
Ejemplo de cómo capturar alguna influencia estacional

• Supongamos que vamos a estimar una ecuación de demanda para una


empresa del sector retail.

• La ecuación del modelo es suponer que las ventas están en función a los
gastos en publidad y variables dummies estacionales para los trimestres 2,3,y
4, tomando el primer trimestre como referencia.

• Vemos que el coeficiente asociado a la variable dummy para el cuarto


trimestre es alto. Debido al efecto navidad - año nuevo.

• En promedio, las ventas en el trimestre cuarto, son 73% más en relación al


primer trimestre. (e0.55-1)*100.

41
Recordar….
Componente de las series temporales

Yt = Tt + St + It
• Valor observado = Tendencia + Estacionalidad + Irregular

• Tendencia: comportamiento o movimiento suave de la serie a largo


plazo.

• Estacionalidad: movimientos de oscilación dentro del año.

• Irregular: variaciones aleatorias alrededor de los componentes


anteriores.

42
INTRODUCCION
PROCESOS
ESTOCÁSTICOS

43
Proceso estocástico estacionario

44
Proceso estocástico estacionario en
Covarianza
• Un proceso estocástico estacionario en covarianza es si E(xt) es constante, Var(xt)
es constante y para todo t, h ≥ 1, Cov(xt, xt+h) depende solo de h y no de t.
• E(xt)=x0
• VAR(xt)=
• Cov(xt, xt+h)=t-h (rezago)
• Un proceso estocástico estacionario en covarianza significa que los segundos
momentos son finitos (constantes) y el valor de la covarianza entre dos periodos
depende solamente de la distancia o rezago entre estos dos periodos de tiempo,
y no del tiempo en el cual se ha calculado la covarianza.
• Al proceso estocástico en covarianza se le conoce como debilmente estacionario,
estacionario de Segundo orden o proceso estocástico estacionario en sentido
amplio.

45
Importancia de la estacionariedad en el
análisis econométrico
• Si una serie no es estacionaria, no se puede analizar su comportamiento
(la media y la varianza serían infinitas).
• Las series económicas que presentan una marcada tendencia creciente o
alta variabilidad no son estacionarias.
• La estacionariedad implica que la variable retorne a una senda estable
en el tiempo ante cualquier shock (reversión a la media).
• Para fines de pronóstico es importante trabajar con series estacionarias
de manera a predecir su comportamiento.
• La estacionariedad require que la varianza de la variable sea constante.
Implica incertidumbre acotada y proceso no explosivo.

46
Modelos Autoregresivos de Media Móvil
(ARMA)
• Recordar que una serie de tiempo {yt}Tt=1 es simplemente la
realización de un proceso estocástico.
• Supongamos que tenemos una serie de tiempo en donde tenemos
las realizaciones del proceso (un valor por período).
y1, y2,.....yt que son los datos observados y queremos proyectar valores
futuros yt+1, yt+2,.....yt+k

• La tarea a resolver sería encontrar cuál fue el proceso generador de


datos de esa serie de tiempo. O al menos encontrar la esencia que
hizo posible que se generara tal suceso estocástico.
• Para eso se recurren a la estimación de modelos que intentan
estimar la característica del proceso estocástico que hizo posible que
se generan los datos de la serie de tiempo.

47
Tipos de modelos para
especificaciones estacionarias
• Todas las series de tiempo que son estacionarias se pueden modelizar a través de una
estructura tipo ARMA.
• Proceso Autorregresivo (AR): proceso que se explica donde la serie depende sus valores
pasados.
• Proceso de Medias Móviles (MA): proceso que se explica donde la serie depende de sus
innovaciones pasadas (shocks aleatorios = ruido blanco)
• Combinación tanto de procesos autorregresivos y medias móviles (ARMA): proceso que
se explican tanto porque dependen de los valores pasados propios de la serie y de las
innovaciones pasadas.

48
Proceso MA(1) de medias móviles
• Un proceso de medias móviles de orden 1 [MA(1)] se caracteriza por la
siguiente relación:
yt = ϵt + a1ϵ t-1. , t = 1, 2, …

donde ϵ t es una secuencia de i.i.d con media 0 and varianzas2e

• El modelo de medias móviles es siempre estacionario, debido al supuesto de ϵ t


y por que los shocks son variables aleatorias no correlacionadas.
• La variable dependiente se explica por las innovaciones o shocks aleatorios que
se han producido en t-1.
• Por definición un MA es siempre estacionario. Los términos de error de
períodos anteriores son independientes de los términos de error actuales.
• Sólo la primera autocorrelación será distinta de cero.

49
Proceso MA(1) de medias móviles

50
Proceso MA(1) de medias móviles

51
Proceso MA(1) de medias móviles

52
Proceso MA(1): Resumen de propiedades del
proceso

Ninguno de los momentos muestrales dependen del tiempo (t), por lo que un
proceso MA(1) siempre será estacionario.

53
Gráfico de autocorrelación de un proceso
MA(1)
Correlograma de un MA(1)

54
Invertibilidad de un proceso MA(1)
• Una condición que hay que verificar es la invertibilidad de un proceso
MA(1).
• Esta condición permitirá que un MA pueda representarse como un
proceso autoregresivo infinito y convergente.
• Convergencia significa que los coeficientes del AR decrecen a cero
conforme avanza el tiempo.
• La idea de la invertibilidad de un MA es que las innovaciones/ruido
blanco pueden invertirse a representaciones de observaciones
pasadas.
• Esto es necesario si queremos pronosticar o modelar una serie
temporal, ya que si el proceso no es invertible las innovaciones del
pasado no podrán estimados, en consecuencia la serie no se podrá
utilizar para fines de pronóstico
• Que un MA pueda representarse como un AR significa que la serie
podrá estimarse

55
Invertibilidad de un proceso MA(1)

56
Proceso MA(q) de orden superior

57
Proceso MA(q) de orden superior

58
Invertibilidad de un Proceso MA(q)

Un proceso MA(q) siempre será estacionario pero no siempre podrá ser


invertible, para el último se deberá evaluar las raíces del polinomio.
59
Ejemplo: proceso MA(2)
• yt = ϵt + 0.5ϵt−1 + 0.5ϵt−2

60
Ejemplo: proceso MA(4)

• yt = ϵt − 0.6ϵt−1 + 0.3ϵt−2 − 0.5ϵt−3 + 0.5ϵt−4

61
Proceso Autorregresivo de Orden 1 AR(1)

62
Proceso Autorregresivo de Orden 1 AR(1)

63
Momentos muestrales de un AR(1)

Para obtener la varianza escribimos el proceso AR(1) en términos de


desviación con respecto a la media sin la constante.

64
Momentos muestrales de un AR(1)

Generalizando la autocovarianza de un AR(1) será:

65
66
0.80 0.60
Autocorrelations of y
0.00 0.20 0.40
-0.20

0 10 20 30
Lag
Bartlett's formula for MA(q) 95% confidence bands

A diferencia de un MA(1) las autocorrelaciones no se desvanecen rápidamente a


cero. Un proceso AR siempre tendrá más persistencia, mientras un modelo MA
tendrá memoria de corto plazo (las autocorrelaciones caen rápidamente a cero). 67
Proceso AR(p)

68
Proceso AR(p)

69
Ejemplo: AR(2)

70
¿Es estacionario?

71
Procesos ARMA (Autorregresivo de Media
Móvil)

72
Procesos ARMA (Autorregresivo de Media
Móvil)

73
Identificación de un proceso ARMA

74
Proceso AR(1) en el correlograma

0.50
0.50

0.40
0.40

Partial autocorrelations of X
Autocorrelations of X
0.30

0.30
0.20

0.20
0.10

0.10
0.00

0.00
0 10 20 30 40 0 10 20 30 40
Lag Lag
Bartlett's formula for MA(q) 95% confidence bands 95% Confidence bands [se = 1/sqrt(n)]

75
Proceso MA(1) en el correlograma

76
Ejemplo de un proceso ARMA

77
Autocorrelations of arma11
-0.20 -0.10 0.00 0.10 0.20 0.30

0
5
10
Lag
15

Bartlett's formula for MA(q) 95% confidence bands


20
Partial autocorrelations of arma11
-0.20 -0.10 0.00 0.10 0.20 0.30

0
5
10
Lag
95% Confidence bands [se = 1/sqrt(n)]
15
20

78
Proceso estacionario con tendencia
• Una serie con tendencia puede no ser estacionaria ya que a medida
que avanza el tiempo la media cambia y puede no ser constante.
• Sin embargo, puede ser estacionaria alrededor de su tendencia en el
tiempo y ser débilmente dependiente (es decir xt y xt-1 se vuelven
independientes cuando h tiende al infinito, Cov [yt , yt+h] → 0,
cuando h → ∞.
• Una serie con tendencia y débilmente dependiente se lo llama serie
estacionaria en tendencia.

79
PROCESOS INTEGRADOS
NO ESTACIONARIOS
MODELO AUTORREGRESIVO
INTEGRADO DE MEDIA MÓVIL
(ARIMA)

80
Procesos Estocásticos No estacionarios
Autorregresivo Integrado de Media Móvil
(ARIMA)
• Hasta ahora hemos visto que podemos modelizar una serie de
tiempo siempre que sea estacionaria.
• Lastimosamente, en el mundo real, pocas series son estacionarias. La
mayoría tienen tendencias estocásticas.

81
Procesos estocásticos no estacionarios:
Caminata aleatoria

82
Procesos estocásticos no estacionarios:
Caminata aleatoria

83
Procesos estocásticos no estacionarios:
Caminata Aleatoria

84
Procesos estocásticos no estacionarios:
Caminata aleatoria con deriva

+ Y0

85
Transformación de series temporales
altamente persistentes

• Hacer un modelo de regresión con series altamente persistentes


puede dar como resultado una regresión espurea.
• Una serie de tiempo altamente persistente es un patrón de no
estacionariedad.
• Realizar una regresión de dos variables caminata aleatoria, por
ejemplo “Y” es no estacionario como también ”X” es no estacionario,
dará como resultados residuos “explosivos” (no convergen a su
media). Media y varianza no acotada. Imposible predecir la serie.
• Para modelar empíricamente una regresión se debe convertir la serie
no estacionaria en estacionaria.
• Es decir, se debe trabajar con series eliminando la tendencia y el
componente estacional si los hubiere.

86
Transformación de series temporales
altamente persistentes

87
Transformación de series temporales
altamente persistentes

88
89
190
91
Pronósticos con ARIMA y la metodología Box-
Jenkins

92
Prueba de Raíces Unitarias
Regresiones Espúreas
y
Cointegración

93
Prueba de Raiz Unitaria: Test de Dicky Fuller

94
Prueba de Raíz Unitaria: Test de Dicky Fuller
• La prueba de Dicky - Fuller para comprobar si una serie tiene raíz
unitaria sigue una distribución igual al estadístico t pero se
denomina“ tau”.

• No confundir con la t de student tradicional porque el estadístico tau


se compara con la tabla de los valores críticos del test de Dicky-Fuller
y no con la tabla de la t de student.

• Los valores críticos fueron tabulados por Dicky-Fuller (1979) y


Mackinnon (1991).

• La prueba Dicky-Fuller se realiza usando tanto el test DF tradicional y


el ADF (Dicky-Fuller aumentado, que incluye rezagos de la variable
diferenciada en la prueba).

• El test ADF incluye rezagos en la prueba para eliminar posibles


autocorrelaciones existentes que pueden contaminar la prueba. 95
Ejemplo 1: Test de Dicky – Fuller para la tasa
de interés de los certificados del tesoro de
USA (Wooldrige, pág.641)

20
D.r3 Coef. Std. Err. t P>|t| [95% Conf. Interval]

bond equiv. yield, 3 mo T-bill


15
r3
L1. -.0907106 .0366782 -2.47 0.015 -.1633247 -.0180965

_cons .6253371 .2608254 2.40 0.018 .1089645 1.14171

5 100
0 50 100 150
t

96
Prueba de Raiz Unitaria: Test de Dicky –Fuller
Aumentado - ADF

97
Ejemplo 2: Test de Dicky Fuller
Aumentado(ADF) para la inflación de USA
(Wooldrige, pág 643)

D.inf Coef. Std. Err. t P>|t| [95% Conf. Interval]

inf
LD. .1383615 .1264026 1.09 0.280 -.1163861 .3931091
L1. -.3103252 .1027077 -3.02 0.004 -.517319 -.1033315

_cons 1.360791 .5167103 2.63 0.012 .3194297 2.402152

t=-3.02, mayor al valor crítico al 5% y al 10% (-2.86 y -2.57)


Se rechaza la H0 de raiz unitaria de la inflación.
La inflación es estacionaria.
15 10
CPI inflation rate
5 0

1950 1960 1970 1980 1990 2000


1948-1996
98
Regresión Espuria
• Una regresión espuria ocurre cuando realizamos regresiones entre dos o más variables
altamente persistentes, es decir no estacionarias o integradas de orden 1 I(1).

• Usualmente podemos obtener estadísticos t significativos y un R2 alto. Sin embargo, como


estamos modelando series no estables (no estacionarias) con media y varianza incierta, el
resultado de la regresión es una regresión espuria.

• Una regresion espuria también implica que los shocks no se desvanecen (no son ruido
blanco) y persisten en el tiempo.

• La detección de autocorrelación es un indicativo que la regresión es espuria.

• Cuando trabajamos con series de tiempo se debe tener cuidado en inferir resultados
cuando las series son I(1) y tengan tendencias estocásticas.

• Para trabajar con los datos de series de tiempo se deben trabajar con series estacionarias.

99
Cointegración

100
Cointegración: Prueba de Engle-
Granger/Prueba de estacionariedad
• El procedimiento de aplicar la prueba de DFA a los residuos de la
regresión se denomina Prueba de Engle-Granger.
• Los valores asintóticos críticos al 1%, 5% y 10% corresponden a la
tabla de Davidson y Mackinnon del estadístico t (tau) .
• H0: Las series no están cointegradas
• H1: Las series están cointegradas
• El rechazar la hipótesis nula implica que las variables analizadas están
cointegradas, comparten una tendencia en común a largo plazo y
nuestra regresión no es espuria.
• La cointegración es una prueba aplicada sólo cuando trabajamos con
datos no estacionarios. Si las series temporales son no estacionarias
se debe chequear si existe una relación estable entre ellas
(cointegración).

101
Requisitos para la existencia de cointegración
Recordar: cointegración implica relación estable entre las variables de la
regresión estimada

1) Condición necesaria pero no suficiente


Las series deberán tener al menos el mismo orden de integración. Ejemplo:
si hay dos variables X e Y, ambas series deberán ser I(1).

2) Condición necesaria, suficiente y fundamental


El residuo de la regresión debe ser estacionario I(0). Si el residuo es
estacionario las series están cointegradas y a largo plazo habrá un
equilibrio entre las mismas.

Inconvenientes: Una serie puede ser I(0) y otra I(1) o pueden tener
diferentes orden de integración pero al menos para que exista
cointegración y se descarte la posibilidad de una regresión espúrea, el
residuo de la regresión debe ser estacionario.
102
Ejemplo 3: Cointegración entre r6 y r3, tasas
de los certificados del tesoro de USA a 6 y 3
meses
Realizado la regresión de r6 sobre r3

Aplico la prueba ADF


D.e Coef. Std. Err. t P>|t| [95% Conf. Interval]

e
L1. -.6320678 .1120843 -5.64 0.000 -.8540059 -.4101296
LD. -.1460544 .0914803 -1.60 0.113 -.3271945 .0350858

_cons -.0038495 .0225695 -0.17 0.865 -.0485393 .0408403

Augmented Dickey-Fuller test for unit root Number of obs = 122

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(t) -5.667 -2.597 -1.950 -1.611

Ecuación de cointegración: r6 = 0.13 + 1.03r3


Como existe cointegración, se descarta la posibilidad de que los resultados sean una
regresión espúrea por lo que existe una relación estable a largo plazo entre las variables.
103
Resumen
• Las series estacionarias tienen memoria de corto plazo.
• Los shocks no persisten en el tiempo y las series regresan a su valor
medio.
• Las series no estacionarias presentan tendencia y alta persistencia de
los shocks.
• Series no estacionarias son caminatas aleatorias (series con raíz
unitaria/serie no estacionaria) con varianza explosiva. El efecto del
shock o innovaciones son permanentes.
• Para hacer regresiones con series no estacionarias se debe eliminar
cualquier ciclo, tendencia o estacionalidad y transformala en
estacionaria (tomar la diferencia de la serie hasta volverla estacionaria).
• Hacer regresiones de series que no son estacionarias puede ocasionar
regresiones espúreas.
• Sin embargo si dos series son I(1) pero una combinación lineal de ellas
produce una serie estacionaria I(0) se dice que existe cointegración o
un equilibrio estable a largo plazo de las series. Para ello el residuo de
la regresión debe ser estacionario.
104

También podría gustarte