Series de Tiempo - Desbloqueado
Series de Tiempo - Desbloqueado
Series de Tiempo - Desbloqueado
DE MXICO
FACULTAD DE CIENCIAS
T E S I S
ACTUARIO
P R E S E N T A :
2015
Ciudad Universitaria, D. F.
FACULTAD DE CIENCIAS
UNAM
UNAM Direccin General de Bibliotecas
Tesis Digitales
Restricciones de uso
DERECHOS RESERVADOS
PROHIBIDA SU REPRODUCCIN TOTAL O PARCIAL
Todo el material contenido en esta tesis esta protegido por la Ley Federal
del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (Mxico).
Al resto de mi familia, por todos sus consejos, paciencia, amor y grandes momentos de
felicidad, por aquellas reuniones en Navidad y Ao Nuevo donde juntos hacamos valer el signi-
cado de la familia. A mis abuelos paternos y abuelo materno, por los momentos tan especiales
que pas mientras estuvieron con nosotros. A mi abuela materna, por continuar enviando sus
bendiciones para hacer de mi vida mucho ms amena.
A mi director de tesis, Ricardo, no slo por tenerme paciencia y guiarme a lo largo de este
extenso proyecto sino tambin por creer en mi en estos ya dos aos de impartir clases juntos.
Gracias a su dedicacin, apoyo incondicional y crticas constructivas he logrado dar por nali-
zado este proyecto.
A mis sinodales, Dr. Alberto Contreras Cristn, Dra. Ruth Selene Fuentes Garca, Dr. Yuri
Salazar Flores y M. en C. Jos Salvador Zamora Muoz, por haber ledo esta tesis y comple-
mentado la misma con consejos y sugerencias.
A mis mejores amigos (Cristina, Lourdes, Mnica, Ana, Carlos, Andrs, Alejandro), por
estar a mi lado cuando muestro mi mejor versin y la peor, por ensearme un sinfn de cosas,
por las risas y locuras que hemos compartido, por haberme retado, por haberme hecho fuerte
y valiente, por compartir sus vidas conmigo y dejarme ser una parte importante de ellas.
A mis alumnos, por todas aquellas preguntas y dudas que tuvieron y que a partir de ellas
hicieron de m una persona mucho ms preparada.
Finalmente, a todos aquellos que se han cruzado en mi camino por la razn que haya sido,
buena o mala, ya que gracias a ellos yo no sera lo que soy el da de hoy.
Contenido
Conclusiones 267
A. Tablas Estadsticas 271
ndice de guras
2.2.1. Figura que muestra el nmero de acciones de atencin otorgadas por Condusef 32
2.2.2. Representacin grca del nmero de acciones de atencin . . . . . . . . . . . 34
2.2.3. Figura que muestra la relacin media-desviacin estndar . . . . . . . . . . . . 36
2.3.1. Figura que muestra el PIB trimestral de Estados Unidos . . . . . . . . . . . . 38
2.3.2. Figura que muestra el PIB trimestral de Mxico . . . . . . . . . . . . . . . . . 40
2.3.3. Figura que muestra el total de importaciones de bienes y servicios de Australia 43
2.3.4. Figura que muestra el ajuste de la funcin polinmica al total de importaciones 43
2.3.5. Figura que muestra a los residuos del total de importaciones australianas . . . 44
2.3.6. Figura que muestra el gasto en servicios nancieros en Australia . . . . . . . . 47
2.3.7. Suavizamiento por promedios mviles en el nmero de acciones de atencin . . 50
2.3.8. Figura correspondiente al nivel (pies) del lago Hurn . . . . . . . . . . . . . . 50
2.3.9. Suavizamiento por promedios mviles del nivel (pies) del lago Hurn con q=2 . 51
2.3.10. Suavizamiento por promedios mviles del nivel (pies) del lago Hurn con q=8 . 51
2.3.11. Suavizamiento exponencial simple en el nmero de acciones de atencin . . . . 53
2.3.12. Suavizamiento exponencial simple ( = 0.8) del nmero de acciones de atencin 55
2.3.13. Figura que muestra el total de importaciones de bienes y servicios de Australia 56
2.3.14. Suavizamiento exponencial simple del total de importaciones (=0.3) . . . . . 56
2.3.15. Figura que muestra el mtodo de Holt para el nmero de acciones de atencin 59
2.3.16. Mtodo de Holt ( = 0.8 y = 0.2) para el nmero de acciones de atencin . . 59
1
2.3.17. Mtodo de Holt (L = Y1 y b1 = 0) para el nmero de acciones de atencin . . 60
2.4.1. Mtodo Holt-Winters aditivo para el nmero de acciones de atencin . . . . . . 64
2.4.2. Figura que muestra las predicciones para el nmero de acciones de atencin . . 65
2.4.3. Figura que muestra el nmero de pasajeros mensuales . . . . . . . . . . . . . . 66
2.4.4. Figura que muestra el nmero de pasajeros mensuales bajo Holt-Winters . . . 66
2.4.5. Mtodo de Holt-Winters multiplicativo para el nmero de acciones de atencin 68
2.5.1. Figura que muestra las ventas trimestrales de cierta empresa mexicana . . . . 69
2.5.2. Figura que muestra las ventas trimestrales sin la presencia de estacionalidad . 71
3.7.1. Figura que muestra el ndice de precios al mayoreo en la Ciudad de Mxico . . 200
3.7.2. Figura ACF del ndice de precios al mayoreo . . . . . . . . . . . . . . . . . . . 200
3.7.3. Figura ACF del ndice de precios al mayoreo diferenciado . . . . . . . . . . . . 201
3.7.4. Figura PACF del ndice de precios al mayoreo diferenciado . . . . . . . . . . . 201
3.7.5. Figura que muestra la vericacin de los supuestos del modelo . . . . . . . . . 203
3.7.6. Figura que muestra a los residuos y su correspondiente histograma . . . . . . . 204
3.7.7. Pronstico para el ndice de precios al mayoreo en la Ciudad de Mxico . . . . 205
3.7.8. Figura que muestra los residuos y su correspondiente histograma (logaritmo) . 206
3.9.1. Figura de un proceso con estacionalidad . . . . . . . . . . . . . . . . . . . . . . 213
3.9.2. Figura que muestra el nivel de lluvia en Port-Harcourt . . . . . . . . . . . . . 214
3.9.3. Figura que muestra el nivel de lluvia sin la presencia de estacionalidad . . . . . 215
3.9.4. Figura ACF del nivel de lluvia en Port-Harcourt . . . . . . . . . . . . . . . . . 216
3.9.5. Prediccin del nivel de lluvia en Port-Harcourt para los aos 2009-2012 . . . . 217
3.9.6. Figura que muestra la vericacin de los supuestos del modelo . . . . . . . . . 218
3.9.7. Figura que muestra los residuos e histograma . . . . . . . . . . . . . . . . . . . 219
4.1.1. Figura que muestra el nmero de pasajeros de cierta aerolnea internacional . . 223
4.1.2. Figura que muestra el consumo de gas en el Reino Unido . . . . . . . . . . . . 224
4.1.3. Figura que muestra el ndice de utilidades del Dow Jones . . . . . . . . . . . . 224
4.1.4. Figura que muestra el ndice de precios al consumo (IPC) . . . . . . . . . . . . 224
4.2.1. Figura que muestra la distribucin a priori y a posteriori de los actuarios . . . 230
4.2.2. Figura que muestra la distribucin a posteriori del actuario A y B | y = 770 . . 231
4.3.1. Figura que muestra el ujo anual del ro Nilo en los aos 1871-1970 . . . . . . 238
4.3.2. Figura que muestra el ltro para el ujo anual del ro Nilo . . . . . . . . . . . 239
4.3.3. Figura que muestra el suavizamiento para el ujo anual del ro Nilo . . . . . . 240
4.3.4. Figura que muestra el pronstico a un paso para el ujo anual del ro Nilo . . . 241
4.3.5. Figura que muestra ambos ltros para el ujo anual del ro Nilo . . . . . . . . 242
4.3.6. Figura que muestra ambos pronsticos a un paso para el ujo anual del Nilo . 243
4.3.7. Figura que muestra grcos de residuos para el primer modelo . . . . . . . . . 244
4.3.8. Figura que muestra grcos de residuos para el segundo modelo . . . . . . . . 245
4.4.1. Figura que muestra los cambios porcentuales del ingreso y gasto en U.S.A. . . 249
4.4.2. Figura que muestra los residuos del proceso AR(2) . . . . . . . . . . . . . . . . 251
4.4.3. Figura que muestra la sucesin de autocorrelaciones muestrales (ACF) . . . . . 252
4.4.4. Figura que muestra la sucesin de autocorrelaciones parciales (PACF) . . . . . 252
4.4.5. Figura que muestra el pronstico del ingreso para los prximos 3 aos . . . . . 254
4.4.6. Figura que muestra el pronstico para el PIB mexicano para los prx. 3 aos . 259
4.4.7. Figura que muestra el pronstico para el PIB de U.S.A para aos 1991-1994 . 261
4.4.8. Figura que muestra el pronstico para el IPC mexicano para los prx. 2 aos . 265
ndice de tablas
3.2.1. Tabla que muestra los valores aproximados para las transformaciones de Box-Cox 85
2
3.5.1. Tabla que muestra la sucesin de autocorrelaciones muestrales para Xt . . . 150
2
3.5.2. Tabla que muestra la sucesin de autocorrelaciones parciales para Xt . . . . 150
3.5.3. Tabla que muestra la sucesin de autocorrelaciones muestrales para Xt . . . 151
3.5.4. Tabla que muestra la sucesin de autocorrelaciones parciales para Xt . . . . 151
3.5.5. Tabla que muestra la sucesin de autocorrelacines de los residuos de {Zt } . . 172
3.6.1. Pronsticos para el nmero de acciones de atencin para el ao 2013 . . . . . . 187
3.7.1. Tabla que muestra las caractersticas tericas de la ACF y PACF . . . . . . . . 196
3.7.2. Tabla que muestra el ndice de precios al mayoreo en la Ciudad de Mxico . . 199
Resumen
Este proyecto se caracteriza por su extensin ya que se han querido abordar varios objetivos.
El primero de ellos es el de servir como material de consulta en el tema de series de tiempo
para futuras generaciones con preparacin matemtica moderada o elevada. Todos los temas
elaborados en este escrito se han tratado con la mayor seriedad posible guiando al lector a
travs de ejemplos sencillos para la fcil comprensin del tema en cuestin, hasta proposiciones
un tanto complicadas pero con inmensa utilidad en la prctica.
El tercer objetivo ha sido el de brindar un mtodo alternativo para el pronstico del nmero
de acciones de atencin otorgadas por Condusef. Durante mi estancia en dicha Institucin tuve
la inquietud de proponer un mtodo que pronosticase de manera eciente el nmero de acciones
de atencin mensuales otorgadas por Condusef. Lo anterior con la nalidad de estar preparados
en el futuro para atender las necesidades de los usuarios de servicios nancieros.
El contenido del trabajo comienza con un captulo de carcter introductorio, que nos re-
cuerda nociones bsicas del modelo de regresin lineal simple, estimacin de parmetros, los
supuestos del modelo y las consecuencias de que algunos de ellos no se lleguen a cumplir. Es-
pecial atencin se pondr en el supuesto de correlacin entre las observaciones de las variables
involucradas. A partir de la falla en este supuesto y otras en los dems supuestos se dar pie
a utilizar series de tiempo como tcnica alternativa en la previsin de fenmenos de cualquier
naturaleza.
1.1. Introduccin
El anlisis de regresin es una de las tcnicas ms utilizadas al momento de investigar
y modelar la relacin que existe entre dos o ms variables. Sus aplicaciones son vastas y las
podemos encontrar en cualquier campo de estudio, por ejemplo, en las ciencias fsicas, qumicas,
biolgicas y sociales. Comencemos con un ejemplo que utilizaremos a lo largo de este captulo
para desglosar y comprender el uso del as llamado anlisis de regresin simple.
Supongamos que un investigador sospecha que el punto de ebullicin del agua ( F) en cierta
ciudad est relacionado con la presin baromtrica (pulgadas de mercurio) ejercida en dicha
ciudad. Para corroborar esta suposicin, el investigador realiza un experimento obteniendo los
datos mostrados en laTabla 1.1.1. Dichos datos fueron tomados de Montgomery y Peck (1992).
Las 17 observaciones gracadas en el diagrama de dispersin que se muestra en la Figura
1.1.1, sugieren una fuerte relacin entre la presin baromtrica y el punto de ebullicin del
agua. De hecho, nuestra primera impresin es que los datos, en su mayora, caen a lo largo de
una lnea recta. Sea y la variable que representa el punto de ebullicin del agua y x la variable
que representa la presin baromtrica, entonces la ecuacin que relaciona a estas dos variables
est dada por:
y = + x (1.1.1)
Debido a esto, nos vemos en la necesidad de aadir una nueva variable que considere la
distancia que existe entre las observaciones y la lnea recta. Es decir, , es una variable aleatoria
que explica la falla o error del modelo de regresin al tratar de ajustar los datos. Nuestra nueva
ecuacin, tomando en consideracin la variable , ser conocida como modelo de regresin
lineal. Dicha ecuacin ser de la forma:
y = + x + (1.1.2)
1
2 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
Tabla 1.1.1: Tabla que relaciona el punto de ebullicin con la presin baromtrica
20 22 24 26 28 30
Presin Baromtrica
Figura 1.1.1: Figura que relaciona la presin baromtrica con el punto de ebullicin
1.2. ESTIMACIN DE LOS PARMETROS 3
E(y|x) = E( + x + ) = + x (1.1.3)
Antes de comenzar de lleno con el modelo de regresin lineal simple debemos hacer hincapi
en lo siguiente. El modelo de regresin lineal no implica una relacin de causa-efecto entre las
variables. A pesar de que pueda existir una fuerte relacin emprica entre dos o ms variables,
esto no puede ser considerado como evidencia para relacionar a las variables en una manera
de causa-efecto. Para establecer causalidad, la relacin entre variables explicativas y variable
respuesta deben tener una base fuera de la muestra que se ha tomado (datos). El anlisis de
regresin puede ayudar a conrmar la relacin causa-efecto pero no puede ser la nica base
para hacer dicha aseveracin. El anlisis de regresin debe de estar bien establecido por los
expertos en el rea de estudio en la cual se aplica el anlisis.
n
X 2
S( =
, ) yi i
x (1.2.1)
i=1
donde
yi = + xi + i , i = 1, 2, ..., n. (1.2.2)
4 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
La ec. 1.2.2 es conocida como modelo de regresin muestral en trminos de los n pares
de datos (yi , xi ), i = 1, 2, ..., n. Los estimadores por mnimos cuadrados de y , evaluados en
n
S X
i) = 0
= 2 (yi
x (1.2.3)
,
i=1
n
S X
i )xi = 0
= 2 (yi
x (1.2.4)
,
i=1
n
X n
X
+
yi = n xi (1.2.5)
i=1 i=1
n
X n
X n
X
y i xi =
xi + x2i (1.2.6)
i=1 i=1 i=1
= y x
(1.2.7)
Sxy
=
Sxx
donde
n
1X
x = xi
n i=1
(1.2.8)
n
1 X
y = yi
n i=1
n n
!2
X 1 X
Sxx = x2i xi
i=1
n i=1
(1.2.9)
n n
! n
!
X 1 X X
Sxy = xi y i xi yi
i=1
n i=1 i=1
n
X
SSRes = e2i
i=1
n
X
= (yi yi )2
i=1
n
X
= y 2 S
yi2 n xy (1.2.10)
i=1
n
X
= xy
(yi y)2 S
i=1
xy
= SST S
donde SST es la llamada suma de cuadrados total. SSRes , la suma de los errores al
cuadrado, tiene asociada una distribucin ji-cuadrada, con n 2 grados de libertad debido
a la estimacin de
y .
Adems, al asumir ciertos supuestos distribucionales (los cuales se
vern en la Seccin 1.4 2
), se puede demostrar que E(SSRes ) = (n 2) y de aqu concluimos
2
que un estimador insesgado para es el dado por:
SSRes
2 =
= M SRes (1.2.11)
n2
Al valor M SRes se le conocer a partir de ahora como error cuadrtico medio. La raz
2 se le conoce como error estndar de la regresin y tiene las mismas unidades
cuadrada de
que la variable respuesta.
Denamos adems al i-simo residual como la diferencia entre el valor observado yi y su
correspondiente valor ajustado, yi . Es decir,ei = yi yi = yi ( i ), para i = 1, 2, ..., n.
+ x
Finalmente, debemos recalcar que el 2 es dependiente del modelo que hayamos
estimador
ajustado ya que est relacionado con los residuos del modelo de regresin.
Nuestra primer tarea ser estimar los parmetros de la regresin. Pasaremos directamente
al valor de los parmetros estimados, dados por
= 163.9307 y = 1.5796. El ajuste por
mnimos cuadrados ordinarios ser entonces y = 163.9307 + 1.5796x
Call:
lm(formula = Ebullicin ~ Presin)
Residuals:
Min 1Q Median 3Q Max
-1.41483 -0.91550 -0.05148 0.76941 2.72840
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 163.9307 2.6551 61.74 < 2e-16 ***
Presin 1.5796 0.1051 15.04 1.88e-10 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
Para la estimacin de 2
tenemos el siguiente cdigo:
> anova.lm(Ajuste)
Response: Ebullicin
Df Sum Sq Mean Sq F value Pr(>F)
Presin 1 376.92 376.92 226.04 1.879e-10 ***
Residuals 15 25.01 1.67
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> cor.test(Presin,Ebullicin,method="spearman",alternative="two.sided",conf.level=0.95)
En la siguiente seccin se anexa una tabla resumiendo los resultados y algunas propiedades
del ajuste por mnimos cuadrados ordinarios.
n
!
X
= E
E() ci y i
i=1
n
X
= ci E(yi )
i=1
Xn
= ci E( + xi + i )
i=1
n
X
= ci [E() + E(xi ) + E(i )] (1.3.1)
i=1
n
X
= ci ( + xi )
i=1
n
X n
X
= ci + ci x i
i=1 i=1
n
X n
X
ci = 0 y ci x i = 1 (1.3.2)
i=1 i=1
8 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
n
!
X
= V ar
V ar() ci y i
i=1
n
X
= c2i V ar(yi )
i=1
n
X
2
= c2i (1.3.3)
i=1
2 X n
= 2
(xi x)2
Sxx i=1
2
=
Sxx
) =
E( y x)
E(
= y ) E(x)
E(
= y ) E(
E( x) (1.3.4)
= + E( x) E(
x)
=
Debido a que V ar(yi ) = 2 , a que la covarianza entre y y puede probarse que es cero y a
los resultados anteriores, la varianza de
ser:
V ar( y x)
) = V ar(
= V ar(
y ) + x2 V ar() (1.3.5)
x2
2 1
= +
n Sxx
Teorema 1.3.1 Sea yi = + xi + i , para i = 1, 2, ..., n, con x1 , x2 , ..., xn valores jos conoci-
2
dos, y valores observados y 1 ,2 ,...,n , variables aleatorias con E(i ) = 0, V ar(i ) = > 0
i y Cov(i , j ) = 0 i 6= j . Bajo estas condiciones, los estimadores de y por mnimos
cuadradros ordinarios, y respectivamente, son, dentro de la clase de estimadores lineales
insesgados, los mejores, en el sentido de que su varianza es mnima.
1.4. ESTIMACIN POR MXIMA VEROSIMILITUD 9
La Tabla 1.3.1 muestra algunas propiedades y resultados del ajuste por mnimos cuadrados
ordinarios. Por ejemplo, una propiedad til es el hecho de que la suma de los residuos, denidos
anteriormente como ei = yi yi , en cualquier modelo de regresin que contenga al intercepto,
, siempre ser cero. Otra propiedad interesante es que la suma de los valores observados, yi , es
igual a la suma de los valores ajustados, y i . Por ltimo, obtenemos que la suma de los valores
ajustados ponderados por su correspondiente residual, es cercana a cero.
i xi yi yi ei xi e i
1 20.79 199.5 196.77 2.73 56.74
2 20.79 199.3 196.77 2.53 52.59
3 22.40 197.9 199.31 -1.41 -31.67
4 22.67 198.4 199.74 -1.34 -30.38
5 23.15 199.4 200.50 -1.10 -25.43
6 23.35 199.9 200.81 -0.91 -21.35
7 23.89 200.9 201.67 -0.77 -18.33
8 23.99 201.1 201.83 -0.73 -17.40
9 24.02 201.9 201.87 0.03 0.66
10 24.01 201.3 201.86 -0.56 -13.37
11 25.14 203.6 203.64 -0.04 -1.05
12 26.57 204.6 205.90 -1.30 -34.56
13 28.49 209.5 208.93 0.57 16.14
14 27.76 208.6 207.78 0.82 22.75
15 29.64 210.7 210.75 -0.05 -1.48
16 29.88 211.9 211.13 0.77 23.03
17 30.06 212.2 211.41 0.79 23.64
n n n n n
1 X X X X X
xi =25.1 yi =3460.7 yi =3460.7 ei =0.0 xi e i 0
n i=1 i=1 i=1 i=1 i=1
Tabla 1.3.1: Propiedades y resultados del ajuste por mnimos cuadrados ordinarios
n
2
Y 1 1 2
L(xi , yi , , , ) = 1 exp (y xi )
2 i
i=1 (2 2) 2 2
" n
#
1 1 X
= n exp
2
(yi xi )2
(2 )2 2 2 i=1
10 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
n
2 n n 2 1 X
lnL(xi , yi , , , ) = ln(2) ln( ) 2 (yi xi )2 (1.4.1)
2 2 2 i=1
n
lnL 1 X
= (yi xi ) = 0 (1.4.2)
2 i=1
,, 2
n
lnL 1 X
= (yi xi )xi = 0 (1.4.3)
2 i=1
,, 2
n
lnL n 1 X
= 2+ 4 (yi xi )2 = 0 (1.4.4)
2 2 2
,, 2 i=1
La solucin a las ecs. 1.4.2, 1.4.3 y 1.4.4 nos brinda los siguientes estimadores por mxima
verosimilitud:
= y x
Sxy
= (1.4.5)
Sxx
n
2 1X i )2
= (yi
x
n i=1
Ntese que los estimadores por mxima verosimilitud para el intercepto y la pendiente
coinciden con los estimadores por mnimos cuadrados ordinarios. Adems, 2 es un estimador
2
2 = n .
2 , en la forma,
sesgado relacionado con el estimador insesgado de
(n1)
2. Los estimadores tienen varianza mnima cuando son comparados con los dems estima-
dores insesgados. Esto gracias al Teorema de Gauss-Markov referido en la seccin
anterior.
3. Los estimadores son consistentes, es decir, los estimadores dieren de su valor verdadero
en una cuanta muy pequea conforme n se hace grande.
x2 2
1
N
, 2
+ y N , (1.5.1)
n Sxx Sxx
Ahora bien, supongamos que deseamos probar las hiptesis de que el y la intercepto
pendiente toman los valores = 2
y = . Si fuese conocida, podramos utilizar los
estadsticos:
Z = r (1.5.2)
2
2 n1 + Sxxx
Z = q (1.5.3)
2
Sxx
H0 : =
vs H1 : 6=
(1.5.4)
H0 : = vs H1 : 6= (1.5.5)
t = r (1.5.6)
2
M SRes n1 + x
Sxx
t = q (1.5.7)
M SRes
Sxx
12 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
H0 : = 0 vs H1 : 6= 0 (1.5.8)
Existe otro enfoque para obtener la signicancia de la regresin y no es otro que el del
anlisis de varianza (ANOVA). Dicho anlisis comienza con la descomposicin del total de
la variabilidad de y de la siguiente forma:
Elevando al cuadrado ambos lados de la ecuacin y sumando sobre todas las observaciones:
n
X n
X n
X n
X
2 2 2
(yi y) = (yi y) + (yi yi ) + 2 (yi y)(yi yi )
i=1 i=1 i=1 i=1
n
X n
X n
X n
X
2 2
= (yi y) + (yi yi ) + 2 yi ei 2
y ei (1.5.10)
i=1 i=1 i=1 i=1
Xn Xn
= (yi y)2 + (yi yi )2
i=1 i=1
dado que la suma, sobre toda la muestra n, de los residuos siempre es cero, por propiedades
de los estimadores por mnimos cuadrados ordinarios, y la suma de los residuos ponderados por
su correspondiente valor ajustado tamben es igual a cero. Se desprenden algunas propiedades,
a saber:
n
X
1. (yi y)2 es la suma corregida del cuadrado de las observaciones, la cual mide la
i=1
variabilidad total en las observaciones (SST ). SST tiene n1 grados de libertad.
n
X
2. (yi y)2 es la variabilidad de las observaciones yi acometidas por la lnea de regresin
i=1
(SSR ). SSR tiene 1 grado de libertad.
n
X
3. (yi yi )2 es la variacin residual que no logr ser explicada por el modelo de regresin
i=1
(SSRes ). SSRes tiene n2 grados de libertad.
1.5. PRUEBAS DE HIPTESIS SOBRE Y 13
H0 : = 0 vs H1 : 6= 0 (1.5.11)
SSR (n 2)
F0 = (1.5.12)
SSRes (1)
el cual sigue una distribucin F1,n2 . Sea F1,1,n2 el cuantil de una distribucin F con
1 y n 2 grados de libertad que acumula 1 de probabilidad. Se rechaza la hiptesis nula,
H0 , si F0 > F1,1,n2 . A continuacin mostramos la tabla ANOVA desplegada por R para
nuestro ejemplo del punto de ebullicin:
> anova.lm(Ajuste)
Response: Ebullicin
Df Sum Sq Mean Sq F value Pr(>F)
Presin 1 376.92 376.92 226.04 1.879e-10 ***
Residuals 15 25.01 1.67
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> summary(Ajuste)
Call:
lm(formula = Ebullicin ~ Presin)
Residuals:
Min 1Q Median 3Q Max
-1.41483 -0.91550 -0.05148 0.76941 2.72840
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 163.9307 2.6551 61.74 < 2e-16 ***
Presin 1.5796 0.1051 15.04 1.88e-10 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
r y q
M SRes
1 x2
M SRes n
+ Sxx Sxx
siguen una distribucin t con n 2 grados de libertad. Utilizando la misma notacin para
los cuantiles ya introducida, el intervalo de conanza al 100(1 ) % para y es:
s s !
1 x2 1 x2
t1 2 ,n2
M SRes + ,
+ t1 2 ,n2 M SRes + (1.6.1)
n Sxx n Sxx
r r !
M SRes M SRes
t1 2 ,n2 , + t1 2 ,n2 (1.6.2)
Sxx Sxx
2
Slo nos resta la construccin del intervalo de conanza para . Se puede demostrar que la
(n2)(M SRes )
distribucin de es ji-cuadrada con n 2 grados de libertad. De aqu que el intervalo
2
2
de conanza al 100(1 ) % para est dado por:
!
(n 2)M SRes (n 2)M SRes
, (1.6.3)
2 ,n2
1 2 ,n2
> confint(Ajuste)
2.5 % 97.5 %
(Intercept) 158.271527 169.589940
Presin 1.355702 1.803592
1.7. COEFICIENTE DE DETERMINACIN 15
> confint(Ajuste,level=0.90)
5 % 95 %
(Intercept) 159.27621 168.585254
Presin 1.39546 1.763835
Observemos como en ambos intervalos de conanza no est incluido el cero. Este hecho es
una forma adicional, ms no suciente, para corroborar el hecho de que tanto como son
signicativamente distintos a cero.
SSRes
R2 = 1 (1.7.1)
SST
> summary(Ajuste)
Call:
lm(formula = Ebullicin ~ Presin)
Residuals:
Min 1Q Median 3Q Max
-1.41483 -0.91550 -0.05148 0.76941 2.72840
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 163.9307 2.6551 61.74 < 2e-16 ***
Presin 1.5796 0.1051 15.04 1.88e-10 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
4. Los errores, , se distribuyen normalmente. Junto con el supuesto anterior, esto implicara
que los errores, , son variables aleatorias independientes.
Estas sern nuestras hiptesis bsicas y con base en ellas utilizaremos distintos diagnsticos
para evitar consecuencias serias en la implementacin de nuestro modelo. En la seccin 1.2,
denimos a los residuos como ei = yi yi , para i = 1, 2, ..., n. Observemos que los residuos,
ei , pueden ser vistos como la desviacin que existe entre la observacin yi y su correspondiente
valor ajustado yi , es decir, los residuos, ei , son una medida de la variabilidad en y no explicada
por la variable predictora x. Dado que los errores verdaderos i no son observables, podemos
considerar a los residuos como la realizacin de estos errores. As pues, cualquier propiedad
asumida sobre los errores verdaderos, deber vericarse a travs de los residuos.
De gran importancia ser para el estudio de nuestro modelo, identicar valores extremos,
observaciones que se encuentran alejadas de manera importante del resto de nuestras observa-
ciones. Para identicar dichos valores extremos, denimos los residuos estandarizados y los
residuos estudentizados como:
ei
di = (1.8.1)
M SRes
ei
ri = r h i (1.8.2)
x)2
(xi
M SRes 1 n1 + Sxx
donde por una parte, di N (0, 1) aproximadamente (valores di > 3 en la ec. 1.8.1 indican
un posible valor extremo), y por otra, observamos en la ec. 1.8.2 que, observaciones xi cercanas
al promedio x hacen que xi
x sea pequea y por tanto ri grande. De igual manera, observaciones
xi lejanas al promedio x hacen que xi x sea grande y por tanto ri pequea.
Otra forma para investigar la validez del modelo es a travs de la grca de residuos. Debe-
mos resaltar la importancia de la distribucin normal en los errores, , ya que a partir de esta
hiptesis hemos realizado la construccin de los estadsticos F, t, intervalos de conanza, etc.
Desviaciones potenciales de dicha distribucin afectarn a nuestro modelo de manera signica-
tiva, llevndonos a modelos inestables, es decir, al tomar una muestra distinta del problema en
cuestin, podramos obtener un modelo completamente distinto con conclusiones contradicto-
rias a las que habamos adoptado en un principio.
1.8. VERIFICACIN DEL AJUSTE DEL MODELO 17
2
2
Valores Esperados
Valores Esperados
1
1
0
0
1
1
2 1 0 1 2 2 1 0 1 2
(a) Residuos (b) Residuos
0 1 2
Valores Esperados
Valores Esperados
0.5
0.5
2
1.5
2 1 0 1 2 2 1 0 1 2
(c) Residuos (d) Residuos
Figura 1.8.1: Figura que muestra distintas versiones de la grca de probabilidad normal
Nuestra siguiente grca a considerar ser aquella que relacione los residuos, (ei ,di ,ri ), con
su correspondiente valor ajustado yi . Realizar esta grca nos conrmar la hiptesis de ho-
moscedasticidad o varianza constante as como la existencia de posibles valores extremos.
18 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
Si la grca no tiene ningn patrn, es simtrica alrededor del cero y la mayoria de los puntos
estn comprendidos entre los valores 2 y 2 (el 95.5 % de los residuos debe de encontrarse
dentro de 2 desviaciones estndar mientras que el 99.7 % de los mismos, en 3 desviaciones
estndar) signica que no hay defectos obvios en el modelo y que podemos considerar que los
errores tienen varianza constante. Ante las desviaciones de la grca idnea, por ejemplo, para
heteroscedasticidad, podemos aplicar transformaciones a la variable predictora, respuesta
o ambas, para as, estabilizar la varianza. Ante la no-linealidad debemos de transformar las
variables del modelo.
Residuos Estandarizados
4
4
2
2
0
0
2
2
4
540 550 560 570 580 590 600 32150 32250 32350
(a) Valores Ajustados (b) Valores Ajustados
Residuos Estandarizados
4
4
2
2
0
0
2
2
4
> ygorro<-fitted(Ajuste)
> residuos<-resid(Ajuste)
> residuosestandarizados<-rstandard(Ajuste)
> residuosestudentizados<-rstudent(Ajuste)
> skewness(residuos)
[1] 0.9542871
> kurtosis(residuos)
[1] 3.004527
Valores Esperados
2
Ebullicin
1
205
0
1
195
20 22 24 26 28 30 2 1 0 1 2
Presin Residuos
Figura 1.8.3: Figura que muestra a los residuos y grca de probabilidad normal
i xi yi yi ei di ri
1 20.79 199.5 196.7716 2.72839950 2.33537777 2.82820054
2 20.79 199.3 196.7716 2.52839950 2.16418746 2.52114061
3 22.40 197.9 199.3148 -1.41483262 -1.15935568 -1.17387171
4 22.67 198.4 199.7413 -1.34133739 -1.09354503 -1.10127482
5 23.15 199.4 200.4996 -1.09956808 -0.88962208 -0.88306841
6 23.35 199.9 200.8155 -0.91549754 -0.73873085 -0.72702956
7 23.89 200.9 201.6685 -0.76850707 -0.61660378 -0.60339192
8 23.99 201.1 201.8265 -0.72647180 -0.58239974 -0.56912308
9 24.02 201.9 201.8739 0.02613878 0.02095015 0.02024006
10 24.01 201.3 201.8581 -0.55806474 -0.44732131 -0.43506502
11 25.14 203.6 203.6431 -0.04306617 -0.03437731 -0.03321294
12 26.57 204.6 205.9020 -1.30196178 -1.04732960 -1.05097300
13 28.49 209.5 208.9349 0.56511544 0.47058600 0.45802283
14 27.76 208.6 207.7817 0.81825796 0.67012899 0.65732037
15 29.64 210.7 210.7515 -0.05147893 -0.04444974 -0.04294536
16 29.88 211.9 211.1306 0.76940572 0.67055609 0.65775225
17 30.06 212.2 211.4149 0.78506921 0.68929854 0.67672977
Tabla 1.8.1: Tabla que muestra los residuos, residuos estandarizados y estudentizados
20 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
2
1
0.2
0
1
0.0
2 1 0 1 2 3
Residuos Residuos
Figura 1.8.4: Figura que muestra el histograma y el diagrama de caja y bigotes de los residuos
> library(nortest)
> library(lmtest)
> library(moments)
> ad.test(rnorm(residuos,mean=0,sd=1))
Residuos Estudentizados
4
4
2
2
0
0
2
2
4
Finalmente, la Figura 1.8.5 que muestra la relacin existente entre los residuos, estan-
darizados y estudentizados, di y ri , contra los correspondientes valores ajustados yi , nos se-
r til para detectar insuciencias en el modelo. Si la grca no tiene ningn patrn, sig-
nica que no hay defectos obvios en el modelo y que podemos considerar que los errores
tienen varianza constante. En nuestro ejemplo, no existe patrn alguno en la grca de re-
siduos estandarizados y estudentizados (a pesar de que existen dos posibles valores extre-
mos a examinar), por lo que, a partir de la grca, podramos concluir que la varianza es
constante. Sin embargo, podemos realizar una prueba numrica para corroborar este supues-
to. Dicha prueba es la llamada prueba de Breusch-Pagan, la cual tiene como hiptesis
H0 : La varianza es constante vs H1 : La varianza no es constante, y viene dada por el siguien-
te cdigo en R:
> bptest(Ebullicin~Presin,data=PtoEbull)
1. Los parmetros estimados de la regresin por mnimos cuadrados ordinarios siguen siendo
insesgados pero dejan de tener varianza mnima al compararlos con otros estimadores.
r s
M SRes 1 x2
y M SRes +
Sxx n Sxx
sern muy pequeos y por tanto, los intervalos de conanza sern mucho ms estrechos de
lo que deberan ser en principio, dando la falsa impresin de buena precisin del modelo.
t = t1 + at (1.9.1)
yt = + xt + t
= + xt + t1 + at (1.9.2)
= + xt + (t2 + at1 ) + at
Observemos que:
X
t = i ati (1.9.3)
i=0
Se puede demostrar que para un modelo AR(1), se tiene que E(t ) = 0 y adems:
1
V ar(t ) = a 2
1 2
(1.9.4)
a2
Cov(t , t+i ) = |i|
1 2
a 2
Esto nos dice que los errores tienen media 0, varianza constante e igual a
12
, pero estn
autocorrelacionados a menos que = 0. De este punto se desprende la prueba de Durbin-
Watson para correlacin positiva con hiptesis nula y alternativa:
H0 : = 0 vs H1 : > 0 (1.9.5)
con estadstico:
n
X
(t t1 )2
t=2
d = n (1.9.6)
X
2t
t=1
H0 : = 0 vs H1 : < 0 (1.9.7)
y estadstico:
D = 4d (1.9.8)
1.10. Conclusiones
En esta seccin realizaremos un estudio similiar al hecho en la seccin 1.8 con datos del
nanciamiento (millones de pesos) otorgado a travs de la Banca Privada y Mixta pero ahora
usando al tiempo como variable explicativa y al nanciamiento como nuestra variable respuesta.
Los datos fueron tomados de Guerrero (2003). La Tabla 1.10.1 muestra los datos a utilizar.
50000
Financiamiento
Financiamiento
30000
30000
10000
10000
0 10 20 30 40 50 60 0 10 20 30 40 50 60
Periodo Periodo
Figura 1.10.1: Figura que muestra el nanciamiento dado a travs de Banca Privada y Mixta
1.10. CONCLUSIONES 25
Call:
lm(formula = Financ ~ Periodo)
Residuals:
Min 1Q Median 3Q Max
-8597.3 -4062.1 180.2 2678.2 11788.6
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 1891.07 1414.98 1.336 0.187
Periodo 596.12 44.76 13.317 <2e-16 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> anova.lm(Ajuste)
Response: Financ
Df Sum Sq Mean Sq F value Pr(>F)
Periodo 1 4661382933 4661382933 177.34 < 2.2e-16 ***
Residuals 52 1366838336 26285353
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> confint(Ajuste)
2.5 % 97.5 %
(Intercept) -948.2996 4730.4310
Periodo 506.2914 685.9435
> ygorro<-fitted(Ajuste)
> residuos<-resid(Ajuste)
> residuosestandarizados<-rstandard(Ajuste)
> residuosestudentizados<-rstudent(Ajuste)
> par(mfrow=c(1,2))
> plot(Periodo,Financ,pch=21,xlim=c(1,60),ylim=c(4000,50000),xlab="Periodo",
ylab="Financiamiento",main="Financiamiento privado-mixto",col="blue")
> abline(Ajuste,col="red")
> segments(Periodo,fitted(Ajuste),Periodo,Financ,col="blue")
> qqnorm(residuos,xlab="Residuos",ylab="Valores Esperados",
main="Probabilidad Normal",pch=19,col="blue")
> qqline(residuos,col=2)
26 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
Valores Esperados
2
Financiamiento
1
0
1
0 10 20 30 40 50 60 2 1 0 1 2
Periodo Residuos
Figura 1.10.2: Figura que muestra a los residuos y grca de probabilidad normal
5000
10
5000
5
0
Residuos Estudentizados
4
4
2
2
0
0
2
2
4
> ad.test(rnorm(residuosestandarizados,mean=0,sd=1))
> skewness(residuos)
[1] 0.3638064
> kurtosis(residuos)
[1] 2.423226
> dwtest(Ajuste)
Durbin-Watson test
data: Ajuste
DW = 0.1788, p-value < 2.2e-16
alternative hypothesis: true autocorrelation is greater than 0
28 CAPTULO 1. MODELO DE REGRESIN LINEAL SIMPLE
Qu podemos decir de los resultados mostrados por el cdigo anterior? Los estimadores
para el intercepto y la pendiente,
y , son 1891.07 y 596.12 respectivamente. Esto querr
decir que a tiempo cero, el nanciamiento otorgado por la Banca Privada y Mixta fue de
$1,891,070,000 y que al aumentar una unidad de tiempo, el nanciamiento aumenta, en prome-
dio, $596,120,000. Adems, el 77.33 % de la variabilidad en el nanciamiento es explicada por
el modelo de regresin.
Ahora bien, pasemos a la Figura 1.10.2. Observemos que los puntos, en la grca de pro-
babilidad normal, caen en su mayora en una lnea recta por lo que podemos concluir que los
residuos tienen una distribucin aproximadamente normal. Esto igualmente lo podemos corro-
borar tanto con el histograma como con el diagrama de caja y bigotes, mostrados en la Figura
1.10.3. Para una conclusin ms certera veamos la prueba Anderson-Darling. Observamos que
el p-value para dicha prueba es de 0.0636 > 0.05. Ya hemos visto anteriormente, que nuestra
prueba de hiptesis para la distribucin de los residuos es:
Interesante ser observar la Figura 1.10.4, donde se muestra la relacin existente entre
residuos (estandarizados y estudentizados) y sus correspondientes valores ajustados, ya que
presentan un patrn usual de rectngulo inclinado, por lo que armamos la existencia de he-
teroscedasticidad. Para corroborar este supuesto tomamos la prueba de Breusch-Pagan y
observamos que tiene un p-value cercano a cero, por lo que rechazamos la hiptesis nula y
concluimos que la varianza en los residuos no es constante:
> bptest(Financ~Periodo,data=Financiamiento)
Finalmente, pasemos a la prueba que nos concierne en esta seccin, es decir, la prueba de
Durbin-Watson, con estadstico d = 0.1788, dL = 1.50 y dU = 1.59, para 54 observaciones,
con =5 % y una sola variable explicativa. Observamos que d = 0.1788 < dL = 1.50, as que
rechazamos H0 : = 0 vs H1 : > 0, por lo que existe correlacin positiva entre los residuos y
no se cumple el supuesto de que los residuos, t , son independientes. Por lo anterior se usarn
otras tcnicas para ajustar modelos que involucran al tiempo.
Captulo 2
Anlisis Clsico de Series de Tiempo
2.1. Introduccin
A lo largo del captulo anterior hemos estudiado el uso del anlisis de regresin como tcnica
habitual para explicar y modelar la relacin que existe entre una o ms variables. Al nal de
dicho captulo hemos remarcado la existencia de datos con los cuales, la modelacin de los
mismos con una regresin se vuelve inapropiada, debido a la fuerte autocorrelacin que existe
entre los residuos. A partir de aqu, y siendo nuestra principal motivacin, se introduce el uso de
series de tiempo como mtodo alternativo para la elaboracin de predicciones que anticipen
el comportamiento de algn fenmeno en particular.
Como actuario, palabras como riesgo o incertidumbre, lejos de ser desconocidas, aparecen
de manera recurrente en nuestra vida cotidiana, siendo una obligacin la implementacin de
tcnicas que ayuden a reducir el grado de incertidumbre ante cierto fenmeno. El disponer,
el da de hoy, de informacin acerca de cmo se desarrollar el futuro, aunque sea de manera
aproximada, nos facilita la toma de decisiones en las que incurrimos en el presente.
Pensemos por un momento en un empresario que desea crear un plan estratgico de expan-
sin para su empresa. Para lograrlo, necesita conocer a cunto ascendern sus ventas futuras.
Su decisin no puede basarse solamente en los datos actuales disponibles sobre sus ventas, sino
tambin requerir apoyarse en sus valores histricos as como en otras tcnicas de prediccin.
Veremos ms adelante que los mtodos de prediccin pueden dividirse en:
Es en este marco donde encuadraremos el estudio de series temporales como una de las
tcnicas ms habituales que se utilizan en la prediccin de fenmenos de cualquier naturaleza.
Una serie de tiempo, es decir, un conjunto de datos pertenecientes a una variable tomados en
periodos regulares de tiempo, ser nuestro punto de partida para el estudio de cualquier fen-
meno. Atencin especial deberemos poner al realizar el anlisis de los datos ya que cualquier
equivocacin nos llevar a una falsa interpretacin de los mismos o bien, a decisiones equivo-
cadas. Lo que buscamos es reconocer las propiedades pasadas del fenmeno y suponiendo que
stas se mantienen constantes con el paso del tiempo, hacer predicciones con respecto al futuro.
29
30 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Comencemos dando una denicin clsica de serie de tiempo. Dicha denicin cambiar en el
siguiente captulo cuando manejemos a las series de tiempo como un proceso estocstico.
As pues, el nmero de plizas anuales vendidas por una empresa aseguradora, las ventas
semestrales de una empresa distribuidora de ropa deportiva, el nmero de casos mensuales de
personas jubiladas en cierta empresa, el total de accidentes diarios de trnsito en el D.F., e
inclusive la poblacin que tiene ao con ao cada pas constituyen, todos ellos, ejemplos de
series de tiempo.
Antes de continuar hagamos una diferencia importante en lo que se reere a los datos. stos
pueden referirse a un momento en particular o bien a un intervalo de tiempo. Pensemos por un
momento en el ltimo censo del ao 2010 en toda la Republica Mexicana. Al 31 de diciembre
de 2010 se nos inform que la poblacin total en todo Mxico era de 112,336,538 habitantes.
Este ejemplo hace referencia a datos de tipo transversales (datos de tipo stock), es decir,
datos tomados en un instante particular de tiempo. Otro ejemplo puede ser el reporte nal de
ingresos y egresos de una compaia aseguradora al cierre del ao.
Pasemos ahora a los datos recogidos en un intervalo de tiempo o datos de tipo longitu-
dinales (datos de tipo ujo). Pensemos por un momento en la produccin mensual de playeras
de futbol del equipo Real Madrid
R por parte de la marca deportiva Adidas
R . La leyenda
que identicara a este tipo de dato sera la siguiente: A lo largo del mes de Enero se confeccio-
naron y pusieron a la venta X cantidad de playeras. Otro ejemplo sera el nmero de tarjetas
de crdito emitidas por cierta Institucin de Banca Multiple durante el mes de Noviembre.
Existen varias metodologas para tratar y analizar una serie de tiempo. Principalmente
trabajaremos nosotros, con los enfoques deterministas y estocsticos. El enfoque determi-
nista supone un patrn de comportamiento jo de nuestra variable a estudiar, es decir, los
datos oscilarn entorno a un comportamiento predecible. El enfoque estocstico surge con
Box & Jenkins y la metodologa ARIMA, basada en la teora de los proce-
los trabajos de
sos estocsticos. Dicho enfoque asume una conducta completamente impredecible de nuestra
variable a estudiar. En este captulo nos enfocaremos de lleno al enfoque determinista o de
descomposicin clsica y en el siguiente captulo discutiremos el enfoque estocstico.
Ahora bien, denamos el objetivo de este captulo. Qu es lo que buscamos al analizar una
serie de tiempo? En resumen, al analizar una serie de tiempo buscamos reconocer y extraer todas
aquellas caractersticas o regularidades que conforman al comportamiento pasado de nuestra
variable a estudiar, obtener el procedimiento que las genera y haciendo el gran supuesto de que
dichas caractersticas se mantienen constantes a lo largo del tiempo, predecir el comportamiento
futuro de la variable.
2. Tener presente que a pesar de que la variable tiempo se introduce de manera continua,
en la vida real no se maneja as, sino de manera discreta. Este supuesto ser primordial
al momento de hacer conclusiones o aseveraciones respecto a la variable en cuestin.
Como bien sabemos, el valor del dinero cambia conforme pasa el tiempo por el efecto
inacionario. $ 100 el da de hoy no valen lo mismo que hace 20 aos, en el sentido de
que no podemos obtener el mismo nmero de bienes con dicha cantidad en el presente
como tal vez pudimos haberlo hecho hace 20 aos.
4. Ahora bien, tal vez en algn momento nos preguntaremos qu es lo que sucede con la
diferencia en el nmero de das que tienen los distintos meses al trabajar con una serie
mensual. Debemos hacer caso omiso a este suceso o tomar alguna medida al respecto?
Debemos hacer algo al respecto. Nuestra tarea es y ser siempre volver homognea nuestra
materia prima para as, al nal, obtener resultados satisfactorios. Ahora bien, la manera
de volver comparables nuestros datos, ser escoger un mes referencia, observar el nmero
de das que tiene (30 das se recomienda), para despus expresar los datos de cada mes
en trminos diarios y despus multiplicarlos por el nmero de das que tenga el mes de
referencia. Este punto es mera sugerencia ya que en la prctica se ignora la diferencia de
das por mes.
6. Nuestra siguiente tarea ser encontrar un modelo que reproduzca las caractersticas ms
importantes de la serie. Lo que deseamos es encontrar el modelo que mejor se ajuste a
nuestros datos. Al emplear la palabra mejor nos estamos reriendo, no a encontrar un
modelo sosticado o que incluya una gran cantidad de variables para explicar el com-
portamiento de la serie, sino ms bien, a encontrar un modelo sencillo que explique de
manera eciente la realidad y que pueda ser entendido en su totalidad por el analista.
7. Como ltimo paso nos resta la importante tarea de validar nuestro modelo, es decir,
nuestro deseo ser saber si el modelo que hemos elegido es suciente para describir el
pasado de nuestros datos as como efectivo para realizar predicciones.
32 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
> library(stats)
> setwd("C:/Users/Gerardo/Desktop/Tesis/Captulo 2/Condusef")
> Acciones<-read.table('ACCAT.txt',header=T)
> Serie<-ts(Acciones, frequency = 12, start = c(2007, 1))
> plot(c(2007,2013),main="Acciones de atencin otorgadas por Condusef")
> lines(Serie,col="blue")
> legend(2007,100000,c("AccAtn"),lty=c(1),bty="n",lwd=c(2.5),col=c("blue"))
AccAtn
40000
Figura 2.2.1: Figura que muestra el nmero de acciones de atencin otorgadas por Condusef
Concluimos que el enfoque clsico presume dividida a una serie de tiempo en 3 componentes
fundamentales, a saber, tendencia, estacionalidad y componente irregular.
2.2. COMPONENTES DE UNA SERIE DE TIEMPO 33
As pues, podemos pensar a una serie de tiempo como una funcin que dependa de las
componentes anteriores, es decir:
Yt = f (Tt , Et , t ) (2.2.1)
Grosso modo, el objetivo del anlisis clsico ser el de estimar por separado las componentes
de una serie, para despus englobarlas en uno de los 3 esquemas siguientes:
Yt = Tt + Et + t (2.2.2)
Yt = Tt Et t (2.2.3)
3. Esquema mixto: Este esquema se utiliza cuando las oscilaciones estacionales tienden
a crecer con el tiempo, y la variabilidad de estas oscilaciones se mantiene constante.
Este esquema slo ser enunciado ms no utilizado debido a la complejidad que surge al
analizar la serie:
Yt = (Tt Et ) + t (2.2.4)
Pero cmo elegir el mejor esquema? Existen criterios para detectar el esquema que mejor
se ajusta a la serie. A continuacin veremos tres de ellos.
0 10 20 30 40 50 60 70
Tiempo
A pesar de que las variaciones no crecen de manera sustancial a travs del tiempo, pensa-
remos que estas variaciones son sucientes para justicar el uso de un esquema multiplicativo.
Dicha aseveracin se comprobar con los siguientes criterios.
2. Obtener el coeciente de variacin (CV) para diferencias (d) y cocientes (c) estacionales:
3. Si CV(c) > CV(d) elegiramos el esquema aditivo. Si CV(c) < CV(d) elegiramos el
esquema multiplicativo.
Justicacin: La media de los datos anuales corresponde al nivel de tendencia de cada ao.
La desviacin estndar nos cuantica la variabilidad que un conjunto de datos tiene entorno
a su media. Dentro del ao es perfectamente lcito pensar que la tendencia no cambiar de
manera considerable (esta componente se maniesta en el largo plazo) y por tanto, la desviacin
estndar no se ver muy inuida por ella. Los cambios de valor de la serie estarn ms bien
causados por la estacionalidad. Por tanto, unos puntos de media y desviacin estndar ms
o menos alineados en una recta (con pendiente positiva, o bien, negativa) signicar que a
medida que el nivel de tendencia crece (o bien decrece) tambin lo har la dispersin debida
a la estacionalidad y de aqu que se elija el esquema multiplicativo. Si el conjunto de puntos
se distribuye de manera aleatoria entonces suponemos independencia entre la tendencia y la
estacionalidad y por tanto, un esquema aditivo sera apropiado.
Desviacin estndar
12000
12000
8000
8000
Ao Ytm Sdt
2007 36295 6457.98
2008 53065 8969.78
2009 81201 13558.80
2010 90583 8437.74
2011 92374 8318.47
2012 103281 15102.89
Debemos hacer hincapi que para observar un movimiento de continuo crecimiento o decre-
cimiento en nuestra serie es necesario disponer de informacin que abarque al menos 3-4 aos.
La tendencia ser as la componente principal de una serie de tiempo. Nos indica la direccin en
la cual se mueve dicha serie. Existen dos objetivos principales al trabajar con la tendencia; su
estimacin y su suavizamiento. Para estimarla se ajusta una funcin matemtica que dependa
del tiempo. Para suavizarla se emplea el mtodo de promedios mviles, entre otros.
Ahora bien, para estimar la tendencia uno de los mtodos que veremos en este captulo
ser el mtodo del ajuste analtico, el cual consiste en encontrar aquella funcin que mejor
se ajuste al modelar la tendencia. Usualmente una funcin lineal bastar para ajustar nuestra
tendencia aunque debe decirse que existen series, econmicas sobre todo, cuya tendencia se
ajusta mejor a una funcin exponencial o de grado mayor a 1.
La funcin que mejor ajuste la tendencia ser aquella que cumpla la ec. 2.3.1, tomando en
consideracin que antes de aplicar este mtodo deberemos eliminar la estacionalidad, ya que de
lo contrario, las oscilaciones inuiran en la identicacin de la funcin matemtica a ajustar.
Entonces, para seleccionar la funcin matematica que mejor se ajusta a los datos, es menester
realizar antes que nada el grco de la serie para despus pasar a la estimacin de los parmetros,
que en concreto, en este trabajo, se utilizarn los estimadores por mnimos cuadrados ordinarios,
que de acuerdo con el Teorema de Gauss-Markov visto en el captulo anterior, son los mejores
estimadores lineales insesgados.
El cdigo en R ser:
Call:
lm(formula = PIBtrim ~ t)
Residuals:
Min 1Q Median 3Q Max
-229.26 -100.14 -13.33 80.75 264.16
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 837.1148 18.2262 45.93 <2e-16 ***
t 17.7184 0.1776 99.77 <2e-16 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> library("graphics")
> par(mfrow=c(1,2))
> plot(t,PIBtrim,pch=21,xlim=c(0,180),main="PIB trimestral de Estados Unidos",
col="blue")
> plot(t,PIBtrim,pch=21,xlim=c(0,180),main="PIB trimestral de Estados Unidos",
col="blue")
> abline(Ajuste,col="red")
En la Figura 2.3.1 se muestra la serie original junto con un ajuste de tendencia lineal en
color rojo.
4000
PIB trimestral
PIB trimestral
2500
2500
1000
1000
t Yt Tt t t Yt Tt t t Yt Tt t
1 1056.5 854.8 201.7 60 1754.9 1900.2 -145.3 119 2828.6 2945.6 -117.0
2 1063.2 872.6 190.7 61 1777.9 1917.9 -140.0 120 2856.8 2963.3 -106.5
3 1067.1 890.3 176.8 62 1796.4 1935.7 -139.3 121 2896.0 2981.0 -85.0
4 1080.0 908.0 172.0 63 1813.1 1953.4 -140.3 122 2942.7 2998.8 -56.1
5 1086.8 925.7 161.1 64 1810.1 1971.1 -161.0 123 3001.8 3016.5 -14.7
6 1106.1 943.4 162.7 65 1834.6 1988.8 -154.2 124 2994.1 3034.2 -40.1
7 1116.3 961.1 155.2 66 1860.0 2006.5 -146.5 125 3020.5 3051.9 -31.4
8 1125.5 978.9 146.6 67 1892.5 2024.2 -131.8 126 3115.9 3069.6 46.3
9 1112.4 996.6 115.8 68 1906.1 2042.0 -135.9 127 3142.6 3087.4 55.3
10 1105.9 1014.3 91.6 69 1948.7 2059.7 -111.0 128 3181.6 3105.1 76.5
11 1114.3 1032.0 82.3 70 1965.4 2077.4 -112.0 129 3181.7 3122.8 58.9
12 1103.3 1049.7 53.6 71 1985.2 2095.1 -109.9 130 3178.7 3140.5 38.2
13 1148.2 1067.5 80.7 72 1993.7 2112.8 -119.1 131 3207.4 3158.2 49.2
14 1181.0 1085.2 95.8 73 2036.9 2130.6 -93.7 132 3201.3 3175.9 25.3
15 1225.3 1102.9 122.4 74 2066.4 2148.3 -81.9 133 3233.4 3193.7 39.7
16 1260.2 1120.6 139.6 75 2099.3 2166.0 -66.7 134 3157.0 3211.4 -54.4
17 1286.6 1138.3 148.3 76 2147.6 2183.7 -36.1 135 3159.1 3229.1 -70.0
18 1320.4 1156.0 164.4 77 2190.1 2201.4 -11.3 136 3199.2 3246.8 -47.6
19 1349.8 1173.8 176.0 78 2195.8 2219.2 -23.4 137 3261.1 3264.5 -3.4
20 1356.0 1191.5 164.5 79 2218.3 2236.9 -18.6 138 3250.2 3282.3 -32.1
21 1369.2 1209.2 160.0 80 2229.2 2254.6 -25.4 139 3264.6 3300.0 -35.4
22 1365.9 1226.9 139.0 81 2241.8 2272.3 -30.5 140 3219.0 3317.7 -98.7
23 1378.2 1244.6 133.6 82 2255.2 2290.0 -34.8 141 3170.4 3335.4 -165.0
24 1406.8 1262.4 144.4 83 2287.7 2307.7 -20.0 142 3179.9 3353.1 -173.2
25 1431.4 1280.1 151.3 84 2300.6 2325.5 -24.9 143 3154.5 3370.9 -216.3
26 1444.9 1297.8 147.1 85 2327.3 2343.2 -15.9 144 3159.3 3388.6 -229.3
27 1438.2 1315.5 122.7 86 2366.9 2360.9 6.0 145 3186.6 3406.3 -219.7
28 1426.6 1333.2 93.4 87 2385.3 2378.6 6.7 146 3258.3 3424.0 -165.7
29 1406.8 1350.9 55.8 88 2383.0 2396.3 -13.3 147 3306.4 3441.7 -135.3
30 1401.2 1368.7 32.5 89 2416.5 2414.1 2.5 148 3365.1 3459.4 -94.4
31 1418.0 1386.4 31.6 90 2419.8 2431.8 -12.0 149 3451.7 3477.2 -25.5
32 1438.8 1404.1 34.7 91 2433.2 2449.5 -16.3 150 3498.0 3494.9 3.1
33 1469.6 1421.8 47.8 92 2423.5 2467.2 -43.7 151 3520.6 3512.6 8.0
34 1485.7 1439.5 46.2 93 2408.6 2484.9 -76.3 152 3535.2 3530.3 4.9
35 1505.5 1457.3 48.2 94 2406.5 2502.6 -96.1 153 3577.5 3548.0 29.5
36 1518.7 1475.0 43.7 95 2435.8 2520.4 -84.6 154 3599.2 3565.8 33.5
37 1515.7 1492.7 23.0 96 2413.8 2538.1 -124.3 155 3635.8 3583.5 52.3
38 1522.6 1510.4 12.2 97 2478.6 2555.8 -77.2 156 3662.4 3601.2 61.2
39 1523.7 1528.1 -4.4 98 2478.4 2573.5 -95.1 157 3721.1 3618.9 102.2
40 1540.6 1545.9 -5.2 99 2491.1 2591.2 -100.1 158 3704.6 3636.6 68.0
41 1553.3 1563.6 -10.3 100 2491.0 2609.0 -118.0 159 3712.4 3654.3 58.0
42 1552.4 1581.3 -28.9 101 2545.6 2626.7 -81.1 160 3733.6 3672.1 61.5
43 1561.5 1599.0 -37.5 102 2595.1 2644.4 -49.3 161 3781.2 3689.8 91.4
44 1537.3 1616.7 -79.4 103 2622.1 2662.1 -40.0 162 3820.3 3707.5 112.8
45 1506.1 1634.4 -128.3 104 2671.3 2679.8 -8.5 163 3858.9 3725.2 133.7
46 1514.2 1652.2 -138.0 105 2734.0 2697.5 36.4 164 3920.7 3742.9 177.8
47 1550.0 1669.9 -119.9 106 2741.0 2715.3 25.7 165 3970.2 3760.7 209.5
48 1586.7 1687.6 -100.9 107 2738.3 2733.0 5.3 166 4005.8 3778.4 227.4
49 1606.4 1705.3 -98.9 108 2762.8 2750.7 12.1 167 4032.1 3796.1 236.0
50 1637.0 1723.0 -86.0 109 2747.4 2768.4 -21.0 168 4059.3 3813.8 245.5
51 1629.5 1740.8 -111.3 110 2755.2 2786.1 -30.9 169 4095.7 3831.5 264.2
52 1643.4 1758.5 -115.1 111 2719.3 2803.9 -84.6 170 4112.2 3849.2 262.9
53 1671.6 1776.2 -104.6 112 2695.4 2821.6 -126.2 171 4129.7 3867.0 262.7
54 1666.8 1793.9 -127.1 113 2642.7 2839.3 -196.6 172 4133.2 3884.7 248.5
55 1668.4 1811.6 -143.2 114 2669.6 2857.0 -187.4 173 4150.6 3902.4 248.2
56 1654.1 1829.3 -175.3 115 2714.9 2874.7 -159.8 174 4155.1 3920.1 235.0
57 1671.3 1847.1 -175.8 116 2752.7 2892.5 -139.7 175 4170.0 3937.8 232.2
58 1692.1 1864.8 -172.7 117 2804.4 2910.2 -105.8 176 4153.4 3955.6 197.8
59 1716.3 1882.5 -166.2 118 2816.9 2927.9 -111.0 177 4126.5 3973.3 153.2
Tabla 2.3.1: Tabla que muestra la estimacin de tendencia para el PIB de Estados Unidos
40 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Ahora veamos el comportamiento del PIB trimestral en Mxico. Los valores de la serie estn
dados a precios constantes, con base al ao 2008. Realizaremos un anlisis similar al hecho con
el PIB trimestral de Estados Unidos. Las cifras datan de Enero de 1993 al tercer trimestre del
ao 2013. Los datos, la tendencia estimada, Tt , y los residuos, t , se muestran en la Tabla 2.3.2.
Adems, en la Figura 2.3.2 se muestra la serie original correspondiente al PIB trimestral de
Mxico as como el ajuste de tendencia lineal correspondiente:
Call:
lm(formula = PIBmexicano ~ t)
Residuals:
Min 1Q Median 3Q Max
-850816 -239881 -24363 232627 1094184
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 452336 87044 5.197 1.49e-06 ***
t 184670 1800 102.584 < 2e-16 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
15000000
PIB trimestral
PIB trimestral
5000000
5000000
0 20 40 60 80 0 20 40 60 80
Tiempo Tiempo
t Yt Tt t t Yt Tt t
1 1522840.653 637006 885834.653 43 7628204.596 8393146 -764941.404
2 1546496.086 821676 724820.086 44 8004873.173 8577816 -572942.827
3 1562258.138 1006346 555912.138 45 8325115.117 8762486 -437370.883
4 1648991.525 1191016 457975.525 46 8628189.597 8947156 -318966.403
5 1695821.696 1375686 320135.696 47 8679278.536 9131826 -452547.464
6 1767910.187 1560356 207554.187 48 9140376.760 9316496 -176119.240
7 1775164.851 1745026 30138.851 49 9024572.973 9501166 -476593.027
8 1880117.299 1929696 -49578.701 50 9391883.853 9685836 -293952.147
9 1943934.288 2114366 -170431.712 51 9447420.289 9870506 -423085.711
10 2124121.794 2299036 -174914.206 52 9901523.442 10055176 -153652.558
11 2239478.929 2483706 -244227.071 53 10097726.589 10239846 -142119.411
12 2520238.798 2668376 -148137.202 54 10552369.212 10424516 127853.212
13 2749376.062 2853046 -103669.938 55 10603135.455 10609186 -6050.545
14 2903902.624 3037716 -133813.376 56 10899226.755 10793856 105370.755
15 3044154.698 3222386 -178231.302 57 10923201.557 10978526 -55324.443
16 3382698.666 3407056 -24357.334 58 11258204.123 11163196 95008.123
17 3498437.686 3591726 -93288.314 59 11402679.521 11347866 54813.521
18 3728952.344 3776396 -47443.656 60 12028967.970 11532536 496431.970
19 3827130.581 3961066 -133935.419 61 11836775.985 11717206 119569.985
20 4166567.200 4145736 20831.200 62 12480750.051 11901876 578874.051
21 4308085.303 4330406 -22320.697 63 12376956.511 12086546 290410.511
22 4460859.947 4515076 -54216.053 64 12332971.330 12271216 61755.330
23 4624146.663 4699746 -75599.337 65 11726944.569 12455886 -728941.431
24 4952370.733 4884416 67954.733 66 11789763.330 12640556 -850792.670
25 5212527.000 5069086 143441.000 67 12084463.505 12825226 -740762.495
26 5408820.010 5253756 155064.010 68 12774388.233 13009896 -235507.767
27 5610439.052 5438426 172013.052 69 12750648.740 13194566 -443917.260
28 5927679.283 5623096 304583.283 70 13082138.072 13379236 -297097.928
29 6211208.431 5807766 403442.431 71 13299168.637 13563906 -264737.363
30 6385478.202 5992436 393042.202 72 13996288.688 13748576 247712.688
31 6538881.963 6177106 361775.963 73 13901473.874 13933246 -31772.126
32 6721638.234 6361776 359862.234 74 14149231.456 14117916 31315.456
33 6670572.447 6546446 124126.447 75 14493670.424 14302586 191084.424
34 6724935.292 6731116 -6180.708 76 15581466.725 14487256 1094210.725
35 6773518.473 6915786 -142267.527 77 15249689.911 14671926 577763.911
36 6912567.691 7100456 -187888.309 78 15379454.110 14856596 522858.110
37 6763607.698 7285126 -521518.302 79 15557754.884 15041266 516488.884
38 7201786.460 7469796 -268009.540 80 16165492.995 15225936 939556.995
39 7218947.041 7654466 -435518.959 81 15628201.550 15410606 217595.550
40 7457653.418 7839136 -381482.582 82 15891371.809 15595276 296095.809
41 7535694.752 8023806 -488111.248 83 16074982.822 15779946 295036.822
42 7613721.754 8208476 -594754.246
Tabla 2.3.2: Tabla que muestra la estimacin de tendencia para el PIB de Mxico
Como ejemplo, tomemos el modelo de tendencia cuadrtica el cual estar dado por:
Yt = a0 + a1 t + a2 t2 + t (2.3.3)
Para detectar una tendencia cuadrtica y no confundirla con una lineal podemos recurrir a
la grca de las diferencias de la serie. La primera diferencia estar denida como:
Yt = Yt Yt1 (2.3.4)
2 Yt = (Yt )
= (Yt Yt1 ) (2.3.5)
= Yt Yt1
Para el caso de tendencia lineal, la primera diferencia oscila entorno a un valor medio
constante, a saber:
Yt = Yt Yt1
= [a + t + t ] [a + (t 1) + t1 ] (2.3.6)
= + (t t1 )
Para el caso de tendencia cuadrtica, se necesitan dos diferencias para que se oscile entorno
a un valor medio constante, a saber:
2 Yt = (Yt )
= (Yt Yt1 )
= Yt Yt1 (2.3.7)
j
En general, el operador extrae una tendencia de cualquier polinomio de orden j, es decir,
a0 + a1 t + a2 t2 + . . . + aj tj . Esto se demostrar en el captulo 3
. Entonces, si la grca de
la serie con una diferencia oscila entorno a una constante podemos hablar de una tendencia
lineal. Si la grca con dos diferencias oscila entorno a una constante hablamos entonces de
tendencia cuadrtica y as sucesivamente. Es en este momento donde introducimos el paquete
estadstico ITSM. Como bien sabemos, una tcnica altamente utilizada para la estimacin de la
tendencia, Tt , es el mtodo de mnimos cuadrados ordinarios. En este mtodo buscamos ajustar
una familia de funciones, a saber una de ellas la cuadrtica, Tt = a0 + a1 t + a2 t2 , a un conjunto
de datos {x1 , x2 , . . . , xn }, eligiendo los parmetros, a0 , a1 y a2 de tal forma que se minimice:
n
X
(Yt Tt )2
t=1
2.3. ANLISIS DE TENDENCIA 43
ITSM posee la opcin Regression para realizar este mtodo. Tomemos la serie corres-
pondiente al total de importaciones de bienes y servicios de Australia en millones de dlares
autralianos a precios de 1984-1985. La serie comienza en septiembre de 1959 y termina en di-
ciembre de 1990. Corremos ITSM y seleccionamos File >Project >Open >Univariate y
elegimos el archivo Imports.tsm. La Figura 2.3.3 muestra el total de importaciones.
Figura 2.3.3: Figura que muestra el total de importaciones de bienes y servicios de Australia
Figura 2.3.4: Figura que muestra el ajuste de la funcin polinmica al total de importaciones
Figura 2.3.5: Figura que muestra a los residuos del total de importaciones australianas
Yt = e (a+t) (2.3.8)
Dicho modelo es usado en series econmicas principalmente. Una forma de saber si el modelo
ms adecuado es el exponencial es representar grcamente la tasa de crecimiento de la variable
y comprobar si ms o menos oscila entorno a un valor constante. La tasa de crecimiento estar
dada por:
Yt Yt1
T Ct = (2.3.9)
Yt1
= Xt
a bt
= X (2.3.11)
2.3. ANLISIS DE TENDENCIA 45
T
X
(t t)(Xt X)
b = t=1
(2.3.12)
T
X
(t t) 2
t=1
Call:
lm(formula = lnFINSERV ~ t)
Residuals:
Min 1Q Median 3Q Max
-0.15365 -0.06999 -0.02909 0.06746 0.28100
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 5.8918614 0.0222772 264.48 <2e-16 ***
t 0.0174458 0.0004448 39.22 <2e-16 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> library("graphics")
> par(mfrow=c(1,2))
> plot(t,lnFINSERV,pch=21,xlim=c(0,90),main="Servicios Financieros",col="blue")
> plot(t,lnFINSERV,pch=21,xlim=c(0,90),main="Servicios Financieros",col="blue")
> abline(Ajuste,col="red")
La Figura 2.3.6 muestra el logaritmo natural del gasto en servicios nancieros australianos
as como el ajuste de tendencia lineal.
46 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
t Yt Xt Tt t t Yt Xt Tt t
1 393 5.9738 5.909307 0.06449286 44 738 6.6039 6.659475 -0.05557521
2 444 6.0958 5.926753 0.16904709 45 742 6.6093 6.676921 -0.06762098
3 403 5.9989 5.944199 0.05470133 46 774 6.6516 6.694367 -0.04276675
4 403 5.9989 5.961644 0.03725556 47 770 6.6464 6.711813 -0.06541252
5 430 6.0638 5.979090 0.08470979 48 792 6.6746 6.729258 -0.05465829
6 453 6.1159 5.996536 0.11936402 49 801 6.6859 6.746704 -0.06080406
7 413 6.0234 6.013982 0.00941825 50 805 6.6908 6.764150 -0.07334983
8 424 6.0497 6.031428 0.01827248 51 804 6.6896 6.781596 -0.09199559
9 432 6.0684 6.048873 0.01952671 52 836 6.7286 6.799041 -0.07044136
10 440 6.0868 6.066319 0.02048094 53 841 6.7346 6.816487 -0.08188713
11 445 6.0981 6.083765 0.01433517 54 851 6.7464 6.833933 -0.08753290
12 447 6.1026 6.101211 0.00138940 55 860 6.7569 6.851379 -0.09447867
13 503 6.2206 6.118656 0.10194363 56 871 6.7696 6.868824 -0.09922444
14 497 6.2086 6.136102 0.07249786 57 888 6.7890 6.886270 -0.09727021
15 498 6.2106 6.153548 0.05705210 58 878 6.7776 6.903716 -0.12611598
16 505 6.2246 6.170994 0.05360633 59 898 6.8002 6.921162 -0.12096175
17 569 6.3439 6.188439 0.15546056 60 897 6.7991 6.938608 -0.13950752
18 560 6.3279 6.205885 0.12201479 61 900 6.8024 6.956053 -0.15365329
19 556 6.3208 6.223331 0.09746902 62 921 6.8255 6.973499 -0.14799906
20 560 6.3279 6.240777 0.08712325 63 951 6.8575 6.990945 -0.13344482
21 531 6.2748 6.258223 0.01657748 64 957 6.8638 7.008391 -0.14459059
22 546 6.3026 6.275668 0.02693171 65 999 6.9068 7.025836 -0.11903636
23 544 6.2989 6.293114 0.00578594 66 1009 6.9167 7.043282 -0.12658213
24 547 6.3044 6.310560 -0.00615983 67 1021 6.9285 7.060728 -0.13222790
25 544 6.2989 6.328006 -0.02910560 68 1068 6.9735 7.078174 -0.10467367
26 559 6.3261 6.345451 -0.01935137 69 1083 6.9875 7.095619 -0.10811944
27 548 6.3063 6.362897 -0.05659714 70 1118 7.0193 7.113065 -0.09376521
28 551 6.3117 6.380343 -0.06864290 71 1185 7.0775 7.130511 -0.05301098
29 579 6.3613 6.397789 -0.03648867 72 1222 7.1082 7.147957 -0.03975675
30 584 6.3699 6.415234 -0.04533444 73 1349 7.2071 7.165403 0.04169749
31 604 6.4036 6.432680 -0.02908021 74 1410 7.2513 7.182848 0.06845172
32 602 6.4003 6.450126 -0.04982598 75 1445 7.2759 7.200294 0.07560595
33 591 6.3818 6.467572 -0.08577175 76 1491 7.3072 7.217740 0.08946018
34 629 6.4441 6.485018 -0.04091752 77 1534 7.3356 7.235186 0.10041441
35 645 6.4693 6.502463 -0.03316329 78 1574 7.3614 7.252631 0.10876864
36 667 6.5028 6.519909 -0.01710906 79 1640 7.4025 7.270077 0.13242287
37 667 6.5028 6.537355 -0.03455483 80 1710 7.4442 7.287523 0.15667710
38 667 6.5028 6.554801 -0.05200060 81 1809 7.5005 7.304969 0.19553133
39 696 6.5453 6.572246 -0.02694636 82 1850 7.5229 7.322414 0.20048556
40 708 6.5624 6.589692 -0.02729213 83 1907 7.5533 7.339860 0.21343979
41 718 6.5765 6.607138 -0.03063790 84 1972 7.5868 7.357306 0.22949402
42 728 6.5903 6.624584 -0.03428367 85 2063 7.6319 7.374752 0.25714826
43 729 6.5917 6.642029 -0.05032944 86 2150 7.6732 7.392198 0.28100249
Servicios Financieros
7.5
7.5
7.0
7.0
6.5
6.5
6.0
6.0
0 20 40 60 80 0 20 40 60 80
Tiempo Tiempo
q
1 X
Wt = Yt+j q+1tnq (2.3.13)
2q + 1 j=q
1
1 X
Wt = Yt+j (2.3.14)
3 j=1
q q q
1 X 1 X 1 X
Wt = Tt+j + t+j (a + (t + j))
2q + 1 j=q 2q + 1 j=q 2q + 1 j=q
q
( )
1 1 X
= {a(2q + 1)} + t(2q + 1) + j (2.3.15)
2q + 1 2q + 1 j=q
= a + t
48 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Hemos visto el ltro de promedio mviles para series con tendencia nicamente, pero si en
algn momento llegsemos a tener una serie explicada por las tres componentes antes vistas,
y usando el esquema aditivo, es decir, Yt = Tt + Et + It , la eleccin correcta del parmetro
q nos identicara de manera automtica la tendencia de la serie, ya que al promediar varios
valores de una serie obtenemos una nueva serie mucho ms suavizada e identicada con la
tendencia de la serie original. Adems, al elegir una q adecuada, las variaciones causadas por
la estacionalidad y componente irregular tendern a anularse en promedio, reejando as, las
principales caractersticas de la serie.
q
X
At = at Ztj
j=q
2
Z
1
con at =
2q+1
, es pequeo para q grande, en el sentido de que E(At ) = 0 y V ar(At ) = 2q+1
.
Comencemos con la esperanza. Tenemos:
q q q
! !
X 1 X 1 X
E(At ) = E at Ztj =E Ztj = E(Ztj )
j=q
2q + 1 j=q 2q + 1 j=q
y por tanto E(At ) = 0 ya que el proceso {Zt } es independiente y con media = 0. Para la
varianza tenemos:
q q q
!
X X 1 X Z2
V ar(At ) = V ar at Ztj = a2t V ar(Ztj ) = 2
Z =
j=q j=q
(2q + 1)2 j=q 2q + 1
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
2007 31101 31909 34435 32380 37096 36216 40367 39902 38954 49412 40412 23355
2008 45553 45057 40029 49268 43667 52294 62229 59801 56553 70527 59687 52113
2009 65814 71137 89913 79073 76695 92248 100651 81910 88545 94181 82350 51894
2010 84094 86772 106082 87916 83399 92487 94883 97899 85130 96060 97379 74898
2011 82854 90295 103375 84414 98046 98633 95882 99991 93020 93480 94409 74088
2012 103356 110649 113157 99107 112468 100971 111903 112614 93443 120379 99046 62274
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
2007 NA 32481.67 32908.00 34637.00 35230.67 37893.00 38828.33 39741.00 42756.00 42926.00 37726.33 36440.00
2008 37988.33 43546.33 44784.67 44321.33 48409.67 52730.00 58108.00 59527.67 62293.67 62255.67 60775.67 59204.67
2009 63021.33 75621.33 80041.00 81893.67 82672.00 89864.67 91603.00 90368.67 88212.00 88358.67 76141.67 72779.33
2010 74253.33 92316.00 93590.00 92465.67 87934.00 90256.33 95089.67 92637.33 93029.67 92856.33 89445.67 85043.67
2011 82682.33 92174.67 92694.67 95278.33 93697.67 97520.33 98168.67 96297.67 95497.00 93636.33 87325.67 90617.67
2012 96031.00 109054.00 107637.67 108244.00 104182.00 108447.33 108496.00 105986.67 108812.00 104289.33 93899.67 NA
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
2007 NA NA 33384.2 34407.2 36098.8 37192.2 38507.0 40970.2 41809.4 38407.0 39537.2 40757.8
2008 38881.2 40652.4 44714.8 46063.0 49497.4 53451.8 54908.8 60280.8 61759.4 59736.2 60938.8 63855.6
2009 67732.8 71610.0 76526.4 81813.2 87716.0 86115.4 88009.8 91507.0 89527.4 79776.0 80212.8 79858.2
2010 82238.4 83351.6 89652.6 91331.2 92953.4 91316.8 90759.6 93291.8 94270.2 90273.2 87264.2 88297.2
2011 89760.2 87167.2 91796.8 94952.6 96070.0 95393.2 97114.4 96201.2 95356.4 90997.6 91670.6 95196.4
2012 99131.8 100071.4 107747.4 107270.4 107521.2 107412.6 106279.8 107862.0 107477.0 97551.2 NA NA
AccAtn
100000
Mviles q=1
Mviles q=2
40000
Figura 2.3.9: Suavizamiento por promedios mviles del nivel (pies) del lago Hurn con q=2
Figura 2.3.10: Suavizamiento por promedios mviles del nivel (pies) del lago Hurn con q=8
Pero quizs, cuando se trate de realizar una prediccin, un pronstico coherente de una
observacin Yt+1 sera el de asignar un promedio ponderado de los valores anteriores a este
tiempo, es decir:
X
X
Yt+1 = wi Yti con wi = 1 (2.3.16)
i=0 i=0
Como las observaciones recientes deberan de ser las ms relevantes para nuestro pronstico,
stas debieran tener mucho ms peso que las observaciones correspondientes al pasado.
52 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
w0 = 0.5
w1 = 0.25 (2.3.18)
w2 = 0.125
y as sucesivamente. Entonces:
= Yt + (1 )Yt
N
1 X 2
t (2.3.20)
N t=1
t = Yt Yt (2.3.21)
Yt+1 = Yt + (1 )Yt
= (Yt Yt ) + Yt (2.3.22)
= t + Yt
> Acciones<-read.table('ACCAT.txt',header=T)
> Serie<-ts(Acciones, frequency = 12, start = c(2007, 1))
> Exponencialsimple<- HoltWinters(Serie, gamma = FALSE, beta = FALSE)
Call:
HoltWinters(x = Serie, beta = FALSE, gamma = FALSE)
Smoothing parameters:
alpha: 0.397987
beta : FALSE
gamma: FALSE
Coefficients:
[,1]
a 88370.7
> ValoresAjust<-fitted(Exponencialsimple)
> plot(c(2007,2013),main="Acciones de atencin otorgadas por Condusef")
> lines(Serie,col="black"); lines(fitted(Exponencialsimple)[,1], col = "red")
> legend(2007,120000,c("AccAtn","Exponencial simple"),bty="n",col=c("black","red"))
AccAtn
Exponencial simple
40000
Mes Ao Yt Yt Mes Ao Yt Yt
Ene 2007 31101 31101 Ene 2010 84094 73049
Feb 2007 31909 31101 Feb 2010 86772 77445
Mar 2007 34435 31423 Mar 2010 106082 81157
Abr 2007 32380 32621 Abr 2010 87916 91077
May 2007 37096 32525 May 2010 83399 89819
Jun 2007 36216 34344 Jun 2010 92487 87264
Jul 2007 40367 35089 Jul 2010 94883 89343
Ago 2007 39902 37190 Ago 2010 97899 91548
Sep 2007 38954 38269 Sep 2010 85130 94075
Oct 2007 49412 38542 Oct 2010 96060 90515
Nov 2007 40412 42868 Nov 2010 97379 92722
Dic 2007 23355 41891 Dic 2010 74898 94575
Ene 2008 45553 34514 Ene 2011 82854 86744
Feb 2008 45057 38907 Feb 2011 90295 85196
Mar 2008 40029 41355 Mar 2011 103375 87225
Abr 2008 49268 40827 Abr 2011 84414 93653
May 2008 43667 44186 May 2011 98046 89976
Jun 2008 52294 43980 Jun 2011 98633 93188
Jul 2008 62229 47289 Jul 2011 95882 95355
Ago 2008 59801 53235 Ago 2011 99991 95565
Sep 2008 56553 55848 Sep 2011 93020 97326
Oct 2008 70527 56129 Oct 2011 93480 95612
Nov 2008 59687 61859 Nov 2011 94409 94764
Dic 2008 52113 60995 Dic 2011 74088 94623
Ene 2009 65814 57460 Ene 2012 103356 86450
Feb 2009 71137 60785 Feb 2012 110649 93178
Mar 2009 89913 64905 Mar 2012 113157 100131
Abr 2009 79073 74858 Abr 2012 99107 105315
May 2009 76695 76535 May 2012 112468 102845
Jun 2009 92248 76599 Jun 2012 100971 106675
Jul 2009 100651 82827 Jul 2012 111903 104405
Ago 2009 81910 89921 Ago 2012 112614 107389
Sep 2009 88545 86733 Sep 2012 93443 109468
Oct 2009 94181 87454 Oct 2012 120379 103091
Nov 2009 82350 90131 Nov 2012 99046 109971
Dic 2009 51894 87034 Dic 2012 62274 105623
Tabla 2.3.4: Tabla que muestra el suavizamiento exponencial simple en las acciones de atencin
Mes Ao Yt Yt Mes Ao Yt Yt
Ene 2007 31101 31101 Ene 2010 84094 58408
Feb 2007 31909 31101 Feb 2010 86772 78957
Mar 2007 34435 31747 Mar 2010 106082 85209
Abr 2007 32380 33897 Abr 2010 87916 101907
May 2007 37096 32683 May 2010 83399 90714
Jun 2007 36216 36213 Jun 2010 92487 84862
Jul 2007 40367 36215 Jul 2010 94883 90962
Ago 2007 39902 39537 Ago 2010 97899 94099
Sep 2007 38954 39829 Sep 2010 85130 97139
Oct 2007 49412 39129 Oct 2010 96060 87532
Nov 2007 40412 47355 Nov 2010 97379 94354
Dic 2007 23355 41801 Dic 2010 74898 96774
Ene 2008 45553 27044 Ene 2011 82854 79273
Feb 2008 45057 41851 Feb 2011 90295 82138
Mar 2008 40029 44416 Mar 2011 103375 88664
Abr 2008 49268 40906 Abr 2011 84414 100433
May 2008 43667 47596 May 2011 98046 87618
Jun 2008 52294 44453 Jun 2011 98633 95960
Jul 2008 62229 50726 Jul 2011 95882 98098
Ago 2008 59801 59928 Ago 2011 99991 96325
Sep 2008 56553 59826 Sep 2011 93020 99258
Oct 2008 70527 57208 Oct 2011 93480 94268
Nov 2008 59687 67863 Nov 2011 94409 93638
Dic 2008 52113 61322 Dic 2011 74088 94255
Ene 2009 65814 53955 Ene 2012 103356 78121
Feb 2009 71137 63442 Feb 2012 110649 98309
Mar 2009 89913 69598 Mar 2012 113157 108181
Abr 2009 79073 85850 Abr 2012 99107 112162
May 2009 76695 80428 May 2012 112468 101718
Jun 2009 92248 77442 Jun 2012 100971 110318
Jul 2009 100651 89287 Jul 2012 111903 102840
Ago 2009 81910 98378 Ago 2012 112614 110090
Sep 2009 88545 85204 Sep 2012 93443 112109
Oct 2009 94181 87877 Oct 2012 120379 97176
Nov 2009 82350 92920 Nov 2012 99046 115738
Dic 2009 51894 84464 Dic 2012 62274 102384
Tabla 2.3.5: Suavizamiento exponencial simple en las acciones de atencin con = 0.8
AccAtn
100000
Figura 2.3.12: Suavizamiento exponencial simple ( = 0.8) del nmero de acciones de atencin
56 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Figura 2.3.13: Figura que muestra el total de importaciones de bienes y servicios de Australia
Lt = Yt + (1 )Yt
= Yt + (1 )[L t1 + bt1 ] (2.3.23)
= Yt + (1 )L t1 + (1 )bt1
Estas ecuaciones se pueden contemplar como frmulas de actualizacin mediante las cuales
las estimaciones son modicadas a medida que se dispone de nuevas informaciones. Como ya
se mencion anteriormente, existe software que calcula los valores y para el mtodo doble
exponencial (o para los mtodos de suavizamiento en general) que minimizan el error cuadrtico
medio, es decir, que minimizan la ec. 2.3.20. Para inicializar el mtodo podemos considerar
1 = Y1 , b1 = Y2 Y1
L o bien,
b1 = 0. El pronstico ser t + bt .
Yt+1 = L Una vez ms tomemos
el nmero de acciones de atencin y realicemos en R el anlisis correspondiente. Dejamos a R
escoger los parmetros ptimos:
> Acciones<-read.table('ACCAT.txt',header=T)
> Serie<-ts(Acciones, frequency = 12, start = c(2007, 1))
> Dobleexponencial <- HoltWinters(Serie, gamma = FALSE)
Call:
HoltWinters(x = Serie, gamma = FALSE)
Smoothing parameters:
alpha: 0.2816785
beta : 0
gamma: FALSE
Coefficients:
[,1]
a 95584.62
b 808.00
> ValoresAjust3<-fitted(Dobleexponencial)
> plot (c(2007,2013),main="Acciones de atencin otorgadas por Condusef")
> lines(Serie,col="black"); lines(fitted(Dobleexponencial)[,1], col = "blue")
> legend(2007,130000,c("AccAtn","Holt"),lty=c(1,1),bty="n",col=c("black","blue"))
58 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Tabla 2.3.6 muestra los resultados obtenidos en R. Uno de ellos es el valor ajustado, Yt .
La
t y bt . La Figura 2.3.15
Tambin se muestran los estimadores para el nivel y la pendiente, L
muestra el suavizamiento del nmero de acciones de atencin hecho por el mtodo de Holt.
Mes Ao Yt t
L bt Mes Ao Yt t
L bt
Mar 2007 32717 31909 808 Feb 2010 81611 80803 808
Abr 2007 34009 33201 808 Mar 2010 83872 83064 808
May 2007 34358 33550 808 Abr 2010 90936 90128 808
Jun 2007 35937 35129 808 May 2010 90894 90086 808
Jul 2007 36824 36016 808 Jun 2010 89591 88783 808
Ago 2007 38630 37822 808 Jul 2010 91214 90406 808
Sep 2007 39796 38988 808 Ago 2010 93056 92248 808
Oct 2007 40367 39559 808 Sep 2010 95228 94420 808
Nov 2007 43723 42915 808 Oct 2010 93192 92384 808
Dic 2007 43598 42790 808 Nov 2010 94808 94000 808
Ene 2008 38704 37896 808 Dic 2010 96340 95532 808
Feb 2008 41441 40633 808 Ene 2011 91108 90300 808
Mar 2008 43268 42460 808 Feb 2011 89591 88783 808
Abr 2008 43163 42355 808 Mar 2011 90597 89789 808
May 2008 45691 44883 808 Abr 2011 95005 94197 808
Jun 2008 45929 45121 808 May 2011 92829 92021 808
Jul 2008 48530 47722 808 Jun 2011 95107 94299 808
Ago 2008 53197 52389 808 Jul 2011 96908 96100 808
Sep 2008 55865 55057 808 Ago 2011 97427 96619 808
Oct 2008 56867 56059 808 Sep 2011 98957 98149 808
Nov 2008 61523 60715 808 Oct 2011 98093 97285 808
Dic 2008 61814 61006 808 Nov 2011 97602 96794 808
Ene 2009 59889 59081 808 Dic 2011 97510 96702 808
Feb 2009 62366 61558 808 Ene 2012 91721 90913 808
Mar 2009 65645 64837 808 Feb 2012 95806 94998 808
Abr 2009 73288 72480 808 Mar 2012 100795 99987 808
May 2009 75726 74918 808 Abr 2012 105085 104277 808
Jun 2009 76807 75999 808 May 2012 104209 103401 808
Jul 2009 81964 81156 808 Jun 2012 107344 106536 808
Ago 2009 88036 87228 808 Jul 2012 106357 105549 808
Sep 2009 87118 86310 808 Ago 2012 108727 107919 808
Oct 2009 88328 87520 808 Sep 2012 110630 109822 808
Nov 2009 90785 89977 808 Oct 2012 106597 105789 808
Dic 2009 89217 88409 808 Nov 2012 111287 110479 808
Ene 2010 79512 78704 808 Dic 2012 108647 107839 808
Tabla 2.3.6: Tabla que muestra el mtodo de Holt para el nmero de acciones de atencin
AccAtn
100000
Holt
40000
Figura 2.3.15: Figura que muestra el mtodo de Holt para el nmero de acciones de atencin
AccAtn
100000
Holt (0.8,0.2)
40000
Figura 2.3.16: Mtodo de Holt ( = 0.8 y = 0.2) para el nmero de acciones de atencin
Tabla 2.3.8 muestra los valores ajustados, los estimadores para la pendiente y el nivel
La
1 = Y1 y b1 = 0. La Figura 2.3.17 muestra dicho ajuste.
pero ahora con valores iniciales L
60 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Mes Ao Yt t
L bt Mes Ao Yt t
L bt
Mar 2007 32717 31909 808 Feb 2010 77654 77940 -286
Abr 2007 35174 34091 1083 Mar 2010 86121 84948 1173
May 2007 33575 32939 636 Abr 2010 106457 102090 4367
Jun 2007 37591 36392 1199 May 2010 93024 91624 1400
Jul 2007 37470 36491 979 Jun 2010 85184 85324 -140
Ago 2007 41230 39788 1443 Jul 2010 92055 91026 1029
Sep 2007 41398 40168 1230 Ago 2010 95798 94317 1481
Oct 2007 40282 39443 839 Sep 2010 99296 97479 1817
Nov 2007 49886 47586 2300 Oct 2010 87514 87963 -449
Dic 2007 43091 42307 784 Nov 2010 95269 94351 918
Ene 2008 24929 27302 -2374 Dic 2010 98213 96957 1256
Feb 2008 42354 41428 926 Ene 2011 77086 79561 -2475
Mar 2008 45875 44516 1359 Feb 2011 80149 81700 -1552
Abr 2008 41622 41198 423 Mar 2011 88337 88266 72
May 2008 49385 47739 1647 Abr 2011 102845 100367 2478
Jun 2008 45542 44811 732 May 2011 87629 88100 -471
Jul 2008 52756 50944 1812 Jun 2011 97158 95963 1195
Ago 2008 63662 60334 3328 Jul 2011 99769 98338 1431
Sep 2008 63283 60573 2710 Ago 2011 97469 96659 809
Oct 2008 59532 57899 1633 Sep 2011 100700 99487 1213
Nov 2008 71720 68328 3392 Oct 2011 94540 94556 -16
Dic 2008 63561 62094 1467 Nov 2011 93507 93692 -185
Ene 2009 54038 54403 -365 Dic 2011 94188 94229 -41
Feb 2009 64978 63459 1520 Ene 2012 74851 78108 -3257
Mar 2009 72410 69905 2505 Feb 2012 98959 97655 1304
Abr 2009 91718 86412 5305 Mar 2012 111485 108311 3174
May 2009 84884 81602 3282 Abr 2012 116264 112823 3442
Jun 2009 80305 78333 1972 May 2012 103235 102538 697
Jul 2009 93742 89859 3883 Jun 2012 112795 110621 2174
Ago 2009 104258 99269 4988 Jul 2012 103618 103336 282
Sep 2009 87792 86380 1413 Ago 2012 111854 110246 1608
Oct 2009 89928 88394 1533 Sep 2012 114191 112462 1729
Nov 2009 95544 93330 2214 Oct 2012 96002 97593 -1590
Dic 2009 85091 84989 103 Nov 2012 117813 115504 2310
Ene 2010 53325 58533 -5209 Dic 2012 102107 102800 -693
Tabla 2.3.7: Mtodo de Holt ( = 0.8 y = 0.2) para el nmero de acciones de atencin
AccAtn
100000
Figura 2.3.17: 1
Mtodo de Holt (L = Y1 y b1 = 0) para el nmero de acciones de atencin
2.4. ANLISIS DE ESTACIONALIDAD 61
Mes Ao Yt t
L bt Mes Ao Yt t
L bt
Mar 2007 31101 31101 0 Feb 2010 77654 77940 -286
Abr 2007 34302 33768 533 Mar 2010 86121 84948 1173
May 2007 32990 32764 226 Abr 2010 106456 102090 4367
Jun 2007 37158 36275 883 May 2010 93024 91624 1400
Jul 2007 37137 36404 732 Jun 2010 85184 85324 -140
Ago 2007 40970 39721 1249 Jul 2010 92055 91026 1029
Sep 2007 41194 40116 1078 Ago 2010 95798 94317 1481
Oct 2007 40122 39402 720 Sep 2010 99296 97479 1817
Nov 2007 49760 47554 2206 Oct 2010 87514 87963 -449
Dic 2007 42992 42282 711 Nov 2010 95269 94351 918
Ene 2008 24851 27282 -2431 Dic 2010 98213 96957 1256
Feb 2008 42294 41413 881 Ene 2011 77086 79561 -2475
Mar 2008 45827 44504 1323 Feb 2011 80149 81700 -1552
Abr 2008 41584 41189 395 Mar 2011 88337 88266 72
May 2008 49356 47731 1625 Abr 2011 102845 100367 2478
Jun 2008 45519 44805 715 May 2011 87629 88100 -471
Jul 2008 52738 50939 1798 Jun 2011 97158 95963 1195
Ago 2008 63648 60331 3317 Jul 2011 99769 98338 1431
Sep 2008 63272 60570 2702 Ago 2011 97469 96659 809
Oct 2008 59523 57897 1627 Sep 2011 100700 99487 1213
Nov 2008 71713 68326 3387 Oct 2011 94540 94556 -16
Dic 2008 63555 62092 1463 Nov 2011 93507 93692 -185
Ene 2009 54034 54401 -368 Dic 2011 94188 94229 -41
Feb 2009 64975 63458 1517 Ene 2012 74851 78108 -3257
Mar 2009 72408 69905 2503 Feb 2012 98959 97655 1304
Abr 2009 91716 86412 5304 Mar 2012 111485 108311 3174
May 2009 84883 81602 3281 Abr 2012 116264 112823 3442
Jun 2009 80304 78333 1971 May 2012 103235 102538 697
Jul 2009 93741 89859 3882 Jun 2012 112795 110621 2174
Ago 2009 104257 99269 4988 Jul 2012 103618 103336 282
Sep 2009 87792 86379 1412 Ago 2012 111854 110246 1608
Oct 2009 89927 88394 1533 Sep 2012 114191 112462 1729
Nov 2009 95544 93330 2213 Oct 2012 96002 97593 -1590
Dic 2009 85091 84989 102 Nov 2012 117813 115504 2310
Ene 2010 53324 58533 -5209 Dic 2012 102107 102800 -693
Tabla 2.3.8: 1
Mtodo de Holt (L = Y1 y b1 = 0) para el nmero de acciones de atencin
Para no limitarnos a los aos, usaremos dos ndices, uno para el periodo y otro para la
estacin. Este hecho se explicar con ms detalle en la siguiente subseccin. La mayora de las
veces la estacionalidad obedece a factores institucionales o climatolgicos.
62 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Por ejemplo, la venta de ropa abrigadora (suteres, chamarras, bufandas, etc.) en poca de
verano disminuye de manera sobresaliente en comparacin a la vendida en poca de invierno.
He aqu un ejemplo de estacionalidad que obedece a factores climatolgicos. Ahora bien, para
la estacionalidad que obedece a factores institucionales podemos dar como ejemplo aquellas
series relacionadas con la produccin de cualquier bien en un pas, ya que interviene el hecho
de que las vacaciones laborales se concentran en la poca de verano.
Debemos hacer hincapi en que el patrn sistemtico que sigue la estacionalidad no tiene
por que repetirse cada ao. Por ejemplo, la serie que contempla el nmero de automviles que
transita a lo largo de la Avenida Insurgentes, vara cada hora, por lo que la estacionalidad
se repite da con da. Otro ejemplo podra ser la serie que mide la auencia en el transporte
colectivo metro del D.F.
Con la componente estacional, nuestro propsito ser eliminar toda aquella oscilacin de
carcter peridico que se presente en la serie a lo largo del ao, para as poder comparar datos
pertenecientes a distintas estaciones. Para esto introducimos el ltro de estacionalidad,
explicado a continuacin.
s
X
Ej = 0 (2.4.1)
j=1
La ltima condicin indica que para cada estacin, en total, la parte cclica es cero. En
realidad, usaremos en lugar de t un doble ndice, uno indicando el nmero de estaciones en los
datos e indexado por j, j=1, . . . ,e (e representa el nmero de periodos) y el otro el mes de la
estacin indexado por k, k=1, . . . ,s (para el ao tenemos s = 12). De aqu que:
Si suponemos que en promedio por estacin, el error es cero, y adems se cumple la ec.
2.4.1, es decir, para cada estacin la parte cclica es cero, por tanto:
s s
1X 1X
Yjk = Tjk (2.4.2)
s k=1 s k=1
Como estamos considerando que no hay cambios abruptos en la tendencia entonces Tjk = Tj ,
j = 1, . . . , e, de aqu que un estimador para Tj puede ser:
s
1X
Tj = Yjk , j = 1, . . . , e (2.4.3)
s k=1
2.4. ANLISIS DE ESTACIONALIDAD 63
e
1X
Ek = (Yjk Tj ), k = 1, . . . , s (2.4.4)
e j=1
s s e e s
!
X
1 XX 1X X
Ek = (Yjk Tj ) = Yjk sTj =0 (2.4.5)
k=1
e k=1 j=1
e j=1 k=1
Esquema aditivo
Yt+1 = Lt + bt + Cts+1 donde
Lt = Nivel al tiempo t
Lo anterior signica que si, por ejemplo, s =12 y t =13 entonces t s + 1 =2, as que la
estimacin de la serie en el periodo t + 1 =14 depende de la componente del periodo 2, C2 , que
es el mes que le corresponde al periodo 14.
Ct = (Yt L t ) + (1 )Cts
con 0 < , , < 1. Los valores iniciales de los que se puede partir son:
s
" s 2s
#
0 = 1 1 1 1 0 + (k 1)b0
X X X
L Yt ; b0 = Yt Yt y C0 = Yk L (2.4.8)
s t=1 s s t=1 s t=s+1 2
> library(stats)
> setwd("C:/Users/Gerardo/Desktop/Tesis/Captulo 2/Condusef")
> Acciones<-read.table('ACCAT.txt',header=T)
> Serie<-ts(Acciones, frequency = 12, start = c(2007, 1))
> HWaditivo <- HoltWinters(Serie, seasonal = "additive")
Call:
HoltWinters(x = Serie, seasonal = "additive")
Smoothing parameters:
alpha: 0.3127162
beta : 0.06479356
gamma: 0.5342237
AccAtn
100000
HW aditivo
40000
De aqu que, nuestra prediccin en cdigo R para el nmero de acciones de atencin que
otorgar Condusef para el ao 2013 ser:
La Figura 2.4.2 muestra las predicciones para el ao 2013 del nmero de acciones de
atencin que otorgar Condusef, donde las lneas rojas representan la prediccin mientras que
las azules representan las bandas de conanza.
AccAtn
Prediccin
80000
20000
Figura 2.4.2: Figura que muestra las predicciones para el nmero de acciones de atencin
Figura 2.4.4: Figura que muestra el nmero de pasajeros mensuales bajo Holt-Winters
Desafortunadamente, ITSM, en este mtodo, no nos muestra las bandas de conanza, por
lo que, para utilizar el mtodo de Holt-Winters es mejor utilizar R. An as se muestra el
procedimiento disponible en ITSM.
Esquema multiplicativo
Yt+1 = (Lt + bt ) Cts+1 donde nuevamente
Lt = Nivel al tiempo t
t = Yt + (1 )(L
L t1 + bt1 )
Cts
bt = (L t1 ) + (1 )bt1
t L (2.4.10)
Yt
Ct = + (1 )Cts
t
L
con 0 < , , < 1. Los valores iniciales con los que se puede iniciar son:
s
" s 2s
# " #
b0
0 = 1 1 1 1 1 (k 1)
X X X
L Yt ; b0 = Yt Yt y C0 = Y (2.4.11)
s t=1 s s t=1 s t=s+1 0 k
L 2
> Acciones<-read.table('ACCAT.txt',header=T)
> Serie<-ts(Acciones, frequency = 12, start = c(2007, 1))
> HWmultiplicativo<-HoltWinters(Serie, seasonal = "multiplicative")
Call:
HoltWinters(x = Serie, seasonal = "multiplicative")
Smoothing parameters:
alpha: 0.2215445
beta : 0.09581145
gamma: 0.615166
La Figura 2.4.5 muestra el suavizamiento del nmero de acciones de atencin por el mtodo
de Holt-Winters.
AccAtn
100000
HW multiplicativo
40000
Tabla 2.5.1: Tabla que muestra las ventas trimestrales de cierta empresa mexicana
2.5. DESCOMPOSICIN CLSICA 69
Ventas
Ventas
460
420
Figura 2.5.1: Figura que muestra las ventas trimestrales de cierta empresa mexicana
Claramente, la serie posee tanto tendencia como estacionalidad. Observamos una cada cada
primer trimestre y un pico cada tercer trimestre. Vamos a tomar un promedio mvil de tamao
H, donde H es el nmero de estaciones en un ao, es decir, en este ejemplo H = 4. Si H es
un nmero par, debemos obtener un promedio que corresponda a los periodos de tiempo de
los datos originales. Para lograr esto, un nuevo promedio mvil que abarque dos periodos y el
anterior suavizamiento por promedios mviles debe realizarse. Por ejemplo, tenemos el primer
promedio mvil dado por:
516+546.8+561.9+565.7
P rimerM A = = 547.60
4
546.8+561.9+565.7+545.9
SegundoM A = = 555.08
4
561.9+565.7+545.9+571.3
T ercerM A = = 561.20
4
565.7+545.9+571.3+586.6
CuartoM A = = 567.38
4
y as sucesivamente. Pasamos ahora a calcular el nuevo promedio mvil centrado:
547.60+555.08
CentradoM A3 = = 551.34
2
555.08+561.20
CentradoM A4 = = 558.14
2
561.20+567.38
CentradoM A5 = = 564.29
2
y as sucesivamente. Restamos el promedio mvil centrado de los datos originales, denotando
a esta nueva serie como {Et + t }; por ejemplo, tenemos:
E3 + 3 = 561.90-551.34 = 10.56
E4 + 4 = 565.70-558.14 = 7.56
70 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Estos promedios estacionales deben sumar cero, de lo contrario debemos normalizarlos para
que al nal, al restarlos, stos consistan en un valor contante. Usando los datos de la Tabla
2.5.2 calculamos:
-20.52+5.30+11.45+5.13
L = = 0.34
4
Los estimadores estacionales sern nalmente:
E1 = -20.52-0.34 = -20.86
E2 = 5.30-0.34 = 4.96
E3 = 11.45-0.34 = 11.11
E4 = 5.13-0.34 = 4.79
Tabla 2.5.3: Tabla que muestra los clculos de ventas trimestrales de la empresa mexicana
2.5. DESCOMPOSICIN CLSICA 71
Figura 2.5.2: Figura que muestra las ventas trimestrales sin la presencia de estacionalidad
Call:
lm(formula = Ventasmex ~ t)
Residuals:
Min 1Q Median 3Q Max
-10.1236 -5.3109 0.9246 4.2500 7.1819
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 538.4385 3.0754 175.08 < 2e-16 ***
t 4.2671 0.3181 13.42 2.21e-09 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
> Acciones<-read.table('ACCAT.txt',header=T)
> Serie<-ts(Acciones, frequency = 12, start = c(2007, 1))
> stl(Serie[,1],s.window="periodic")
72 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
La Tabla 2.5.4 muestra la estimacin de las componentes en que se supone dividida una
serie de tiempo con el comando stl en R.
Ene 2007 -2449 29808 3742 Ene 2010 -2449 86644 -101
Feb 2007 251 30934 724 Feb 2010 251 86971 -450
Mar 2007 7639 32060 -5264 Mar 2010 7639 87297 11146
Abr 2007 -2290 33196 1474 Abr 2010 -2290 87937 2269
May 2007 122 34333 2642 May 2010 122 88578 -5300
Jun 2007 3028 35461 -2273 Jun 2010 3028 89268 192
Jul 2007 7865 36590 -4088 Jul 2010 7865 89957 -2940
Ago 2007 4788 37699 -2585 Ago 2010 4788 90287 2824
Sep 2007 -2068 38807 2215 Sep 2010 -2068 90617 -3419
Oct 2007 8413 39918 1081 Oct 2010 8413 90890 -3244
Nov 2007 -963 41029 347 Nov 2010 -963 91163 7179
Dic 2007 -24335 42224 5466 Dic 2010 -24335 91584 7649
Ene 2008 -2449 43419 4583 Ene 2011 -2449 92005 -6702
Feb 2008 251 44869 -63 Feb 2011 251 92246 -2202
Mar 2008 7639 46318 -13928 Mar 2011 7639 92488 3249
Abr 2008 -2290 47945 3613 Abr 2011 -2290 92555 -5850
May 2008 122 49571 -6026 May 2011 122 92622 5303
Jun 2008 3028 51648 -2381 Jun 2011 3028 93047 2558
Jul 2008 7865 53724 640 Jul 2011 7865 93473 -5456
Ago 2008 4788 56401 -1388 Ago 2011 4788 94544 659
Sep 2008 -2068 59077 -456 Sep 2011 -2068 95614 -526
Oct 2008 8413 62083 31 Oct 2011 8413 96822 -11755
Nov 2008 -963 65089 -4439 Nov 2011 -963 98029 -2657
Dic 2008 -24335 68052 8396 Dic 2011 -24335 99143 -720
Ene 2009 -2449 71016 -2752 Ene 2012 -2449 100257 5548
Feb 2009 251 73634 -2748 Feb 2012 251 101308 9090
Mar 2009 7639 76252 6022 Mar 2012 7639 102358 3160
Abr 2009 -2290 78231 3132 Abr 2012 -2290 102456 -1059
May 2009 122 80210 -3637 May 2012 122 102554 9792
Jun 2009 3028 81446 7774 Jun 2012 3028 102322 -4379
Jul 2009 7865 82683 10103 Jul 2012 7865 102091 1947
Ago 2009 4788 83643 -6521 Ago 2012 4788 101730 6096
Sep 2009 -2068 84603 6010 Sep 2012 -2068 101369 -5858
Oct 2009 8413 85264 504 Oct 2012 8413 100896 11069
Nov 2009 -963 85925 -2611 Nov 2012 -963 100424 -415
Dic 2009 -24335 86284 -10056 Dic 2012 -24335 99857 -13248
Tabla 2.5.4: Tabla que muestra la descomposicin clsica mediante el uso del comando stl
La tcnica usual para resolver estos problemas es el anlisis de varianza con un solo criterio
de clasicacin. La variacin entre las medias muestrales, xi , es usada para estimar la varia-
cin entre individuos, asumiendo que las varianzas muestrales reejan solamente el muestreo
aleatorio de una poblacin en la cual los individuos varan y en el hecho de que las varianzas
2 2
muestrales de una muestra aleatoria de tamao ni es donde es la varianza poblacional.
ni
2
Esta estimacin de basada en la variacin entre medias muestrales es entonces comparada
con otra estimacin basada solamente en la variacin entre muestras.
Un mtodo que podemos tomar a consideracin es el anlisis de varianza con un solo criterio
de clasicacin dado por la prueba Kruskal-Wallis, sin empates, aplicada a la serie {Et +t } vista
en la seccin anterior. Esta serie se supone que contiene solamente la componente estacional y
la componente aleatoria. Si no existe algn componente estacional especco, la serie {Et + t }
deber consistir solamente de errores aleatorios y por tanto, su distribucin deber ser la misma
para todas las estaciones.
Esto signica que si esta serie es ordenada y las ordenaciones son agrupadas por estacin,
entonces el rango promedio para cada estacin debera ser estadsticamente igual al rango
promedio de cualquier otra estacin. La prueba Kruskal-Wallis, determina si la suma de los
rangos (y por tanto de las medianas) son distintos o no, entre varias grupos (estaciones).
Retomemos el ejemplo del nmero de ventas de ropa deportiva de cierta empresa mexicana
visto en la seccin anterior. Tomemos los datos que necesitemos para aplicar la prueba Kruskal-
Wallis. LaTabla 2.7.1 muestra la serie {Et + t } as como sus correspondientes rangos. La
Tabla 2.7.2 muestra la agrupacin por estacin (trimestre) as como la suma de sus respectivos
rangos.
3 3 10.56 11
4 4 7.56 7
5 1 -18.39 2
6 2 1.61 5
7 3 14.19 12
8 4 9.89 10
9 1 -26.98 1
10 2 6.64 6
11 3 9.61 9
12 4 -2.08 4
13 1 -16.19 3
14 2 7.66 8
Tabla 2.7.1: Tabla que muestra los clculos para la prueba Kruskal-Wallis
74 CAPTULO 2. ANLISIS CLSICO DE SERIES DE TIEMPO
Suma rangos
1 2 3 4
2 5 11 7
1 6 12 10
3 8 9 4
6 19 32 21
Tabla 2.7.2: Tabla que muestra la suma de los rangos para la prueba Kruskal-Wallis
o bien, en palabras:
con estadstico:
X R2 C
12 i
H = 3(N + 1) (2.7.3)
N (N + 1) i=1 ni
donde
C = Nmero de muestras
2
192 322 212
12 6
H = + + + (3)(13) = 8.74 (2.7.4)
12(13) 3 3 3 3
en la serie {Et + t }. Es hasta este punto donde podemos concluir que la estacionalidad del
ejemplo de las ventas trimestrales de ropa deportiva no se logr eliminar por completo. Algn
otro mtodo se deber utilizar (algunos de ellos se han visto en este captulo y otros se vern
en el siguiente captulo) para eliminar por completo la estacionalidad.
3.1. Introduccin
El impacto de una serie de tiempo es de tal magnitud, que suele abarcar un sinfn de
campos cientcos. Por ejemplo, muchos modelos econmicos pueden ser reproducidos mediante
el uso de una serie de tiempo ya que constantemente se trabaja con variables econmicas
dadas con periodicidad diaria, mensual, trimestral, semestral, anual, etc. Dentro del campo
social, demgrafos trabajan con series de tiempo poblacionales que involucran variables como
el nacimiento, defuncin, ndice de alistamiento educacional, ndice de desempleo, etc, de cierta
cohorte. En medicina, un modelo de series de tiempo puede ser utilizado para dar seguimiento
al nivel de presin sangunea de un conjunto de pacientes que sufran hipertensin. Resonancias
magnticas de ondas cerebrales pueden ser tratadas como una serie de tiempo, con el objetivo
de estudiar la reaccin del cerebro ante la presencia de ciertos estmulos.
En este captulo dejaremos de lado la vinculacin de una serie de tiempo con el modelo
clsico y pasaremos a identicarla con un proceso estocstico. Consideremos {X(t) : t T }
un conjunto de variables aleatorias denidas en el mismo conjunto (, z, P) donde T 6= es
un conjunto de ndices. Estudiaremos T a lo ms numerable. Usaremos adems como notacin
X(t) = Xt .
Como ya fue mencionado en el captulo 2, el enfoque estocstico surge con los trabajos
de Box & Jenkins y la metodologa ARIMA, basada en la teora de los procesos estocsticos.
Estaremos interesados en aquellos procesos que resulten ser estacionarios (en el sentido dbil).
Intuitivamente, una serie de tiempo es estacionaria si sus propiedades estadsticas se mantienen
constantes a lo largo del tiempo.
Entonces, para aplicar la metodologa de Box & Jenkins debemos primero, determinar si
la serie de tiempo en cuestin es estacionaria o no. Si no lo es, debemos transformarla en una
serie de tiempo que s lo sea. A partir de la estacionariedad de una serie de tiempo, nuestro
problema de inters en este captulo ser tanto el de replicar la realidad como el de pronosticar
o estimar valores futuros del proceso {Xt }.
Comenzaremos con una denicin formal de estacionariedad en una serie de tiempo para
despus desarrollar de manera precisa la metodologa de Box & Jenkins. Adems, dentro de
este captulo, al igual que en los captulos anteriores, introduciremos paquetes estadsticos que
nos ayudarn a alcanzar nuestro cometido, a saber, R e ITSM.
75
76 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
De aqu en adelante denotaremos a {Xt }tT simplemente como {Xt }, recordando siempre
que el conjunto de ndices es a lo ms numerable.
p p
|C(t1 , t2 )| = |E(XY )| E(X 2 ) E(Y 2 )
pero por ser de 2 orden, se concluye que E(X 2 ), E(Y 2 ) < .
Cov(t1 , t2 ) Cov(t1 , t2 )
(t1 , t2 ) = p p = p 2p 2 (3.2.2)
V ar(Xt1 ) V ar(Xt2 ) t1 t2
p p
|C(t1 , t2 )| E(X 2 ) E(Y 2 )
|(t1 , t2 )| = p 2 p 2 p 2p 2 =1 (3.2.3)
t1 t2 t1 t2
es decir, |(t1 , t2 )| 1.
Denicin 3.2.6 Sea {Xt } un proceso estacionario en el sentido fuerte y de 2 orden, entonces
{Xt } es un proceso estacionario de 2 orden en el sentido dbil.
Demostracin
Primero demostraremos que E(Xt ) = E(Xt+ ). Tenemos que:
Z Z
E(Xt ) = xfXt (x) dx = xfXt + (x) dx = E(Xt+ ) (3.2.4)
ya que FXt (x) = FXt + (x) fXt (x) = fXt + (x) por ser un proceso estacionario en el
o bien,
sentido fuerte. Ahora sigue demostrar que Cov(t1 , t2 ) = Cov(t1+ , t2+ ). Sabemos, a partir de
la denicin de covarianza, que, Cov(t1 , t2 ) = E[(Xt1 t1 )(Xt2 t2 )] = E[(Xt1 )(Xt2 )],
con E(Xt ) = E(Xt+ ) = . Entonces:
Z Z
Cov(t1 , t2 ) = (x )(y )fXt1 ,Xt2 (x, y) dxdy
Z
Z
= (x )(y )fXt1 + ,Xt2 + (x, y) dxdy
Ejemplo 3.2.1 Dar dos contraejemplos para el hecho de que si una serie es dbilmente estacio-
naria esto no implica que sea fuertemente estacionaria.
Para nuestro primer contraejemplo tomemos una secuencia de variables aleatorias indepen-
dientes {Xt } tal que:
exp(1) si t es par
Xt
N (1, 1) si t es impar
Observamos que E(Xt ) = 1 t, ya que si t es par, tenemos que Xt exp(1) con esperanza
igual a 1, y si t es impar, tenemos que Xt N (1, 1) con esperanza igual a 1. El mismo
argumento se usa para ver que V ar(Xt ) = 1 t.
78 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Ahora bien, nosotros sabemos que V ar(Xt ) = E(Xt2 ) E2 (Xt ), por lo que al despejar E(Xt2 )
2 2
obtenemos E(Xt ) = V ar(Xt ) + E (Xt ) = 1 + 1 = 2 t. Es decir:
E(Xt ) = 1 = E(Xt+ )
E(Xt2 ) = 2 = E(Xt+
2
)
Adems, Cov(Xt , Xt+ ) = 0, por ser una secuencia de variables aleatorias independientes.
Ahora bien, para nuestro segundo contraejemplo, sea W una variable aleatoria con distribu-
cin uniforme en el intervalo (0, 2]. Sea Xt = cos(tW ) para t = 1, . . . , n. Al aplicar el operador
esperanza obtenemos:
2
Z 2
cos(tW ) 1
E(Xt ) = dW = sen(tW ) = 0
0 2 2t
0
Se concluye que E(Xt ) no depende del tiempo. Ahora bien, para obtener la covarianza del
proceso {Xt } tenemos:
Ahora bien, sea a=ts y b = t + s; entonces, la covarianza del proceso resulta ser:
1 1 1
Cov(Xt , Xs ) = E[cos(aW ) + cos(bW )] = E[cos(aW )] + E[cos(bW )]
2 2 2
2
1 sen2 (tW )
Z
E(Xt2 ) = dW
0 2
Z 2 Z 2
1 sen2 (tW )
= dW dW
0 2 0 2
Z 2
sen2 (tW )
= 1 dW
0 2
2 2
sen2 (tW )
Z Z
1 1
pero dW = [1 cos(2tW )] dW = 0, por lo que E(Xt2 ) = 1, que no
0 2 2 0 2
depende del tiempo.
3.2. PROCESOS ESTACIONARIOS 79
El proceso {Xt }
es dbilmente estacionario. Por otra parte, el proceso no es fuertemente es-
tacionario ya que si tomamos tW = 2 y tW = 4 , ambos en el intervalo (0, 2], la distribucin
conjunta depende de su lugar en la secuencia, es decir, en algunas ocasiones el coseno toma un
valor y en otras ocasiones otro valor de manera cclica y esto afecta por tanto la distribucin.
Ahora bien, si {Xt } es un proceso estacionario de 2 orden entonces la funcin de autoco-
varianza es una funcin que en realidad depende de la distancia entre los tiempos |t2 t1 |.
Tomemos por un momento = t1 , entonces:
Cov(t1 , t2 ) = Cov(t1 t1 , t2 t1 )
= Cov(0, t2 t1 )
Analogamente, si = t2 tenemos:
Cov(t1 , t2 ) = Cov(t1 t2 , t2 t2 )
= Cov(t1 t2 , 0)
As que, dicha funcin depende de |t1 t2 |. Por tanto, obtenemos una sucesin X ( ) tal
que C(t1 , t2 ) = X (|t1 t2 |) = X ( ), que es la sucesin de autocovarianzas terica {X ( )} .
La sucesin de autocovarianzas terica de un proceso estacionario posee 3 propiedades desea-
bles. La primera de ellas se deriva al tomar = 0, con lo cual obtenemos:
que es claro, la varianza del proceso {Xt }. A partir de la desigualdad de Cauchy se puede
obtener la segunda propiedad, a saber:
|X ( )| X (0) (3.2.6)
X ( ) = X (t + t)
= E[(Xt+ )(Xt )]
= E[(Xt )(Xt+ )] (3.2.7)
= X (t (t + ))
= X ( )
80 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
X ( )
X ( ) = (3.2.8)
X (0)
2
Cov(Xt , Xt ) = V ar(Xt ) = X si =0
Cov(Xt , Xt+ ) = X ( ) =
Cov(X0 , X ) = 0 si 6= 0
1 si =0
X ( ) =
0 si 6= 0
2
Claramente, el ruido blanco es un proceso estacionario ya que E(Xt ) = , V ar(Xt ) = X
y Cov(Xt , Xt+ ) no dependen del tiempo.
En algn momento vamos a requerir que el proceso de ruido blanco sea un conjunto de
variables aleatorias independendientes e idnticamente distribuidas con media 0 y varianza
2 2
X . Distinguiremos dicho proceso con la notacin {Xt } IID(0, X ). Como ejercicio mental,
2 2
claramente, un proceso {Xt } IID(0, X ) es tambin {Xt } W N (0, X ) pero no al revs.
3
1 Proceso WNG(0, 1) simulado
X(t)
1
3
Figura 3.2.1: Figura que muestra la simulacin de un proceso de ruido blanco Gaussiano
La Figura 3.2.1 muestra la simulacin de un ruido blanco, {Xt } W NG (0, 1), donde
W NG (0, 1) corresponde a un ruido blanco con distribucin Gaussiana, media cero y varianza
igual a uno.
Como observacin nal, debemos recalcar que en el ejemplo anterior, la distribucin del
ruido blanco es Gaussiana. Pero cuidado, no por este ejemplo debemos asumir que todo ruido
blanco involucra una distribucin Gaussiana o Normal. Este ejemplo es un proceso de ruido
blanco particular, el cual involucra un proceso {Xt } con variables aleatorias independientes con
2
distribucin Normal, media 0 y varianza igual a X . Recordemos que hemos denotado al ruido
2
blanco como {Xt } W N (0, X ). Se har una distincin clara en el texto cuando la distribucin
2
del ruido blanco sea Gaussiana, a saber con la notacin, {Xt } W NG (0, X ).
Ahora bien, como en la denicin de los procesos ARMA(p,q), los cuales se vern en la
Seccin 3.5, se requiere que el proceso sea estacionario, debe ocurrir que el proceso tenga la
misma media a travs del tiempo y que la varianza sea constante en el tiempo. Grcamente
el proceso estacionario ideal debe ser algo como lo que se muestra en la Figura 3.2.2.
El proceso no ser estacionario cuando encontremos una sucesin con media no constante
o que presente tendencia como la que se muestra en la Figura 3.2.3. La serie tampoco ser
estacionaria si la variabilidad alrededor de la media no es constante como la que se muestra
en laFigura 3.2.4 o nalmente para un proceso que presente estacionalidad como el que se
muestra en la Figura 3.2.5.
= c[T 0 (t )]2 f (t )
Para que la serie {T (Xt )} tenga varianza constante, T (Xt ) debe escogerse de tal forma que:
1
T 0 (t ) = p (3.2.11)
f (t )
Z
1
T (t ) = p dt (3.2.12)
f (t )
Z
1
T (t ) = p dt = ln(t )
2t
84 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Z
1
T (t ) = dt = 2 t
t
Z
1 1
T (t ) = p dt =
4
t t
Por ejemplo, si tuvieramos una serie de tiempo como la que se muestra en la Figura 3.2.6.
1
(Xt 1) si 0, Xt 0
f (Xt ) =
ln(Xt ) si = 0, Xt > 0
1
-1
Xt
1
-0.5
Xt
0 ln(Xt )
0.5 Xt
1 Xt
Tabla 3.2.1: Tabla que muestra los valores aproximados para las transformaciones de Box-Cox
Como comentarios nales debemos recordar que las transformaciones de Box-Cox aplican
solamente para series {Xt } positivas. Adems, una trasformacin de Box-Cox, de ser necesaria,
debe aplicarse antes de realizar cualquier otro procedimiento. Finalmente, el aplicar una tras-
formacin de Box-Cox no slo estabiliza la varianza sino que tambin mejora la aproximacin
de los residuos a una distribucin Normal.
Y t = T t + Et + X t (3.2.13)
En el caso simple, donde slo exista tendencia, cmo estimarla? Nuestras opciones, vistas
en el captulo anterior, son, el modelo de regresin lineal simple, visto en la Seccin 2.3, el
mtodo de Holt, visto en la Seccin 2.3.6, y el ltro de promedios mviles, visto en la Seccin
2.3.4. Los residuos et = Yt Yt deberan ser un proceso estacionario, el cual podemos modelar
con un proceso ARMA(p,q).
86 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Sin embargo, otro mtodo muy usual para obtener una serie en la cual se elimina la tenden-
cia consiste en aplicar diferencias. Para ello, para un proceso {Xt } se denen los operadores B
y , tales que BXt = Xt1 , Xt = Xt Xt1 .
j
X j
j
Xt = (1 B) Xt = j
(B)k Xt (3.2.14)
k=0
k
Tt = [a + t] [a + (t 1)] = a + t a t + =
Yt = Tt + Xt = + Xt (3.2.15)
j
proceso en el cual no existe tendencia. Ahora bien, para darnos una idea del operador
2
cuando j = 2, supongamos la componente de tendencia igual a Tt = a0 + a1 t + a2 t . Al aplicar
j
el operador con j = 1 obtenemos:
Para dicha j , no logramos eliminar la tendencia, ya que an sobrevive el trmino 2a2 t. Para
eliminar dicho trmino pasamos, nuevamente, a aplicar el operador de la siguiente forma:
Tt = (2a2 t + a1 a2 )
= [2a2 t + a1 a2 ] [2a2 (t 1) + a1 a2 ]
= 2a2
2 Yt = 2 Tt + 2 Xt = 2a2 + 2 Xt (3.2.16)
k+1
Teorema 3.2.1
X
Para cada k 1, sea Ttk+1 = al tl , polinomio de orden k+1, entonces:
l=0
Es decir, al diferenciar k veces queda una tendencia lineal. La demostracin se har por
j
induccin, considerando que el operador es lineal, lo cual fcilmente puede comprobar el
lector. Dicha aseveracin se usar a lo largo de la demostracin.
Demostracin
Si k=1
Tt2 = (a0 + a1 t + a2 t2 )
= a0 + a1 t + a2 t2 a0 a1 t + a1 a2 t2 + 2a2 t a2 (3.2.18)
= c({a1 , a2 }) + 2!a2 t
n+2
" #
X n + 2
n n+2 k n+2k
= (n + 1)!an+1 + an+2 t an+2 t (1)
k
k=0
n
" !#
n n+2 n+2 n + 2 n+1 X n + 2 k n+2k
= (n + 1)!an+1 + an+2 t an+2 t t + t (1)
n+1 k
k=0
n
" #
X n + 2
= (n + 1)!an+1 + n an+2 (n + 2)tn+1 + tk (1)n+3k an+2
k
k=0
= (n + 1)!an+1 + c({a01 , a02 , . . . , a0n+1 }) + (n + 1)!a0n+1 t
= c({a1 , a2 , . . . , an+2 }) + (n + 2)(n + 1)!an+2 t
= c({a1 , a2 , . . . , an+2 }) + ((n + 1) + 1)!a(n+1)+1 t
n+2
a0k = (1)n+3k an+2 y a0n+1 = an+2 (n + 2). As, utilizando este teorema, vemos que
con
k
k
la serie original Yt = Tt + Xt , la cual presenta una tendencia correspondiente a un polinomio
k 2 k
de orden k, Tt = a0 + a1 t + a2 t + . . . + ak t , se convierte en:
k Yt = k Ttk + k Xt
= k1 Ttk + k Xt
= [c({a1 , . . . , ak }) + k!ak t] + k Xt (3.2.19)
= (a + t) + k Xt
= k!ak + k Xt
88 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
s Xt = Xt Xts (3.2.21)
Si Y t = T t + Et + X t entonces:
s Yt = s (Tt + Et + Xt )
= (Tt + Et + Xt ) (Tts + Ets + Xts ) (3.2.22)
= Tt Tts + Xt Xts
ya que Et = Ets . Si esta serie sigue teniendo tendencia podramos usar el operador j .
La covarianza entre t y t2 es cero ya que al ser ruido blanco, las variables aleatorias no
estn correlacionadas. La sucesin de autocovarianzas viene dada por:
X ( ) = Cov(Xt , Xt+ )
= Cov(a + bt + ct2 , a + bt+ + ct+ 2 )
= b2 Cov(t+ , t ) + bcCov(t+ , t2 ) + bcCov(t+ 2 , t ) + c2 Cov(t+ 2 , t2 )
2 2
(b + c2 ) si =0
X ( ) = bc2 si = 2
0 si 6= 0, 2
al ser {t } W N (0, 2 ). Podemos concluir que {Xt } es un proceso estacionario ya que
E(Xt ), E(Xt2 ) y X ( ) son nitos y no dependen del tiempo.
Ejemplo 3.2.4 {Xt } = Y1 +Y2 +. . .+Yt , donde {Yt } son variables aleatorias independientes
Sea
2
e identicamente distribuidas con media 0 y varianza Y Es {Xt } un proceso estacionario?
Obtener la sucesin de autocovarianzas asociada al proceso {Xt }.
E(Xt ) = E(Y1 + Y2 + . . . + Yt )
= E(Y1 ) + E(Y2 ) + . . . + E(Yt )
= 0
= Y2 t
90 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
X ( ) = Cov(Xt , Xt+ )
= Cov(Xt , Xt + Yt+1 + Yt+2 + . . . + Yt+ )
= Cov(Xt , Xt ) + Cov(Xt , Yt+1 ) + Cov(Xt , Yt+2 ) + . . . + Cov(Xt , Yt+ )
= Cov(Xt , Xt ) (al ser {Yt } v.a.i.i.d)
= V ar(Xt )
= Y2 t
Ejemplo 3.2.5
Sean {Xt } e {Yt } sucesiones no correlacionadas con medias X y Y , varianzas
2 2
X y Y y sucesin de autocovarianzas X ( ) y Y ( ) respectivamente. Probar que {Xt + Yt }
es estacionaria con sucesin de autocovarianzas igual a la suma de las sucesiones de autocova-
rianzas X ( ) + Y ( ).
Sea {Wt } = {Xt + Yt }. El primer momento de {Wt } es:
E(Wt ) = E(Xt + Yt )
= X + Y <
W ( ) = Cov(Wt , Wt+ )
= Cov(Xt + Yt , Xt+ + Yt+ )
= Cov(Xt , Xt+ ) + Cov(Yt , Xt+ ) + Cov(Xt , Yt+ ) + Cov(Yt , Yt+ )
= Cov(Xt , Xt+ ) + Cov(Yt , Yt+ ) (al ser {Xt } e {Yt } no correlacionadas)
= X ( ) + Y ( )
{Wt } es estacionario ya que E(Wt ), E(Wt2 ) y W ( ) son nitos y no dependen del tiempo.
Adems, W ( ) es igual a la suma de la sucesin de autocovarianzas de Xt e Yt .
Ejemplo 3.2.6 {Yt } un proceso estacionario con media 0, varianza Y2 y variables aleatorias
Sea
no correlacionadas. Sean a y b constantes. Sea Xt = a+bt+Et +Yt , donde Et es una componente
12
estacional con periodo 12. Probar que 12 Xt = (1 B)(1 B )Xt es un proceso estacionario
y expresar su sucesin de autocovarianzas en trminos de {Yt }.
3.3. MODELOS DE PROMEDIOS MVILES (MA) 91
Sea Wt = Yt + Yt13 Yt12 Yt1 , entonces el primer momento del proceso {Wt } ser:
y sucesin de autocovarianzas:
2
4Y si =0
W ( ) = 2Y2 si = 1, 12
2
Y si = 13
{Wt } es estacionario ya que E(Wt ), E(Wt2 ) y W ( ) son nitos y no dependen del tiempo.
Xt = + t + 1 t1 (3.3.1)
= 0
92 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
= 2 + 12 2
= 2 (1 + 12 ) <
Y ( ) = Cov(Yt , Yt+ )
= Cov(t + 1 t1 , t+ + 1 t+ 1 ) (3.3.4)
2
= Cov(t , t+ ) + 1 Cov(t+ , t1 ) + 1 Cov(t+ 1 , t ) + 1 Cov(t+ 1 , t1 )
2
(1 + 12 ) si =0
Y ( ) = 2 1 si | | = 1
0 si | | > 1
1 si =0
1
Y ( ) = 1+12
si | | = 1
| | > 1
0 si
Podemos concluir que el proceso {Yt } es un proceso estacionario ya que E(Yt ), E(Yt2 ) y Y ( )
son nitos y no dependen del tiempo.
Tomemos a partir de la sucesin de autocorrelaciones terica (ACF) del proceso MA(1) para
2
| | a 1 , la cual se puede expresar como 1 (1 + 1 ) 1 = 0, con races:
p
1 1 421
1 =
21
dadas por la frmula general para resolver ecuaciones de segundo grado. Para que las races
2 2 1 1
sean reales, tomamos en cuenta el discriminante, es decir, 1 41 0 1 4 |1 | 2 .
Con este ejemplo hemos querido ilustrar lo siguiente. An cuando para | | = 1, la auto-
correlacin es distinta de cero, dicha autocorrelacin no puede ser muy elevada, ya que eso
implicara una fuerte dependencia de la observacin actual con la observacin anterior, y de
aqu que sera ms adecuado pensar en un proceso autorregresivo (el cual veremos a detalle en
la Seccin 3.4) para dicha situacin.
Ejemplo 3.3.2 La Figura 3.3.1 muestra la simulacin de dos procesos MA(1) de 200 ob-
servaciones con parmetros 1 = 0.7 y 1 = -0.7 respectivamente. Notemos que la observa-
cin Xt est correlacionada con la observacin Xt1 pero no lo est con las observaciones
Xt2 , Xt3 , Xt4 , . . .. En la gura, ACF denota la sucesin de autocorrelaciones X ( ) (eje Y)
para distintos valors de (eje X). El caso contrario se dar cuando veamos, en la Seccin 3.4,
a los procesos autorregresivos AR(p) y en particular al modelo AR(1), en el cual, la correlacin
que existe entre Xt y Xt nunca ser cero.
3
3
2
2
1
1
X(t)
X(t)
0
0
1
1
2
2
3
3
ACF del proceso MA(1) con 1 = + 0.7 ACF del proceso MA(1) con 1 = 0.7
0.6
0.0
0.2
0.4
ACF
ACF
0.4
0.2
0.6
0.0
2 4 6 8 10 12 2 4 6 8 10 12
Lag (retraso) Lag (retraso)
Figura 3.3.1: Figura que muestra dos procesos MA(1) simulados con 1 = 0.7 y 1 = -0.7
94 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
> par(mfrow=c(2,2))
> plot(arima.sim(list(order=c(0,0,1),ma=.7),n=200),xlab="",ylab="X(t)",col="blue",
main=(expression(Proceso~MA(1)~con~theta[1]==+.7)))
> plot(arima.sim(list(order=c(0,0,1),ma=-.7),n=200),xlab="",ylab="X(t)",col="blue",
main=(expression(Proceso~MA(1)~con~theta[1]==-.7)))
> ACF1=ARMAacf(ar=0,ma=.7,12)[-1]
> ACF2=ARMAacf(ar=0,ma=-.7,12)[-1]
> plot(ACF1,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.1,0.7),col="blue",
main=(expression(ACF~del~proceso~MA(1)~con~theta[1]==+.7)))
> abline(h=0)
> plot(ACF2,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.7,0.1),col="blue",
main=(expression(ACF~del~proceso~MA(1)~con~theta[1]==-.7)))
> abline(h=0)
= 0
= 2 (1 + 12 + 22 )
Y ( ) = Cov(Yt , Yt+ )
= Cov(t + 1 t1 + 2 t2 , t+ + 1 t+ 1 + 2 t+ 2 )
= Cov(t , t+ ) + 1 Cov(t , t+ 1 ) + 2 Cov(t , t+ 2 ) (3.3.8)
o bien:
2
(1 + 12 + 22 ) si =0
2 (1 + 1 2 ) si =1
Y ( ) =
2 2 si =2
0 si 3
1 si =0
1 (1+2 )
1+12 +22
si =1
Y ( ) =
2
=2
si
1+12 +22
0 si 3
p
1 1 422 (1 + 12 )
2 =
22
Para que las races de 2 sean reales se requiere que el discriminante de la frmula general,
422 (1 + 12 ) 1, lo cual implica que 1 422 (1 + 12 ) 1. Despejando a 2 de la relacin anterior
obtenemos parte de lo que queramos demostrar, a saber, |2 | 0.5.
p
(1 + 2 ) (1 + 2 )2 421 (1 + 22 )
1 =
21
96 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Para que las races de 1 sean reales se requiere que (1 + 2 )2 421 (1 + 22 ), o bien, mani-
pulando un poco la ecuacin anterior obtenemos:
22
421 1
1 + 22
Hemos visto anteriormente en el Ejemplo 3.3.1. que para un proceso MA(1) se cumple
1 0.5 (esta 1 es aquella del proceso MA(1)). Utilizando este hecho y la ecuacin anterior
tenemos:
22
421 1 2(0.5)
1 + 22
Despejando a 21 de la relacin anterior obtenemos lo que nos faltaba por demostrar, a saber,
21 0.5.
Ejemplo 3.3.4 Pasemos a simular en R un proceso MA(2) con parmetros 1 = 0.3, 2 = -0.9
y 250 observaciones. Tambin obtendremos la correspondiente sucesin de autocorrelaciones
terica (ACF). La Figura 3.3.2 muestra tanto el proceso simulado MA(2) como la respectiva
sucesin de autocorrelaciones terica (ACF). El cdigo necesario ser entonces:
> par(mfrow=c(1,2))
> MA2=arima.sim(list(order=c(0,0,2),ma=c(0.3,-0.9)),n=250)
> plot(MA2,xlab="",ylab="X(t)",col="blue",
main=(expression(MA(2)~con~theta[1]==+.3~y~theta[2]==-.9)))
> ACF=ARMAacf(ar=0,ma=c(0.3,0.9),12)[-1]
> plot(ACF,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.1,1),col="blue",
main=(expression(ACF~terica~del~proceso~MA(2))))
> abline(h=0)
0.8
2
ACF
X(t)
0.4
0
2
0.0
Figura 3.3.2: Figura que muestra un proceso MA(2) simulado con 1 = 0.3 y 2 = -0.9
3.3. MODELOS DE PROMEDIOS MVILES (MA) 97
Tomemos el proceso centrado {Yt } = {Xt } (es centrado ya que su esperanza es cero).
Para demostrar que el proceso MA(q) es estacionario, pasemos a calcular su primer y segun-
do momento. Obtendremos como siempre la sucesin de autocovarianzas y autocorrelaciones
terica asociadas al proceso.
= 0
ya que la media del proceso {t } es cero. Para la varianza, recordemos que el proceso {t }
es un conjunto de variables aleatorias no correlacionadas. Por tanto tenemos:
= 2 (1 + 12 + 22 + . . . + q2 )
= 2 (1 + 12 + 22 + . . . + q2 )
q q
! !
X X
Yt Yt+ = j tj l t+ l
j=0 l=0
q q
X X
= j l tj t+ l
j=0 l=0
98 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
q q
X X
E(Yt Yt+ ) = j l E(tj t+ l )
j=0 l=0
q q
XX
= j l [E(tj t+ l ) E(tj )E(t+ l )] (3.3.13)
j=0 l=0
q q
XX
= j l l+j
j=0 l=0
2
Hemos visto que para un ruido blanco, X ( ) vale X cuando = 0, en este caso va a
suceder si l + j = 0, es decir, l = + j . Como l q entonces + j q y como j 0
entonces 0 j q .
Por tanto, la sucesin de autocovarianzas terica es:
q
!
X
j j+ 2 si 0 q
Y ( ) = E(Yt Yt+ ) = j=0
0 >q
si
q| |
X
j j+| | 2 si 0 | | q
Y (| |) = E(Yt Yt+| | ) = j=0
0 si | | > q
q| |
X
j | |+j
j=0 q 0 | | q
si
Y (| |) =
X
j2
j=0
0 si | | > q
Xt = + 1 Xt1 + t (3.4.1)
= 0
Nuestra siguiente tarea ser encontrar la sucesin de autocovarianzas terica del proceso, en
la cual se necesitar la expresin de la varianza. Para el clculo de la sucesin de autocovarianzas
terica para >1 tenemos la siguiente relacin:
Y ( ) = Cov(Yt , Yt+ )
= Cov(Yt , Yt )
= Cov(1 Yt1 + t , Yt )
= 1 Cov(Yt1 , Yt ) + Cov(t , Yt ) (3.4.3)
= 1 Cov(Yt1 , Yt )
= 1 Y ( 1)
= 1 Y (0)
donde claro, Cov(t , Yt ) = 0 ya que el proceso {t } no est correlacionado con el proceso
Ys para cada s < t. Para = 0, la varianza del proceso, tenemos:
Y (0) = Cov(Yt , Yt )
= Cov(1 Yt1 + t , 1 Yt1 + t )
= 21 Cov(Yt1 , Yt1 ) + Cov(t , t ) (3.4.4)
= 21 Cov(Y0 , Y0 ) + 2
= 21 Y (0) + 2
2
Y (0) = (3.4.5)
1 21
100 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
| |
1 2
Y (| |) = (3.4.6)
1 21
| |
Y (| |) = 1 (3.4.7)
lo cual indica que conforme > 0 crece, la sucesin de autocorrelaciones terica (ACF)
tiende a cero, con decaimiento exponencial cuando 0 < 1 < 1 y con signos alternados cuando
| |
1 < 1 < 0. Observar que de Y (| |) = 1 se obtiene que Y (1) = 1 , es decir, el coeciente
1 es la autocorrelacin a un paso.
Ejemplo 3.4.1 Realizaremos a continuacin una simulacin de dos procesos AR(1) en R, con
parmetros, 1 = 0.7 y 1 = -0.7, cada uno con 150 observaciones.
> par(mfrow=c(2,2))
> plot(arima.sim(list(order=c(1,0,0),ar=.7),n=150),xlab="",ylab="X(t)",col="blue",
main=(expression(Proceso~AR(1)~con~phi[1]==+.7)))
> plot(arima.sim(list(order=c(1,0,0),ar=-.7),n=150),xlab="",ylab="X(t)",col="blue",
main=(expression(Proceso~AR(1)~con~phi[1]==-.7)))
> ACF1=ARMAacf(ar=.7,ma=0,15)[-1]
> ACF2=ARMAacf(ar=-.7,ma=0,15)[-1]
> plot(ACF1,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.1,1),col="blue",
main=(expression(ACF~del~proceso~AR(1)~con~phi[1]==+.7)))
> abline(h=0)
> plot(ACF2,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.8,1),col="blue",
main=(expression(ACF~del~proceso~AR(1)~con~phi[1]==-.7)))
> abline(h=0)
3.4. MODELOS AUTORREGRESIVOS (AR) 101
3
2
2
1
X(t)
X(t)
0
0
1
2
2
3
4
ACF del proceso AR(1) con 1 = + 0.7 ACF del proceso AR(1) con 1 = 0.7
1.0
1.0
0.8
0.5
0.6
ACF
ACF
0.4
0.0
0.2
0.5
0.0
2 4 6 8 10 12 14 2 4 6 8 10 12 14
Lag (retraso) Lag (retraso)
Figura 3.4.1: Figura que muestra dos procesos AR(1) simulados con 1 = 0.7 y 1 = -0.7
Tomemos nuevamente el proceso centrado {Yt } = {Xt }, es decir, Yt = 1 Yt1 +2 Yt2 +t
2
con {t } W N (0, ). Para que el proceso anterior sea estacionario debe cumplirse que las
2
races del polinomio (z) = 1 1 z 2 z se encuentren fuera del crculo unitario. Esta
proposicin esta basada en el Teorema 3.5.1 el cual estudiaremos a profundidad cuando
estemos en la Seccin 3.5.1.
102 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Una forma alternativa para demostrar estacionariedad es a partir del Teorema de Schur
el cual nos dice que el valor absoluto de las races del polinomio caracterstico de orden p dado
por la siguiente relacin:
1 p
D1 = >0
p 1
1 0 p p1
p1 1 0 p
D2 =
>0
p 0 1 p1
p1 p 0 1
1
0 ... 0 p p1 . . . 1
1
1 ... 0 0 p . . . 2
. . . .
. . . .
. . . .
. . . 1 0 0 ... p
Dp = p1 p2 >0
p 0 . . . 0 1 1 ... p1
p1 p ... 0 0 1 ... p2
. . . .
.. .
.
.
.
.
.
1 2 . . . p 0 0 ... 1
1 2
D1 = = 1 22 > 0 (3.4.10)
2 1
1 0 2 1
1 1 0 2
D2 = = (1 + 2 )2 ((1 2 )2 21 ) > 0 (3.4.11)
2 0 1 1
1 2 0 1
La condicinD1 > 0 es equivalente a pedir que |2 | < 1, mientras que la condicin D2 > 0 es
2 2
equivalente a pedir que (1 2 ) > 1 . Esto nos facilitar el trabajo al momento de demostrar
estacionariedad para un proceso AR(2).
3.4. MODELOS AUTORREGRESIVOS (AR) 103
Es decir, para que un proceso AR(2) sea estacionario basta con que se cumplan las siguientes
condiciones:
|2 | < 1
2 + 1 < 1 (3.4.12)
2 1 < 1
Ahora bien, a partir de las ecuaciones de Yule-Walker, las cuales se vern en la Seccin
3.4.3, obtenemos:
1 = 1 + 2 1
2 = 1 1 + 2
las cuales permiten obtener los valores de 1 y 2 en funcin de los parmetros autorregresivos
1 y 2 respectivamente. Resolviendo las ecuaciones de Yule-Walker para 1 y 2 obtenemos:
1
1 =
1 2
21
2 = 2 +
1 2
Como comentario nal, al tomar el polinomio caracterstico del proceso AR(2) haremos
uso, en la mayora de las ocasiones, de la frmula general para la obtencin de las races del
polinomio (z).
Especial atencin pondremos en el discriminante ya que si 21 + 42 0, entonces, las races
de (z) son reales y la sucesin de autocorrelaciones terica (ACF) decaer rpidamente a cero
(todas las autocorrelaciones sern positivas si la primera lo es y tendrn signos alternados si la
2
primer autocorrelacin es negativa). Ahora bien, si sucede lo contrario, es decir, 1 + 42 < 0,
las races de (z) sern complejas y la sucesin de autocorrelaciones terica (ACF) seguir un
comportamiento sinusoidal convergente a cero.
Ejemplo 3.4.2 Como en cada modelo, pasemos a simular ahora un proceso AR(2) en R con
parmetros 1 = 0.7, 2 = -0.3 y 250 observaciones. La Figura 3.4.2 nos muestra el proceso
simulado AR(2) en R con dichos parmetros. De igual manera obtendremos la sucesin de au-
tocorrelaciones terica (ACF) del proceso AR(2) simulado, la cual puede observarse tambin en
la Figura 3.4.2. Observamos de la sucesin de autocorrelaciones terica (ACF) el comporta-
miento sinusoidal convergente a cero del que habamos comentado ya que 21 + 42 = -0.71 < 0.
El cdigo correspondiente para la simulacin, grca y sucesin de autocorrelaciones terica
(ACF) del proceso estar dado por:
> par(mfrow=c(1,2))
> AR2=arima.sim(list(order=c(2,0,0),ar=c(0.7,-0.3)),n=250)
> plot(AR2,xlab="",ylab="X(t)",col="blue",
main=(expression(AR(2)~con~phi[1]==+.7~y~phi[2]==-.3)))
> ACF=ARMAacf(ar=c(.7,-0.3),ma=0,15)[-1]
> plot(ACF,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.1,1),col="blue",
main=(expression(ACF~terica~del~proceso~AR(2))))
> abline(h=0)
104 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
0.8
2
ACF
X(t)
0.4
0
2
0.0
0 50 100 150 200 250 2 4 6 8 10 12 14
Lag (retraso)
Figura 3.4.2: Figura que muestra un proceso AR(2) simulado con 1 = 0.7 y 2 = -0.3
E(Yt1 Ytk ) = Y (k 1)
E(Yt2 Ytk ) = Y (k 2)
E(Yt3 Ytk ) = Y (k 3)
.
.
.
E(Ytp Ytk ) = Y (k p)
Nos resta por saber lo que sucede con el trmino E(t Ytk ). Es posible demostrar, de nuevo a
partir de la denicin de causalidad (la cual se dar en la Seccin 3.5.1), que E(t Ytk ) = 0. Al
sustituir E(t Ytk ) = 0 en la ec. 3.4.16 obtenemos, para 1 k p, las siguientes expresiones:
k=1 Y (1) 1 . . . p Y (p 1) = 0
k=2 Y (2) 1 Y (1) . . . p Y (p 2) = 0
k=3 Y (3) 1 Y (2) . . . p Y (p 3) = 0 (3.4.18)
.
.
.
k=p Y (p) 1 Y (p 1) . . . p = 0
Lo siguiente ser recordar que el proceso MA(q) visto en la Seccin 3.3.3 tiene como
sucesin de autocorrelaciones terica (ACF) a:
q| |
X
j | |+j
j=0 q 0 | | q
si
X (| |) =
X
j2
j=0
0 si | | > q
As que si se pudieran obtener X (1), X (2), . . ., y en algn momento todas las X ( ) a partir
de un cierto
valen cero entonces se puede decir que estamos hablando de un MA(q). En un
modelo autorregresivo no existe algo as, por ejemplo, para un proceso AR(1), X ( ) = , por
lo cual no hay algn indicativo para saber a partir de la sucesin de autocorrelaciones terica
(ACF) qu modelo elegir. Ms adelante veremos la sucesin de autocorrelaciones parciales
terica (PACF), la cual nos ayudar a identicar a los modelos AR(p).
(B) y (B) representan los polinomios asociados a los procesos {Xt } y {t } respectivamente,
denidos de la siguiente forma:
Para justicar el porqu de esta expresin, recordemos que BXt = Xt1 y como consecuencia
j
B Xt = Xtj , por lo que tenemos:
(B)Xt = (1 1 B 2 B 2 . . . p B p )Xt
= Xt 1 Xt1 2 Xt2 . . . p Xtp
Similarmente tenemos:
(B)t = (1 + 1 B + 2 B 2 + . . . + q B q )t
= t + 1 t1 + 2 t2 + . . . + q tq
Ejemplo 3.5.1 Tomemos un proceso ARMA(1,1) causal dado por Xt = 1 Xt1 + t + 1 t1
2
con {t } ruido blanco con media igual a 0 y varianza constante e igual a . Obtendremos la
sucesin de autocovarianzas terica y la sucesin de autocorrelaciones terica (ACF) asociadas
al proceso {Xt }.
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 107
Xt = 1 Xt1 + t + 1 t1
E(Xt2 ) = 1 E(Xt Xt1 ) + E(Xt t ) + 1 E(Xt t1 )
X (0) = 1 E(Xt Xt1 ) + E(Xt t ) + 1 E(Xt t1 )
en donde
ya que Xt1 depende de la serie {t } hasta el tiempo t-1, pero no depende de t . Adems,
usando el resultado anterior pero con t-1 en lugar de t, tenemos:
De manera equivalente, la sucesin de autocovarianzas terica del proceso est dada por:
es decir:
1 X (0) + 1 2 si =1
X ( ) =
1 X ( 1) si 2
Ahora bien, construyamos un sistema de ecuaciones para X (0) y X (1) para encontrar sus
soluciones y expresar la sucesin de autocovarianzas terica y la sucesin de autocorrelaciones
terica (ACF) de manera ms sencilla:
[1 + 21 1 + 12 ]2
X (0) =
1 21
[(1 + 1 1 )(1 + 1 )]2
X (1) =
1 21
1 1 [(1 + 1 1 )(1 + 1 )]
X ( ) = = 1, 2, . . .
1 + 21 1 + 12
Ejemplo 3.5.2 Nuevamente realizaremos una simulacin de 100 observaciones pero ahora ser
la de dos modelos ARMA(1,1) con parmetros 1 = -0.8, 1 = -0.3 y 1 = 0.8, 1 = 0.3
respectivamente.
> par(mfrow=c(2,2))
> ARMA=arima.sim(list(order=c(1,0,1),ar=-0.8,ma=-0.3),n=100)
> plot(ARMA,xlab="",ylab="X(t)",col="blue",
main=(expression(ARMA(1,1)~con~phi[1]==-.8~y~theta[1]==-.3)))
> ACF=ARMAacf(ar=-0.8,ma=-0.3,12)
> plot(ACF,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-1,1),col="blue",
main=(expression(ACF~terica~del~proceso~ARMA(1,1))))
> abline(h=0)
> ARMA11=arima.sim(list(order=c(1,0,1),ar=0.8,ma=0.3),n=100)
> plot(ARMA11,xlab="",ylab="X(t)",col="blue",
main=(expression(ARMA(1,1)~con~phi[1]==.8~y~theta[1]==.3)))
> ACF=ARMAacf(ar=0.8,ma=0.3,12)
> plot(ACF,type="h",xlab="Lag (retraso)",ylab="ACF",ylim=c(-0.1,1),col="blue",
main=(expression(ACF~terica~del~proceso~ARMA(1,1))))
> abline(h=0)
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 109
1.0
4
0.5
2
ACF
X(t)
0.0
0
0.5
2
1.0
4
0 20 40 60 80 100 2 4 6 8 10 12
Lag (retraso)
0.8
2
0.6
ACF
X(t)
0.4
0
0.2
2
0.0
4
0 20 40 60 80 100 2 4 6 8 10 12
Lag (retraso)
Xt = 1 Xt1 + t
= 1 (1 Xt2 + t1 ) + t
= 21 Xt2 + 1 t1 + t
= 21 (1 Xt3 + t2 ) + 1 t1 + t (3.5.3)
Suponiendo que |1 | < 1 y por tanto, el proceso {Xt } es causal, podemos representar,
continuando con las iteraciones hacia atrs, al proceso AR(1) como un proceso lineal, denicin
que se dar en la Seccin 3.5.1, dado por:
X
Xt = j1 tj (3.5.4)
j=0
En la Seccin 3.4.1 vimos que para un proceso AR(1) centrado, su primer momento era
2
E(Yt ) = 0 y su segundo momento estaba dado por E(Yt2 ) = V ar(Yt ) + E(Yt ) = 121
, de tal
Ahora bien, nos preguntamos si de casualidad existe algn proceso AR(1) estacionario con
parmetro |1 | > 1,
ya que claramente, si existiese dicho proceso, entonces su sucesin de
| |
autocorrelaciones terica (ACF), 1 , crecera de manera explosiva conforme y adems:
k1
X
j1 tj
j=0
Xt = 1 1
1 Xt+1 1 t+1
= 1 1 1 1
1 (1 Xt+2 1 t+2 ) 1 t+1
= 2 2 1
1 Xt+2 1 t+2 1 t+1
.
.
.
X
= j
1 t+j
j=1
3.5.1. Causalidad
Denicin 3.5.1 Un proceso {Xt } es un proceso lineal si lo podemos escribir como:
X
Xt = j tj (3.5.5)
j=
X
|j | < (3.5.6)
j=
La condicin dada por la ec. 3.5.6 nos asegurar para el Lema 3.5.1 y para la Proposicin
3.5.1 la convergencia en probabilidad 1 y en media cuadrtica de series como la mostrada en
la ec. 3.5.5, ya que como E(|t |) < tendremos:
!
X X
E(|Xt |) |j |E(|tj |) |j | <
j= j=
Denicin 3.5.2 Un proceso {Xt } ARMA(p,q) denido por la ec. 3.5.1 es causal si existe
una sucesin de pesos {j } tales que se cumple la condicin dada por laec. 3.5.6, y el proceso
{Xt } se puede escribir, t T , como:
X
Xt = j tj (3.5.7)
j=0
En otras palabras, un proceso {Xt } es causal si dicho proceso puede obtenerse a partir de
otro proceso, {t }, vindolo como un proceso lineal.
Lema 3.5.1 Si {Xt } es una sucesin de variables aleatorias tales que supt E(|Xt |) < y se
cumple la ec. 3.5.6, entonces la serie:
X
X
j
(B)Xt = j B Xt = j Xtj (3.5.8)
j= j=
Proposicin 3.5.1 Sea {Yt } un proceso estacionario de 2 orden con sucesin de autocova-
rianzas {Y ( )} , = 0, 1, 2, . . .. Asumiendo cierta la condicin dada por la ec. 3.5.6, la
serie:
X
(B)Yt = j Ytj (3.5.9)
j=
El proceso Xt (B)Yt es estacionario de 2 orden con sucesin de autocovarianzas:
X
X
X ( ) = j k Y ( j + k) (3.5.10)
j= k=
Es decir, la Proposicin 3.5.1 nos permite asegurar que, dado un proceso {Yt } estaciona-
rio, el proceso Xt (B)Yt es tambin estacionario de 2 orden e inclusive nos da la expresin
para encontrar la sucesin de autocovarianzas correspondiente al proceso Xt . Entonces, si noso-
tros, despus de realizar un anlisis exhaustivo de unos datos, logramos identicar un proceso
ARMA(p,q) causal, podremos tambin concluir que dicho proceso es estacionario de 2 orden.
Si partimos del proceso {t }, el cual result ser estacionario en la Seccin 3.2, entonces, el
proceso dado por la ec. 3.5.7
ser estacionario de 2 orden, y gracias a la Proposicin 3.5.1
podremos obtener la sucesin de autocovarianzas correspondiente.
Teorema 3.5.1 Sea {Xt } un proceso ARMA(p,q) para el cual los polinomios () y () no
tienen ceros en comn. Entonces {Xt } es causal si y slo s el polinomio (z) 6= 0 z C tal
que |z| 1. Los coecientes {j } quedan determinados por la relacin:
X (z)
(z) = j z j = ; con |z| 1 (3.5.11)
j=0
(z)
X
X
j1 z j = (1 z)j
j=0 j=0
1
=
1 1 z
1
la cual converge a 1r . Por tanto, usando la ec. 3.5.11:
(z) 1
=
(z) 1 1 z
X
= j1 z j
j=0
X
= j z j
j=0
X
X
X ( ) = j k ( j + k)
j= k=
X X
= j1 k1 ( j + k)
j=0 k=0
X
= 1 +k k1 2
k=0
X
= 2 1 (21 )k
k=0
1
= 2
1 21
usando para la convergencia de la ltima serie que como |1 | < 1 entonces |21 | < 1. He-
mos obtenido, entonces, la misma expresin que en la Seccin 3.4.1, es decir, la sucesin de
autocovarianzas terica de un proceso AR(1).
Antes de continuar con otro ejemplo, expliquemos un poco el Teorema 3.5.1. En palabras,
el Teorema 3.5.1 dice que el proceso es causal si y slo s las races del polinomio (z) no se
encuentran dentro del crculo unitario, esto es, (z) = 0 solamente cuando |z| > 1. Estas races
pueden ser complejas y por eso nos referimos a su norma.
Ejemplo 3.5.4 Sea el proceso Xt = 0.1Xt1 + 0.3Xt2 + t + t1 + 0.25t2 . Uno podra rpi-
damente argumentar que estamos tratando con un proceso ARMA(2,2), pero antes de aseverar
dicha conclusin, obtengamos los polinomios (z) y (z) correspondientes. Dichos polinomios
2 2 2
sern (z) = 1 0.1z 0.3z = (1 + 0.5z)(1 0.6z) y (z) = 1 + z + 0.25z = (1 + 0.5z)
respectivamente.
Recordemos que para poder aplicar el Teorema 3.5.1, los polinomios (z) y (z) no deben
tener ceros en comn, hecho que no sucede en este ejemplo. Eliminando los ceros en comn
de ambos polinomios concluimos que el proceso {Xt } en realidad corresponde a un proceso
ARMA(1,1) con polinomios (z) = (1 0.6z) y (z) = (1 + 0.5z) ya que el trmino (1 + 0.5z)
se cancela en ambos polinomios.
En este ejemplo slo nos interesa la parte de causalidad dada por el polinomio (z) el cual
tiene como raz a z = 106
, la cual se encuentra fuera del crculo unitario. El proceso {Xt }
ser por tanto causal. Lo que se har a continuacin ser tomar el producto de los polinomios
(z) y (z), asociando los trminos que tienen un mismo grado e igualndolos con los mismos
trminos para el polinomio (z). Los coecientes {j } quedan determinados por la relacin
(z)(z) = (z), dada por el Teorema 3.5.1, o bien por:
(z)(z) = (1 0.6z)(0 + 1 z + 2 z 2 + . . .)
= (z)
= (1 + 0.5z)
114 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Observemos que 0 = 1, 1 = 0.5 + 0.6 = 1.1 y j = 0.6j1 para j > 1. Por tanto,
j = (0.5 + 0.6)0.6j1 y el proceso {Xt } puede expresarse como:
X
j1
Xt = t + 1.1 0.6 tj
j=1
q
X X X
j j
(z)(z) = cj z = j z = j z j
j=0 j=0 j=0
Hemos extendido la suma hasta innito ya que j = 0 para j > q . Nuevamente, de la ec.
3.5.11 2
tenemos (z)(z) = (0 + 1 z + 2 z + . . .)(1 1 z 2 z 2 . . . p z p ). Al hacer el
producto puede verse que el coeciente cj asociado a este polinomio es:
j j
X X
cj = k jk = 0 j k jk = j (3.5.12)
k=0 k=1
0 = 1
1 1 0 = 1
2 1 1 2 0 = 2
3 1 2 2 1 3 0 = 3
4 1 3 2 2 3 1 4 0 = 4
.
.
.
j
X
cj = j k jk = 0 (3.5.13)
k=1
p
X
cj = j k jk = 0 (3.5.14)
k=1
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 115
j
X
j k jk = j 1 j < max{p, q + 1} (3.5.15)
k=1
p
X
j k jk = 0 j max{p, q + 1} (3.5.16)
k=1
Podemos usar las 2 ecuaciones anteriores y los valores iniciales 0 = 1 = 0 para encontrar
los pesos {j } de forma sucesiva.
> ARMAtoMA(ar=.6,ma=.5,25)
> plot(ARMAtoMA(ar=.6,ma=.5,25),xlab="",ylab="Pesos",col="blue",
main=(expression(Serie~de~pesos~psi[j])))
Serie de pesos j
0.8
Pesos
0.4
0.0
5 10 15 20 25
Figura 3.5.2: Figura que muestra la serie de pesos {j } para un proceso ARMA(1,1)
116 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Ejemplo 3.5.6
Para el siguiente modelo autorregresivo Yt 1.097Yt1 + 0.97Yt2 = t con {t }
2
ruido blanco con E(t ) = 0 y V ar(t ) = , identique si el modelo es causal usando el Teorema
3.5.1.
> z=c(1,-1.097,.97)
> a=polyroot(z)[1]
[1] 0.5654639+0.8433139i
donde la primer lnea del cdigo representa un vector que incluye a los coecientes del
polinomio (z) y la segunda lnea nos muestra una de las dos races (aquella que involucra el
signo positivo) asociadas al polinomio (z). La grca de la serie de pesos {j } asociada al
proceso {Yt } se puede obtener con el siguiente cdigo:
> ARMAtoMA(ar=c(1.097,0.97),ma=0,25)
> plot(ARMAtoMA(ar=c(1.097,0.97),ma=0,25),xlab="",ylab="Pesos",col="blue",
main=(expression(Serie~de~pesos~psi[j])))
Serie de pesos j
150000
Pesos
0
5 10 15 20 25
Figura 3.5.3: Figura que muestra la serie de pesos {j } para un proceso ARMA(2,0)
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 117
Ejemplo 3.5.7 Regresando al caso AR(1),Xt = Xt1 + t (es decir, p = 1 y q = 0), entonces
max{p, q + 1} = max{1, 0 + 1} = 1. 1 j < max{p, q + 1} = 1 indica 1 j < 1 lo cual no es
posible as que slo usamos la condicin 0 = 0 = 1 y la ecuacin para j max{p, q + 1} = 1:
1
X
1 = k 1k = 1 0 = 1
k=1
X2
2 = k 2k = 1 1 + 2 0 = 21
k=1
3
X
3 = k 3k = 1 2 + 2 1 + 3 0 = 31
k=1
X
X
y as sucesivamente. Por tanto, Xt = j1 z j , como ya sabamos. Adems Xt = j1 tj .
j=0 j=0
Existe un mtodo para resolver la ec. 3.5.16, as que al nal slo se tendra que resolver la
ec. 3.5.15 y usar sta y las condiciones iniciales 0 = 0 = 1 para resolver todas. A continuacin
veremos este procedimiento. Para un j jo se dene el siguiente polinomio:
Pp (B) = 1 + 1 B + 2 B 2 + . . . + p B p
de donde
Pp (B)j = j + 1 j1 + 2 j2 + . . . + p jp
i 1
l rX
X
j = cin j n (i )j (3.5.17)
i=1 n=0
Pp (B)j = j + 1 j1 + 2 j2 + . . . + p jp
= j 1 j1 2 j2 + . . . p jp
Observe que este polinomio corresponde a la parte autorregresiva que se obtiene al escribir
el modelo ARMA(p,q) como Xt 1 Xt1 . . . q Xtp = t + 1 t1 + . . . + q tq , as que
al obtener las races del polinomio de esa parte obtenemos los valores ri , i , l requeridos en la
frmula.
118 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Entonces, el proceso a seguir para obtener el proceso causal explcito es el siguiente: obte-
nemos las races de (z), el polinomio de la parte autorregresiva, para despus vericar que el
proceso sea causal de acuerdo con elTeorema 3.5.1 (estas races corresponden a los i vistos
arriba). Proporcionamos las condiciones iniciales de acuerdo con laec. 3.5.15 y a 0 = 0 = 1
para nalmente usar estas condiciones y resolver la ec. 3.5.16 de acuerdo con la ec. 3.5.17.
Ejemplo 3.5.8 Encontrar expresiones para {j } en un proceso ARMA(p,q) causal dado por
1
Xt = Xt1 X + t + t1 .
4 t2
1
X
j k jk = j 1 j < max{2, 1 + 1} = 2
k=1
X2
j k jk = 0 j max{2, 1 + 1} = 2
k=1
i 1
l rX
X
j = cin j n (i )j
i=1 n=0
rX1 1
= c1n j n (1 )j
n=0
j j
1 1
= c10 + c11 j
2 2
Usando las condiciones iniciales para que la expresin anterior pueda usarse para cualquier
j tenemos:
X
Xt = j tj
j=0
X
= (1 + 3j)2j tj
j=0
4 7
= t + t1 + t2 + . . .
2 4
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 119
Ejemplo 3.5.9 Encontrar expresiones para {j } en un proceso ARMA(p,q) causal dado por
Xt + 0.2Xt1 0.15Xt2 = t + 0.3t1 0.1t2 .
Los polinomios asociados a la parte autorregresiva y de promedios mviles sern entonces
(z) = 1+ 0.2z 0.15z 2 y (z) = 1+ 0.3z 0.1z 2 respectivamente. En esta seccin nos interesar
solamente el polinomio (z).
Al utilizar la frmula general para obtener las races del polinomio (z) llegamos a z1 = 2
10 10
y z1 = 3 , ambas de multiplicidad 1, por lo que 1 = 2, 2 = 3 , r1 = r2 = 1 y l = 2 (nmero
10
de races distintas). Adems, las races z1 = 2 y z1 = 3 se encuentran ambas fuera del crculo
unitario por lo que el proceso {Xt } es causal y podemos encontrar los pesos {j } asociados. Las
ecuaciones que queremos resolver ahora son:
j
X
j k jk = j 1 j < max{2, 2 + 1} = 3
k=1
X2
j k jk = 0 j max{2, 3} = 3
k=1
i 1
l rX
X
j = cin j n (i )j
i=1 n=0
rX1 1 2 1
rX
j
= n
c1n j (1 ) + c2n j n (2 )j
n=0 n=0
j j
1 3
= c10 + c20
2 10
1 = c10 + c20
1 3
0.1 = c10 + c20
2 10
1 9
0.29 = c10 + c20
4 100
1 3
Tomando las dos primeras ecuaciones obtenemos c10 = 4
y c20 = 4
. Por lo tanto la sucesin
de pesos puede escribirse como:
j j
1 1 3 3
j = +
4 2 4 10
120 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
X
Xt = j tj
j=0
( j )
j
X 1 1 3 3
= + tj
j=0
4 2 4 10
1 13
= t + t1 + t2 + . . .
10 100
Ejemplo 3.5.10 Demostrar que en general, para un proceso AR(2), las condiciones necesarias
para que sea causal y estacionario son 2 < 1 < 2 y 1 < 2 < 1.
2
El polinomio asociado al proceso Yt 1 Yt1 2 Yt2 = t es (z) = 2 z 1 z + 1.
(z)
2 2
Resolvemos la ecuacin 2 z 1 z + 1 = 0 2 z + 1 z 1 = 0. A partir de aqu, y usando
la frmula general, podemos obtener las races z1 y z2 , a saber:
p
1 + 21 + 42
z1 =
22
p
1 21 + 42
z2 =
22
1 1 2
Ahora bien, a partir de 2 z
+ z
=0 obtenemos:
p
1 1 + 21 + 42
=
z1 2
p
1 1 21 + 42
=
z2 2
1 1
Para que el proceso {Yt } sea causal |z1 | > 1 y |z2 | > 1 o bien, z1 < 1 y z2 < 1, as que
1 1
z1 z2 < 1, pero:
p ! p !
1 1 1 + 21 + 42 1 21 + 42
z1 z2 = = | 2 | = |2 |
2 2
p ! p !
1 1 1 + 21 + 42 1 21 + 42
+ = + = |1 |
z1 z2 2 2
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 121
Adems:
1
+ 11+1<1+1=2
z1 z2 z1 z2
3.5.2. Invertibilidad
Ejemplo 3.5.11 En la Seccin 3.3 estudiamos a los procesos MA(q). En particular, notemos
que para dos modelos con parmetros (2 = 4, = 12 ) y (2 = 1, = 2) respectivamente, la
sucesin de autocovarianzas terica para ambos es la misma, a saber:
5 si =0
( ) = 2 si | | = 1
0 si | | > 1
1
Xt = t + t1 , t N IID(0, 4)
2
Yt = t + 2t1 , t N IID(0, 1)
son los mismos debido a la normalidad en las sucesiones {t } y {t }. Para demostrar lo
anterior, calculemos las varianzas de ambos procesos y veamos que son las mismas. Para el
proceso {Xt } tenemos:
= 5 (ya que 2 = 4)
Nosotros podemos observar las series de tiempo {Xt } y {Yt } pero no las secuencias {t } y
{t }, de tal forma que no podemos distinguir entre ambos modelos.
122 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
De la misma forma que expresamos un proceso {Xt } como combinacin lineal del proceso
{t }, es decir, como un proceso de promedios mviles con innitos trminos, expresaremos al
proceso {t } como un proceso autorregresivo con innitos trminos. Dicho proceso se conoce
como proceso invertible. De los dos modelos MA(1), escogeremos aquel que sea invertible. Sea un
modelo MA(1) dado por Xt = t +1 t1 . Podemos escribir dicho proceso como t = 1 t1 +Xt
y realizar un procedimiento similar al hecho en la ec. 3.5.4 para obtener:
t = 1 t1 + Xt
= 1 (1 t2 + Xt1 ) + Xt
= 12 t2 1 Xt1 + Xt
= 12 (1 t3 + Xt2 ) 1 Xt1 + Xt (3.5.18)
la cual es la representacin del proceso {t } como un proceso autorregresivo con innitos
trminos. Para invertibilidad utilizaremos la condicin:
X
|j | < (3.5.19)
j=
Denicin 3.5.3 Un proceso {Xt } ARMA(p,q) denido por la ec. 3.5.1 es invertible si existe
una sucesin de pesos {j } que cumplen la ec. 3.5.19 y el proceso {t } puede escribirse como:
X
t = j Xtj . (3.5.20)
j=0
Teorema 3.5.2 Sea {Xt } un proceso ARMA(p,q) para el cual los polinomios () y () no
tienen ceros en comn. Entonces {Xt } es invertible si y slo s (z) 6= 0 z C tal que |z| 1.
Los coecientes {j } en la ec. 3.5.20 quedan determinados por la relacin:
X (z)
(z) = j Z j = ; con |z| 1 (3.5.21)
j=0
(z)
j j
X X
cj = k jk = 0 j + k jk (3.5.22)
k=0 k=1
j
X
j + k jk = j 1 j < max{q, p + 1} (3.5.23)
k=1
q
X
j + k jk = 0 j max{q, p + 1} (3.5.24)
k=1
As que se obtienen condiciones iniciales 0 = 0 = 1 y con las ecs. en 3.5.23 y las con-
diciones iniciales, se resuelven las ecs. en 3.5.24 usando la misma tcnica que para causalidad
solo que todo en trminos de (z). Veremos a continuacin un ejemplo.
Ejemplo 3.5.12 Encontrar expresiones para {j } en un proceso ARMA(p,q) dado por la expre-
1
sin Xt = X
2 t1
+ t + 25 t1 .
1 2
Antes que nada, el proceso es equivalente a Xt 2 Xt1 = t + 5 t1 . Observemos que 0 = 1,
1 2
1 = 2 , 0 = 1, 1 = 5 , p = 1, q = 1, de donde max{q, p + 1} = max{1, 1 + 1} = 2. Adems
0 = 1, por tanto la ec. 3.5.23
es para 1 j < 2, es decir:
1
X
1 + k 1k = 1
k=1
1 = 12 2
5
9
= 10 .
1
X
j = k jk = 1 j1
k=1
5
El polinomio asociado a (z) es 1 + 52 z , su raz es z = 52 , que satisface > 1,
2
de tal
forma que la raz se encuentra fuera del crculo unitario y por tanto, el proceso es invertible.
1
Adems, la raz de (z) = 1 2 z es 2, por lo cual, los polinomios no tienen ceros en comn.
124 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
i 1
l rX
X
j = cin j n (i )j
i=1 n=0
1 X
X 11
= cin j n (i )j
i=1 n=0
j
5
= c10
2
0
5
1 = c10 de donde c10 = 1
2
1
9 5 45
= c10 de donde c10 =
10 2 20
Tenemos por tanto, 2 valores de c10 , cul usamos? Se usan las condiciones para j con la
j ms grande.
j
45 5
j = y el proceso {t } se puede escribir como:
20 2
j
X 45 5
t = Xtj
j=0
20 2
El obtener la expresin dada por la ec. 3.5.7 obtenida para un proceso causal puede ser
til para obtener la media E(Xt ) y Cov(Xt , Xt+ ) asociados.
Proposicin 3.5.2 El proceso de promedios mviles con innitos trminos, MA(), dado por
la ec. 3.5.7, es estacionario con media 0 y sucesin de autocovarianzas terica:
X
X ( ) = 2 j j+| | (3.5.25)
j=0
!
X X
E(Xt ) = E j tj = j E(tj ) = 0
j=0 j=0
ya que el proceso {t } W N (0, 2 ) y adems se cumple la condicin dada por la ec. 3.5.6
para los pesos {j }.
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 125
Ejemplo 3.5.13 En el proceso causal Xt = Xt1 41 Xt2 + t + t1 visto en el Ejemplo 3.5.8,
obtuvimos los coecientes j = (1 + 3j)2j . Segn la proposicin 3.5.2, E(Xt ) = 0 pero
tambin:
X
X ( ) = 2 (1 + 3j)2j (1 + 3(j + | |))2(j+| |)
j=0
X
= 2 (1 + 3j)(1 + 3j + 3| |)22j| |
j=0
X
= 2 2| | (3| | + 1) + (3| | + 1)3j + 3j + 9j 2 4j
j=0
X
= 2 2| | (3| | + 1)4j + 3j(3| | + 2)4j + 9j 2 4j
j=0
(
)
X X X
= 2 2| | (3| | + 1) 4j + 3(3| | + 2) j4j + 9 j 2 4j
j=0 j=0 j=0
1 3 x x
3
1 4
1 4
X 1 3 3X 1
Sea X Geom 4
con 3 = 3 = 3 = E(x) = x = x
4 4 x=0
4 4 4 x=0 4
x
X 1 4
x =
x=0
4 9
3
Realizamos un procedimiento similar para V ar(X) = E(X 2 ) E2 (X) con X Geom 4
x
X 1
2 20
x =
x=0
4 27
Regresando a la expresin vista, obtenemos la sucesin de autocovarianzas:
4 12 20
X ( ) = 2 2| |
(3| | + 1) + (3| | + 2) + 9
3 9 27
4 8 20
= 2 2| | 4| | + + 4| | + +
3 3 3
2 | |
2
= {24| | + 32}
3
Proposicin 3.5.3 Sea {Xt } un proceso ARMA(p,q) causal. Demostrar que se cumple la si-
guiente relacin:
X
|X ( )| < (3.5.26)
=
Demostracin
Al ser {Xt } un proceso ARMA(p,q) causal, podemos hacer uso de la Proposicin 3.5.1
para de este modo obtener la sucesin de autocovarianzas terica:
X
X
X ( ) = j k ( j + k)
j= k=
X
= 2 k k+| |
k=0
ya que
2
si j+k =0
( j + k) =
0 si j + k 6= 0
X
|X ( )| |k ||k+| | |
k=0
X
( )
X XX X X X
|X ( )| |k ||k+| | | = |k ||k+| | | = |k | |k+| | |
k=0 k=0 k=0
X 0
X
X
|k+| | | |k | + |k+ |
= = =0
X
X
= |l | + |l |
l=k l=k
X
X
|l | + |l | (3.5.27)
l=0 l=0
X
= 2 |l |
l=0
= 2c <
X
ya que c= |l | < al ser {Xt } un proceso causal.
l=0
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 127
( )
X X X X X
|X ( )| |k | |k+| | | 2c |k | < ya que |k | < de acuerdo
k=0 k=0 k=0
con la ec. 3.5.6.
X
|X ( )| < y entonces |X ( )| 0, que es lo que queramos demostrar.
=
Hasta aqu hemos trabajado con el marco terico de series de tiempo, calculando, por ejem-
plo, las sucesiones de autocovarianzas y autocorrelaciones tericas de modelos autorregresivos
(AR(1),AR(2) y AR(p)), de promedios mviles (MA(1),MA(2) y MA(q)) y combinaciones de
los anteriores (ARMA(p,q)). En la prctica, para identicar un proceso {Xt }, debemos estimar
de unos datos todas las propiedades estadsticas estudiadas en la secciones anteriores.
n
n = 1
X
X Xi (3.5.28)
n i=1
n )2 = V ar(X
E(X n)
n
!
1X
= V ar Xi
n i=1
n n
1 XX
= Cov(Xt , Xs ) (3.5.29)
n2 t=1 s=1
n
1 X
= (n |t s|)X (t s)
n2 ts=n
n
1 X | |
= 1 X ( )
n =n n
n 2
1 X | | X
V ar(Xn ) = 1 X ( ) =
n =n n n
V ar(X n )2 ] n
n ) = E[(X 0 (3.5.30)
siempre que X ( ) 0. Adems:
X
n )2 ]
nE[(X X ( ) (3.5.31)
=
Demostracin
n n
n) = 1
XX
nV ar(X Cov(Xt , Xs )
n t=1 s=1
X | |
= 1 X ( )
n
| |<n
X
|X ( )|
| |<n
1 X
lm |X ( )| = 2 lm |X (n)| = 0
n n n
| |<n
En palabras, lo que hemos hecho primero es ver que n ) est acotada por el promedio
V ar(X
de |X ( )|. Luego observamos que cuando n tiende a innito este promedio converge a cero.
As que la varianza, la cual es no negativa cuando n tiende innito, est acotada por algo que
tiende a cero as que necesariamente debe tender a cero dicha varianza. Si adems se cumple
la ec. 3.5.26 entonces, utilizando el teorema de convergencia dominada obtenemos:
X
n ) = lm | | X
lm nV ar(X 1 X ( ) = X ( )
n n n =
| |<n
El Teorema 3.5.3 nos asegura que el ECM (X n ) se hace cada vez ms chico, as que X n
es un estimador insesgado cuyo error cuadrtico medio disminuye al aumentar n, es decir, si
n
X (n) 0 conforme n , entonces X converge en media cuadrtica a . Adems, si la ec.
3.5.26 se cumple entonces:
1 X
V ar(Xn ) X ( )
n =
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 129
!
n N 1 X
X , X ( )
n =
Es claro que para obtener un modelo ARMA(p,q) apropiado a partir de unos datos, no
podemos utilizar la sucesin de autocorrelaciones terica (ACF) ni la sucesin de autocovarian-
zas terica, por lo que debemos utilizar estimaciones. La estimacin de X ( ) y X ( ) se logra
usando la sucesin de autocovarianzas muestrales y la sucesin de autocorrelaciones muestrales
(ACF). Como comentario, debemos decir que para que los estimadores correspondientes a am-
bas sucesiones funcionen, el tamao de la muestra, n, debe ser mayor o igual a 50. Para n < 50
los estimadores de X ( ) y X ( ) se vuelven poco conables al explicar las propiedades de un
proceso {Xt }.
La sucesin de autocovarianzas muestrales est dada por:
n
1X n Xt+ X
n
Xt X si 0 n1
n t=1
X ( ) =
X ( ) si n < 0
X ( )
X ( ) = (3.5.32)
X (0)
Cov(X1 , X1 ) Cov(X1 , X2 ) Cov(X1 , Xn ) 0 1 n1
Cov(X2 , X1 )
Cov(X2 , X2 ) Cov(X2 , Xn )
1 0 n2
n =
Cov(X3 , X1 ) Cov(X3 , X2 ) Cov(X3 , Xn ) = 2
1 n3
. . . . . . .. .
. . .. . .. . .
. . . . . .
Cov(Xn , X1 ) Cov(Xn , X2 ) Cov(Xn , Xn ) (n1) (n2) 0
0 1 n1
1 0 n2
n =
2 1 n3
. . .. .
. . .
. . . .
n1 n2 0
130 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
1 1 n1
1 1 n2
n =
2 1 n3
. . .. .
. . .
. . . .
n1 n2 1
Recordemos que para modelos MA(q) vistos en la Seccin 3.3.3 la sucesin de autocorre-
laciones terica (ACF) es cero para | | > q . La sucesin de autocorrelaciones terica (ACF)
nos brinda gran informacin acerca del grado q de los procesos de promedios mviles. Por lo
anterior, para ver si unos datos tienen un proceso MA(q) debemos ver si las autocorrelaciones
satisfacen ser casi cero para >q y distintas de cero para q.
Debemos recalcar que la sucesin de autocorrelaciones terica (ACF) solamente funciona
para identicar modelos MA(q). Si el proceso es AR(p) o ARMA(p,q) debemos encontrar una
funcin que se comporte de manera similar a la sucesin de autocorrelaciones terica (ACF), a
saber, la sucesin de autocorrelaciones parciales (PACF).
1.0 ACF muestral de un proceso MA(1) con 1 = + 0.7 ACF muestral de un proceso MA(1) con 1 = 0.7
0.5
ACF
ACF
0.4
0.2
0.5
0 10 20 30 40 0 10 20 30 40
Lag Lag
ACF muestral de un proceso AR(1) con 1 = + 0.7 ACF muestral de un proceso AR(1) con 1 = 0.7
1.0
0.5
ACF
ACF
0.4
0.5
0.2
0 10 20 30 40 0 10 20 30 40
Lag Lag
ACF muestral de un AR(2) 1 = + 0.7 y 2 = 0.3 ACF muestral de un MA(2) 1 = + 0.3 y 2 = 0.9
1.0
0.8
ACF
ACF
0.4
0.2
0.4
0.2
0 10 20 30 40 0 10 20 30 40
Lag Lag
ACF muestral de un ARMA(1, 1) 1 = + 0.8 y 1 = + 0.3 ACF muestral de un ARMA(1, 1) 1 = 0.8 y 1 = 0.3
1.0
0.5
ACF
ACF
0.4
0.5
0.2
0 10 20 30 40 0 10 20 30 40
Lag Lag
Figura 3.5.4: Figura que representa las ACF muestrales de varios procesos simulados
> acf(arima.sim(list(order=c(0,0,1),ma=.7),n=200),lag.max=40,
main=(expression(ACF~muestral~de~un~proceso~MA(1)~con~theta[1]==+.7)))
> acf(arima.sim(list(order=c(0,0,1),ma=-.7),n=200),lag.max=40,
main=(expression(ACF~muestral~de~un~proceso~MA(1)~con~theta[1]==-.7)))
> acf(arima.sim(list(order=c(1,0,0),ar=.7),n=150),lag.max=40,
main=(expression(ACF~muestral~de~un~proceso~AR(1)~con~phi[1]==+.7)))
> acf(arima.sim(list(order=c(1,0,0),ar=-.7),n=150),lag.max=40,
main=(expression(ACF~muestral~de~un~proceso~AR(1)~con~phi[1]==-.7)))
> acf(arima.sim(list(order=c(0,0,2),ma=c(0.3,-0.9)),n=250),lag.max=40,
main=(expression(ACF~muestral~de~un~MA(2)~theta[1]==+.3~y~theta[2]==-.9)))
> acf(arima.sim(list(order=c(2,0,0),ar=c(0.7,-0.3)),n=250),lag.max=40,
main=(expression(ACF~muestral~de~un~AR(2)~phi[1]==+.7~y~phi[2]==-.3)))
132 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
> acf(arima.sim(list(order=c(1,0,1),ar=-0.8,ma=-0.3),n=100),lag.max=40,
main=(expression(ACF~muestral~de~un~ARMA(1,1)~phi[1]==-.8~y~theta[1]==-.3)))
> acf(arima.sim(list(order=c(1,0,1),ar=0.8,ma=0.3),n=100),lag.max=40,
main=(expression(ACF~muestral~de~un~ARMA(1,1)~phi[1]==+.8~y~theta[1]==+.3)))
Ahora bien, para seleccionar un modelo ARMA(p,q) apropiado a partir de unos datos,
debemos tener la capacidad de reconocer cuando ciertas autocorrelaciones son distintas de 0.
Para lograr esta meta debemos conocer la distribucin asinttica conjunta de {
1 , 2 , . . . , }
conforme n .
X
Xt = j tj (3.5.35)
j=
donde {t } IID(0, 2 ), se cumple la ec. 3.5.6 y E(4t ) < , entonces para cada :
1
n ( ) N X ( ), W (3.5.36)
n
X
wij = {k+i k+j + ki k+j + 2i j 2k 2i k k+j 2j k k+i } (3.5.37)
k=
X
wij = {k+i + ki 2k i } {k+j + kj 2k j } (3.5.38)
k=1
Ejemplo 3.5.15 Si
2
{Xt } IID(0, X ) entonces l = 0 |l| 1 y 0 = 1, as que en la
expresin wij solo permanecen los trminos en los cuales k = i = j , de tal forma que:
1 si i=j
wij =
0 si i 6= j
conforme n .
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 133
Z1 2 Z1 2
j , j + (3.5.39)
n n
con Z1 el cuantil de una distribucin Normal estndar que acumula una probabilidad de
2
1 2 . Para la prueba de hiptesis H0 : j = 0 vs H1 : j 6= 0 para j = 1, 2, . . . , , se rechaza
H0 si el cero no est dentro del intervalo de conanza, es decir, si:
Z1 Z1
j < 2 o bien j > 2
n n
i N i , wnii
Ahora bien, si {Xt } no fuese ruido blanco, y el intervalo de conanza para
i al 100(1 ) % para n sucientemente grande ser:
r r
wii wii
i Z1 2 , i + Z1 2 (3.5.40)
n n
r r
wii wii
i < Z1 2 o bien i > Z1 2
n n
Observemos que en este caso, para cada i tendramos una banda de conanza distinta. Se
puede ver que, en general, la banda de conanza para el ruido blanco es ms chica que las bandas
para modelos MA(q), por eso en la prctica se usa la banda del ruido blanco aunque el proceso
{Xt } no lo sea, para as decidir cundo se rechaza la hiptesis H0 : i = 0 vs H1 : i 6= 0. Si
se rechaza H0 : = 0 para = 1, 2, . . . , q y no se rechaza H0 : = 0 para > q entonces
hablamos de un modelo MA(q), ya que en ste, las autocorrelaciones a partir de q deben ser
cero; desde el punto de vista de las bandas de conanza, esto signica que las se salen de las
bandas de conanza hasta q y a partir de all quedan dentro.
Se dene la autocorrelacin parcial entre dos variables X e Y dada una variable Z como:
xy xz yz
xy,z = p p (3.5.41)
1 2xz 1 2yz
Ejemplo 3.5.16
Para un modelo AR(1) estacionario Xt = 1 Xt1 + t , ya habamos obtenido
= . La autocorrelacin parcial entre Xt y Xt2 es:
21 21
= p p =0
1 21 1 21
Ejemplo 3.5.17 Las ecuaciones de Yule-Walker dadas por la ec. 3.4.18 para un modelo AR(2)
denido por Xt = 1 Xt1 + 2 Xt2 + t son:
1 = 1 + 2 1
2 = 1 1 + 2
Para construir la sucesin de autocorrelaciones parciales (PACF) para series de tiempo esta-
cionarias con media 0, sea t+
X {Xt+ 1 , Xt+ 2 , Xt+ 3 , . . . , Xt+1 }
aquella combinacin lineal de
que minimiza el error cuadrtico medio E[(Xt+ 1 Xt+1 2 Xt+2 . . . 1 Xt+ 1 )2 ]. Po-
demos escribir a t+
X como:
Es decir, t+
X representa la regresin de {Xt+ 1 , Xt+ 2 , Xt+ 3 , . . . , Xt+1 }.
Xt+ sobre
Dicha regresin no posee intercepto ya que la esperanza del proceso {Xt } es 0. Podemos simi-
larmente denotar a Xt como Xt = 1 Xt+1 + 2 Xt+2 + . . . + 1 Xt+ 1 . Ya que el proceso es
t+ y para X
estacionario entonces los coecientes {1 , 2 , . . . , 1 } para X t son los mismos.
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 135
11 = Corr(Xt+1 , Xt ) (3.5.42)
para =1 y
t+ , Xt X
= Corr(Xt+ X t ) (3.5.43)
Ejemplo 3.5.18 Tomemos un proceso AR(1) dado por Xt = 1 Xt1 + t , recordando claro que
|1 | < 1. De acuerdo con la Denicin 3.5.4, 11 = Corr(Xt+1 , Xt ) = 1 = 1 . Para calcular
22 consideremos X t+2 = 1 Xt+1 y X
t = 1 Xt+1 . Vamos a escoger aquella 1 que minimice
2
tanto E[(Xt+2 Xt+2 ) ] como E[(Xt X t )2 ], es decir:
t+2 )2 ] =
E[(Xt+2 X E[(Xt+2 1 Xt+1 )2 ]
= (0) 21 (1) + 12 (0)
E[(Xt Xt) ] =
2
E[(Xt 1 Xt+1 )2 ]
= (0) 21 (1) + 12 (0)
Observamos que obtenemos la misma ecuacin para minimizar 1 . Por tanto, derivando
con respecto a 1 e igualando a cero obtenemos 1 = (0)
(1)
= 1 = 1 . Por tanto 22 la podemos
calcular como:
22 = Corr(Xt+2 X t+2 , Xt X
t )
= Corr(Xt+2 1 Xt+1 , Xt 1 Xt+1 )
= Corr(Xt+2 1 Xt+1 , Xt 1 Xt+1 )
= Corr(t+2 , Xt 1 Xt+1 )
= 0
Seccin 3.4.3 estudiamos a los procesos AR(p). De dicha seccin nos interesa recordar
En la
las ecuaciones de Yule-Walker, dadas por la ec. 3.4.18.
136 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Hemos visto cmo surgen dichas ecuaciones, pero ahora, con un mayor conocimiento de los
temas que involucran al anlisis de series de tiempo, nos gustara profundizar un poco ms
para ver de dnde surge la idea de las ecuaciones de Yule-Walker y as, comprender la teora
2
necesaria para estimar al conjunto {1 , 2 , . . . , p , }.
Sea {Xt } un proceso ARMA(p,q) causal. El proceso puede escribirse de acuerdo con la ec.
3.5.7, es decir, en trminos de una serie de pesos {j } y la secuencia de ruido blanco {t }. Al
aplicar el operador esperanza es claro que el proceso {Xt } tiene media 0. Adems, la sucesin
de autocovarianzas terica del proceso puede describirse como:
X
X ( ) = 2 j j+
j=0
gracias a la Proposicin 3.5.1, ya que estamos construyendo una nueva serie a partir de
la secuencia {t }. Observamos que nuestra siguiente meta ser la de obtener la serie de pesos
{j }. Nuestra pregunta inmediata ser cmo obtener dicha serie de pesos? Nuestra primera
opcin sera utilizar la ec. 3.5.15 y la ec. 3.5.16 pero tambin podramos obtener la serie de
pesos {j } resolviendo directamente la sucesin de autocovarianzas terica del proceso asociado.
Utilizando el hecho de que 0:
!
X
Cov(t+ j , Xt ) = Cov t+ j , k tk
k=0
= 2 j
p q
!
X X
Cov(Xt+ , Xt ) = Cov j Xt+ j + j t+ j , Xt
j=1 j=0
p q
X X
= j X ( j) + 2 j j
j=1 j=0
X ( ) 1 X ( 1) . . . p X ( p) = 0 (3.5.44)
p q
X X
X ( ) j X ( j) = 2 j j 0 < max(p, q + 1) (3.5.45)
j=1 j=0
=p X (p) = 1 X (p 1) + 2 X (p 2) + . . . + p X (0)
2 = X (0) 0 p y p = p (3.5.46)
donde
= (1 , 2 , . . . , p )0
p = [X (i j)]pi,j=1
p = (1 , 2 , . . . , p )0
1
2 = X (0) p0
p p y =
1
p p (3.5.47)
o en trminos de autocorrelaciones:
1 p ]
2 = X (0)[1 0p R y =R
1 p (3.5.48)
p p
donde
p = [X (i j)]p
R i,j=1
1 , 2 , . . . , p )0
p = (
Ejemplo 3.5.19 El nmero de manchas solares durante 100 periodos fue medido, obteniendo un
proceso {Xt }. Las autocovarianzas muestrales obtenidas a partir de los datos son 0 = 1382.2,
1 = 1114.4 y 2 = 591.72.
138 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
2 = 0 1 1 2 2
1 = 1 0 + 2 1
2 = 1 1 + 2 0
es decir:
2 = 0.634451149
1 = 0.80625 0.80625(0.6344511) = 1.317976239
2 = 1382.2 (1.317976239)(1114.4) + (0.6344511488)(591.72) = 288.8647126
2
El polinomio asociado al proceso {Yt } es (z) = 0.634451148z 1.317976239z + 1 = 0.
Aplicando la frmula general obtenemos las races del polinomio autorregresivo dadas por:
p
1.317976239 (1.317976239)2 4(0.6344511488)(1)
z =
2(0.6344511488)
cuya norma:
p
|z| = (1.038674)2 + (0.7053162213)2
p
= 1.57631465
= 1.2555 >1
Nos queda por demostrar la distribucin de los estimadores de Yule-Walker cuando el tamao
de la muestra es grande. Se demostrar que dicha distribucin es Normal y adems el estimador
2 se acerca a su valor real 2 . Antes de enunciar el teorema donde obtenemos la distribucin
Denicin 3.5.5 El mejor predictor lineal (BLP) de Xn+ en trminos del conjunto de obser-
vaciones {X1 , X2 , . . . , Xn }, se dene como:
Pn Xn+ := a0 + a1 Xn + . . . + an X1 (3.5.49)
que es la combinacin lineal que mejor aproxima a Xn+ , minimizando el error cuadrtico
medio.
Dicho predictor lineal es la proyeccin de Xn+ en el plano generado por la combinacin lineal
de los trminos {X0 , X1 , X2 , . . . , Xn }. Pero, cmo obtenemos los coecientes {a0 , a1 , . . . , an }?
Para encontrar Pn Xn+ tenemos que minimizar la funcin:
S(a0 , a1 , . . . , an )
= 0 j = 0, 1, 2, . . . , n (3.5.51)
aj
S(a0 , a1 , . . . , an )
= E[(Xn+ Pn Xn+ )2 ]
a0 a0
2
= E (Xn+ Pn Xn+ ) (3.5.52)
a0
= 2E[(Xn+ a0 a1 Xn . . . an X1 )]
E[(Xn+ a0 a1 Xn . . . an X1 )] = 0 (3.5.53)
S(a0 , a1 , . . . , an )
= E[(Xn+ Pn Xn+ )2 ]
aj aj
2
= E (Xn+ Pn Xn+ ) (3.5.54)
aj
= 2E[(Xn+ a0 a1 Xn . . . an X1 )Xnj+1 ]
140 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
n
X
E(Xn+ ) = a0 + ai E(Xni+1 ) (3.5.56)
i=1
n
!
X
a0 = 1 ai (3.5.57)
i=1
n
X
E(Xnj+1 Xn+ ) = a0 E(Xnj+1 ) + ai E(Xnj+1 Xni+1 ) (3.5.58)
i=1
o bien:
n
X
X ( + j 1) = a0 + ai X (i j) (3.5.59)
i=1
n an = n ( ) (3.5.60)
donde
an = (a1 , . . . , an )0
n = [X (i j)]ni,j=1
n ( ) = [X ( ), X ( + 1), . . . , X ( + n 1)]0
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 141
n
X
Pn Xn+ = + ai (Xni+1 ) (3.5.61)
i=1
an tal que resuelve la ec. 3.5.60. Notemos que el valor esperado del error de prediccin,
con
E(Xn+ Pn Xn+ ), es cero ya que:
n
X
E(Xn+ Pn Xn+ ) = E(Xn+ ) ai E(Xni+1 ) = 0 (3.5.62)
i=1
= X (0) n0 ( )1
n n ( )
n
X
X (k) = ni X (k i) (3.5.65)
i=1
n n = n (1) (3.5.66)
donde
n = (n1 , n2 , . . . , nn )0
n = [X (k i)]nk,i=1
n (1) = [X (1), X (2), . . . , X (n)]0
142 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
n = 1
n n (1) (3.5.67)
El error cuadrtico medio de la prediccin, caso particular de la ec. 3.5.64 para = 1, est
dado por:
= X (0) 2n0 1 0 1 1
n n + n n n n n
= X (0) n0 1
n n
con X = (X1 , X2 , . . . , Xn )0 .
Ejemplo 3.5.20 Consideremos la serie estacionaria AR(1) dada por Xt = Xt1 + t (es decir,
= 0), donde t Z, || < 1 y {t } W N (0, 2 ). De lo visto anteriormente, el mejor predictor
lineal a un paso de Xn+1 en trminos de {1, X1 , X2 , . . . , Xn } est dado por:
Pn Xn+1 = n1 Xn + n2 Xn1 + . . . + nn X1
X (0) X (1) . . . X (n 1) n1
X (2) X (1)
X (1) X (0) . . . X (n 2)
X (1) n2
X (2)
X (2) X (1) . . . X (n 3)
X (0) n3 = X (3)
.. .. .. .. . .
.. ..
. . . .
X (n 1) X (n 2) X (n 3) . . . X (0) nn X (n)
1 2 . . . n1 n1
n2 2
1 . . . n2
2 1 . . . n3 3
n3 =
.. .. .. .. .. ..
. . . . . .
n1 n2 n3
... 1 nn n
P2 X2+1 = 21 X2 + 22 X1
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 143
1
21 1
=
22 1 2
pero claramente:
1
1 1 1
=
1 2 1 2 1 2
1 3
=
1 2 2 2
=
0
As pues, para n 2, se puede demostrar que una solucin al sistema dado por la ec.
3.5.67 es n = (, . . . , 0)0 . Entonces el mejor predictor lineal a un paso para Xn+1 en trminos
de {1, X1 , X2 , . . . , Xn } est dado por:
Pn Xn+1 = Xn
Recordemos que la varianza para un modelo AR(1) est dada por la ec. 3.4.5 mientras que
la sucesin de autocovarianzas terica viene dada por la ec. 3.4.6, por lo que el error cuadrtico
medio est dado por:
Ejemplo 3.5.21 Supongamos que tenemos un modelo AR(2) dado por Xt = 1 Xt1 +2 Xt2 +t
y dos observaciones, X1 y X2 . Entonces el mejor predictor lineal a un paso para X3 est dado
por:
P2 X2+1 = 21 X2 + 22 X1
1
21 (0) (1) (1)
=
22 (1) (0) (2)
144 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Adems:
1
(0) (1) (1) 1 (0)(1) (1)(2)
= 2
(1) (0) (2) (0) 2 (1) (0)(2) 2 (1)
Utilizando las ecuaciones de Yule-Walker para un modelo AR(2), es decir aquellas dadas
por la ec. 3.4.17, obtenemos que:
1 (0)
(1) =
1 2
(2) = 2 (0) + 1 (1)
2 (0)
2 (0) 2 (1) = 1 22 + 22 21
(1 2 )2
2 (0)1
1 22 + 22 21
(0)(1) (1)(2) =
(1 2 )2
2 (0)2
(0)(2) 2 (1) = 1 22 + 22 21
(1 2 )2
por lo que:
21 1
=
22 2
As pues el mejor predictor lineal a un paso para X3 dadas dos observaciones, X1 y X2 , est
dado por P 2 X 3 = 1 X 2 + 2 X 1 . De hecho, se puede comprobar que para n 2:
Pn Xn+1 = 1 Xn + 2 Xn1
donde n1 = 1 , n2 = 2 y nj = 0 para j = 3, 4, . . . , n.
Como comentario nal, si nosotros quisiramos calcular el mejor predictor lineal a pasos,
1 y = 0, utilizando al conjunto {n1 , n2 , n3 , . . . , nn }, entonces, dado el conjunto de
observaciones {X1 , X2 , . . . , Xn }, dicho predictor ser:
Pn Xn+1 = m m m
n1 Xn + n2 Xn1 + . . . + nn X1 (3.5.69)
donde el conjunto {m m m m
n1 , n2 , n3 , . . . , nn } satisface las ecuaciones de prediccin:
n
X
X ( + k 1) = m
ni X (k i) (3.5.70)
i=1
para k = 1, 2, . . . , n.
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 145
n m
n = nm (1) (3.5.71)
donde
m 0
mn = (m m
n1 , n2 , . . . , nn )
n = [X (k i)]nk,i=1
nm (1) = [X (m), X (m + 1), . . . , X (m + n 1)]0
El procedimiento anterior no resulta ser tan sencillo para los modelos ARMA(p,q) ya que
involucra el uso de matrices de gran tamao. Para evitar lo anterior existen soluciones iterativas
que no necesitan el clculo de matrices y sus respectivas inversas. Uno de ellos es el algoritmo
de Durbin-Levinson, que enunciamos a continuacin.
n1
X
(n) n1,k (n k)
k=1
nn = n1
(3.5.73)
X
1 n1,k (k)
k=1
n
Pn+1 = Pnn1 (1 2nn ) (3.5.74)
donde para n2
para k = 1, 2, . . . , n 1.
(1) = 1 + (1)2
(2) = 1 (1) + 2
1
11 = (1) =
1 2
h i h i2
21 1
(2) (1)2 12
+ 2 12
22 = = i2 = 2
1 (1)2
h
1
1 1 2
21 = 11 22 11 = (1)[1 2 ] = 1
32 = 22 33 21 = 2
31 = 21 33 22 = (1)[1 2 ] = 1
k
X
k+1 =
X kj Xk+1j (3.5.76)
j=1
que aproxime lo mejor posible a Xk+1 en el sentido de que la distancia k+1 k2
kXk+1 X
sea mnima. Dicha distancia est denida como:
" k
#
X
k+1 k2 = E |Xk+1
kXk+1 X kj Xk+1j |2 (3.5.77)
j=1
Buscamos una combinacin lineal cuya distancia hacia Xk+1 sea mnima. Sea
k
X
= j Xk+1j =< X1 , X2 , . . . , Xk >
j=1
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 147
k
X
i = 1, 2, . . . , k 0 = < Xk+1 kj Xk+1j , Xi >
j=1
k
X
i = 1, 2, . . . , k < Xk+1 , Xi > = < kj Xk+1j , Xi >
j=1
k
X
i = 1, 2, . . . , k < Xk+1 , Xi > = kj < Xk+1j , Xi >
j=1
k
X
i = 1, 2, . . . , k Cov(Xk+1 , Xi ) = kj Cov(Xk+1j , Xi )
j=1
o en trminos de autocorrelaciones:
i=1 X (k) = k1 X (k 1) + k2 X (k 2) + . . . + kk
148 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Observe que:
k+1 = Xk+1 P
Xk+1 X <X1 ,X2 ,...,Xk > (Xk+1 ) (3.5.78)
Xk+1 P<X2 ,X3 ,...,Xk > (Xk+1 ) y X1 P<X2 ,X3 ,...,Xk > (X1 )
Ahora bien, considerando de la ec. 3.5.43 a + t = k (esto puede hacerse debido a que el
proceso es estacionario), tenemos:
P ACF (k) = Corr(Xk+1 P<X2 ,X3 ,...,Xk > (Xk+1 ), X1 P<X2 ,X3 ,...,Xk > (X1 ))
Esta correlacin es justamente el trmino kk , de aqu que podemos estimar a P ACF (k)
como ACF (k) = kk .
P\ La proposicin que asegura lo anterior la enunciamos a continuacin.
La demostracin la podemos encontrar en Brockwell y Davis (1991).
Proposicin 3.5.5 Si {Xt } es un proceso estacionario con media cero y sucesin de autoco-
varianzas X ( ) tal que X (0) > 0 y X ( ) 0 si , entonces:
kk = Corr(Xk+1 P<X2 ,X3 ,...,Xk > (Xk+1 ), X1 P<X2 ,X3 ,...,Xk > (X1 )) (3.5.79)
En particular aplica a los procesos ARMA(p,q) causales ya que son estacionarios, tienen
media cero y X ( ) 0.
Hasta aqu termina el subtema de pronsticos. Regresemos a la obtencin de la distribucin
de los estimadores Yule-Walker. Para modelos AR(p), si el tamao de la muestra es signicati-
vamente grande entonces los estimadores Yule-Walker tiene una distribucin aproximadamente
2 es muy cercano al valor real 2 . Lo anterior se enuncia en el siguiente
Normal y el estimador
teorema.
) N (0, 2 1
n( p ) (3.5.80)
nkk N (0, 1) (3.5.81)
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 149
Z1 2 Z1 2
kk
, kk + (3.5.82)
n n
con Z1 el cuantil de una distribucin Normal estndar que acumula una probabilidad de
2
1 2 . Para la prueba de hiptesis H0 : kk = 0 vs H1 : kk 6= 0 para j = 1, 2, . . . , , se rechaza
H0 si el cero no est dentro del intervalo de conanza, es decir, si:
Z1 Z1
kk < 2 o bien kk > 2
n n
Escogeremos por tanto, aquella p a partir de la cual no se rechaza la hiptesis nula de que
los trminos kk relacionados con las autocorrelaciones parciales son cero. As encontraremos
el valor de p para los modelos AR(p); debemos observar hasta qu valor de p se rechaza H0
y a partir del valor p+1 no se rechaza H0 . Englobando todo lo anterior, con la sucesin de
autocorrelaciones muestrales (ACF) decidimos el grado q de la parte MA(q) y con la sucesin
de autocorrelaciones parciales (PACF) decidimos el grado p de la parte AR(p) en un modelo
ARMA(p,q).
> pacf(arima.sim(list(order=c(0,0,1),ma=.7),n=200),lag.max=40,
main=(expression(PACF~muestral~de~un~proceso~MA(1)~con~theta[1]==+.7)))
> pacf(arima.sim(list(order=c(0,0,1),ma=-.7),n=200),lag.max=40,
main=(expression(PACF~muestral~de~un~proceso~MA(1)~con~theta[1]==-.7)))
> pacf(arima.sim(list(order=c(1,0,0),ar=.7),n=150),lag.max=40,
main=(expression(PACF~muestral~de~un~proceso~AR(1)~con~phi[1]==+.7)))
> pacf(arima.sim(list(order=c(1,0,0),ar=-.7),n=150),lag.max=40,
main=(expression(PACF~muestral~de~un~proceso~AR(1)~con~phi[1]==-.7)))
> pacf(arima.sim(list(order=c(0,0,2),ma=c(0.3,-0.9)),n=250),lag.max=40,
main=(expression(PACF~muestral~de~un~MA(2)~theta[1]==+.3~y~theta[2]==-.9)))
> pacf(arima.sim(list(order=c(2,0,0),ar=c(0.7,-0.3)),n=250),lag.max=40,
main=(expression(PACF~muestral~de~un~AR(2)~phi[1]==+.7~y~phi[2]==-.3)))
> pacf(arima.sim(list(order=c(1,0,1),ar=-0.8,ma=-0.3),n=100),lag.max=40,
main=(expression(PACF~muestral~de~un~ARMA(1,1)~phi[1]==-.8~y~theta[1]==-.3)))
> pacf(arima.sim(list(order=c(1,0,1),ar=0.8,ma=0.3),n=100),lag.max=40,
main=(expression(PACF~muestral~de~un~ARMA(1,1)~phi[1]==+.8~y~theta[1]==+.3)))
150 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
0.4 PACF muestral de un proceso MA(1) con 1 = + 0.7 PACF muestral de un proceso MA(1) con 1 = 0.7
0.1
Partial ACF
Partial ACF
0.1
0.2
0.2
0.5
0 10 20 30 40 0 10 20 30 40
Lag Lag
PACF muestral de un proceso AR(1) con 1 = + 0.7 PACF muestral de un MA(2) 1 = + 0.3 y 2 = 0.9
Partial ACF
Partial ACF
0.4
0.1
0.0
0.4
0 10 20 30 40 0 10 20 30 40
Lag Lag
PACF muestral de un proceso AR(1) con 1 = 0.7 PACF muestral de un AR(2) 1 = + 0.7 y 2 = 0.3
0.2
Partial ACF
Partial ACF
0.6 0.2
0.2
0.2
0 10 20 30 40 0 10 20 30 40
Lag Lag
PACF muestral de ARMA(1, 1) 1 = 0.8 y 1 = 0.3 PACF muestral de ARMA(1, 1) 1 = + 0.8 y 1 = + 0.3
0.2 0.2
0.8
Partial ACF
Partial ACF
0.4
0.2
0.8
0 10 20 30 40 0 10 20 30 40
Lag Lag
Figura 3.5.5: Figura que representa las PACF muestrales de varios procesos simulados
lag k 1 2 3 4 5 6 7 8 9 10 11 12
k .302 .198 .005 -0.179 -0.171 -0.149 .056 .011 -0.055 .101 .161 .022
lag k 1 2 3 4 5 6 7 8 9 10 11 12
kk .388 .200 .097 -0.164 -0.052 -0.039 .033 .015 -0.125 .153 .091 .166
Z1 2 1.96
= = 0.196
n 100
Solo para los retrasos 1 y 2, ocurre que tanto 0.302 > 0.196 y 0.198 > 0.196, el resto caen
dentro de la banda de conanza, as que se puede suponer q = 2. Para la parte autorregresiva
se usa la sucesin de autocorrelaciones parciales (PACF).
Z1
La prueba de hiptesis es H0 : kk = 0 vs H1 : kk 6= 0 y se rechaza H0 si kk > 2 , de
n
aqu que de nuevo:
Z1 2 1.96
= = 0.196
n 100
Nuevamente para los retrasos 1 y 2, ocurre que tanto 0.388 > 0.196 como 0.200 > 0.196, el
resto caen dentro de la banda de conanza, as que se puede suponer p = 2.
lag k 1 2 3 4 5 6 7 8 9 10 11 12
k .546 .187 -0.050 -0.314 -0.239 -0.169 -0.060 .002 .001 .128 .148 .029
lag k 1 2 3 4 5 6 7 8 9 10 11 12
kk -0.069 -0.253 -0.078 -0.090 -0.111 -0.146 .042 .183 .102 -0.098
Usando las ecuaciones de prediccin, para k=1 tenemos 1 = 11 , por lo que 11 = 0.546.
Ahora bien, para k=2 tenemos el sistema de ecuaciones:
1 = 21 + 22 1
2 = 21 1 + 22
152 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
22 = 0.158
11 = 0.546
Podra elegir una parte autorregresiva p = 4 ya que a partir de aqu toda la sucesin de
autocorrelaciones parciales (PACF) es cero.
En el caso de los modelos MA(q) no hay un sistema de ecuaciones lineales, similar al obtenido
mediante Yule-Walker, que establezca relaciones entre los parmetros, en este caso, 1 , 2 , . . . , q
y las covarianzas (o correlaciones). A partir de la sucesin de autocorrelaciones terica (ACF)
de un modelos MA(q), tenemos el sistema no lineal:
1 + 1 2 + . . . + q1 q
1 =
1 + 12 + 22 + . . . + 22
2 + 1 3 + . . . + q2 q
2 =
1 + 12 + 22 + . . . + 22
.
.
.
q
q =
1+ 12 + 22 + . . . + 22
el cual puede tener mltiples soluciones, aunque solamente una satisfar invertibilidad. Por
lo anterior, la estimacin de los parmetros del modelo MA(q) se hace mediante el llamado
algoritmo de innovacin, el cual en su caso ms general tambin permite obtener estimadores
para un modelo ARMA(p,q).
Dicho algoritmo se aplica a todas las series con segundos momentos nitos ya sea que sean
2
estacionarios o no. Suponga un proceso {Xt } centrado con E|Xt | < t y:
0 si n=1
n =
X
Pn Xn+1 si n = 2, 3, . . .
Un = A n X n (3.5.84)
1 0 0 ... 0
a11 1 0 . . . 0
An =
a22 a21 1 . . . 0
. . . .. .
. . . .
. . . . .
an1,n1 an1,n2 an1,n3 ... 1
1 0 0 ... 0
11 1 0 . . . 0
Cn =
22 21 1 . . . 0
. . . .. .
. . . .
. . . . .
n1,n1 n1,n2 n1,n3 ... 1
n = Xn U n
X
= Cn Un Un (3.5.85)
n)
= n (Xn X
donde
0 0 0 ... 0
11 0 0 . . . 0
n =
22 21 0 . . . 0
. . . .. .
. . . .
. . . . .
n1,n1 n1,n2 n1,n3 ... 0
154 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
n)
Xn = Cn (Xn X (3.5.86)
0 = (1, 1) (3.5.87)
k1
!
X
n,nk = k1 (n + 1, k + 1) k,kj n,nj j (3.5.88)
j=0
para 0k<n y
n1
X
2
n = (n + 1, n + 1) n,nj j (3.5.89)
j=0
nj = 0; (para 0 2 < n)
1
n1 = n1 1 2
0 = 2 (1 + 12 )
1 2 2
n = 2 (1 + 12 n1 1 )
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 155
Tomemos el caso Xt = t + 0.8t+1 con {t } W N (0, 1). Los coecientes nj para 1jn
utilizando el algoritmo de innovacin sern:
Comencemos con un proceso AR(1), dado por la ec. 3.4.1. Para este caso = (, 1 , 2 )0 .
Consideremos la distribucin de X1 . Es posible demostrar que la esperanza del proceso {X1 }
est dada por:
E(X1 ) = (3.5.91)
1 1
2
V ar(X1 ) = (3.5.92)
1 21
Debido a que {t } W NG (0, 2 ), entonces {X1 } tambin tiene distribucin Normal con
esperanza dada por la ec. 3.5.91 y varianza dada por la ec. 3.5.92. Entonces, la funcin de
densidad para la primera observacin X1 est dada por:
n o2
s 2
1 21 x1 11 {1 1 }
fX1 (x1 ; ) = e (3.5.93)
22 22
(x2 1 x1 )2
1
fX2 |X1 (x2 |x1 ; ) = p e (3.5.94)
22 22
fX2 ,X1 (x2 , x1 ; ) = fX2 |X1 (x2 |x1 ; )fX1 (x1 ; ) (3.5.95)
(x3 1 x2 )2
1
fX3 |X2 ,X1 (x3 |x2 , x1 ; ) = p e (3.5.96)
22 22
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 157
fX3 ,X2 ,X1 (x3 , x2 , x1 ; ) = fX3 |X2 ,X1 (x3 |x2 , x1 ; )fX2 ,X1 (x2 , x1 ; ) (3.5.97)
(xN 1 xN 1 )2
1
fXN |XN 1 ,...,X1 (xN |xN 1 , . . . , x1 ; ) = p e (3.5.98)
22 22
fXN ,...,X1 (xN , . . . , x1 ; ) = fXN |XN 1 (xN |xN 1 ; )fXN 1 ,...,X1 (xN 1 , . . . , x1 ; ) (3.5.99)
N
Y
fXN ,...,X1 (xN , . . . , x1 ; ) = fX1 (x1 ; ) fXn |Xn1 (xn |xn1 ; ) (3.5.100)
n=2
N
X
L() = ln[fX1 (x1 ; )] + ln[fXn |Xn1 (xn |xn1 ; )] (3.5.101)
n=2
Al sustituir fX1 (x1 ; ) y fXN |XN 1 ,...,X1 (xN |xN 1 , . . . , x1 ; ) en la ec. 3.5.101 obtenemos la
versin nal de la log-verosimilitud:
h i2
ln(2) 1
2
x1 11
[1 21 ]
L() = ln
2 2 1 21 22
(N 1)ln(2) (N 1)ln(2 )
(3.5.102)
2 2
N
X (xn 1 xn1 )2
n=2
22
Hemos visto como el condicionar para valores iniciales del conjunto {x1 , . . . , xN } nos facilita
la obtencin de la funcin de verosimilitud. El estimador mximo verosmil es aquel valor
que se obtiene al maximizar la ec. 3.5.102.
158 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Para maximizar debemos diferenciar e igualar el resultado a cero pero, en la prctica ob-
tendramos un sistema de ecuaciones no lineales sobre y {x1 , x2 , . . . , xN }. Debido a esto,
maximizar la ec. 3.5.102 requerir de procedimientos numricos. Una alternativa para evitar
lo anterior es jar la observacin X 1 = x1 y maximizar la verosimilitud condicionada a dicha
primera observacin de la siguiente forma:
N
Y
fXN ,...,X2 |X1 (xN , . . . , x2 |x1 ; ) = fXn |Xn1 (xn |xn1 ; ) (3.5.103)
n=2
es decir, maximizar:
N
(N 1)ln(2) (N 1)ln(2 ) X (xn 1 xn1 )2
L() = (3.5.104)
2 2 n=2
22
N
X
(xn 1 xn1 )2
(3.5.105)
n=2
por mnimos cuadrados ordinarios. Al diferenciar la ec. 3.5.104 con respecto a 2 e igua-
lando a cero obtenemos:
N
" #
X 1 xn1 )2
(xn
2
= (3.5.106)
n=2
N 1
(xn 1 n1 )2
1
fXn |n1 (xn |n1 ; ) = p e (3.5.107)
22 22
(x2 1 1 )2
1
fX2 |X1 ,0 (x2 |x1 , 0 ; ) = p e (3.5.108)
22 22
n = Xn 1 n1 (3.5.109)
2n
1
fXn |Xn1 ,...,X1 ,0 (xn |xn1 , . . . , x1 , 0 ; ) = p e 2 (3.5.110)
22 2
El valor de n segn la ec. 3.5.109 depende de n1 la cual depende de Xn1 y este a su vez
de n2 y as sucesivamente. Por eso la funcin s est condicionada a los valores de xn1 , . . . , x1 .
La funcin de verosimilitud ser entonces:
N
Y
fXN ,...,X1 |0 (xN , . . . , x1 |0 ; ) = fX1 |0 (x1 |0 ; ) fXn |Xn1 ,...,X1 ,0 (xn |xn1 , . . . , x1 , 0 ; )
n=2
N
N N 2
X 2n
L() = ln(2) ln( ) (3.5.111)
2 2 n=1
22
1 1 2
ln(2) ln(2 ) 12
2 2 2
N
1 X 2
2 =
(3.5.112)
N n=1 n
160 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Debemos recalcar que en los ltimos dos ejemplos hemos supuesto procesos con media y no
centrados en 0. De ser requerido, se puede realizar las estimaciones por mxima verosimilitud,
similares a las anteriores, a procesos del tipo {Yt } = {Xt }.
Por ltimo, veremos el caso general, es decir, aquel que involucra a los modelos ARMA(p,q).
Supngase entonces un proceso ARMA(p,q) dado por la ec. 3.5.1 pero con media y con
2
proceso {t } W NG (0, ). El proceso a trabajar ser {Yt } = {Xt }.
Hemos visto que la funcin de verosimilitud para procesos autorregresivos se obtiene al con-
dicionar sobre el conjunto {y1 , y2 , . . . , yn } (si trabajamos con procesos centrados) mientras que
para procesos de promedios mviles se obtiene al condicionar sobre el conjunto {1 , 2 , . . . , n }.
Lo que haremos para los procesos ARMA(p,q) ser condicionar sobre ambos conjuntos.
N
N N X 2n
L() = ln(2) ln(2 ) (3.5.114)
2 2 n=1
22
0
Una de las opciones por manejar ser la de igualar los valores de y0 = (y0 , y1 , . . . , yp+1 )
0 1
y 0 = (0 , 1 , . . . , q+1 ) con sus respectivos valores esperados, es decir, sea ys =
11 ...p
para s = 0, 1, . . . , p + 1 y m = 0, 1, . . . , q + 1 y s = 0 para s = 0, 1, . . . , p + 1 y
m = 0, 1, . . . , q + 1 respectivamente y a partir de aqu iterar sobre la ec. 3.5.113 para
t = 1, 2, . . . , N . Otra opcin a manejar para estimar la varianza 2 es utilizar los valores
y1 , . . . , yp igual a sus valores actuales y establecer p = p1 = . . . = pq+1 = 0, por lo que la
iteracin de la ec. 3.5.113 comenzar a partir de t = p + 1. La log-verosimilitud condicionada
estar dada por:
N
N p N p 2
X 2n
L() = ln(2) ln( ) (3.5.115)
2 2 n=p+1
22
o bien:
N p N p 1
L() = ln(2) ln(2 ) 2 S(p , q ) (3.5.116)
2 2 2
N
1 X
2
= 2 (3.5.117)
N p n=p+1 n
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 161
El minimizar S(p , q ) resulta ser una tarea sumamente complicada ya que la solucin a
dicha ecuacin resulta ser no lineal en los parmetros p y q . Como ejemplo de dicha tarea,
Guerrero (2003) considera un modelo MA(1) centrado dado por la ec. 3.3.1. Considere por un
momento que podemos escribir dicho proceso como:
t = Xt 1 t1
= Xt 1 (Xt1 1 t2 )
= Xt 1 Xt1 + 12 t2
.
.
.
= Xt 1 Xt1 + 12 t2 + . . . + 1t 0
Recordando que {t } W N (0, 2 ), nos resulta razonable suponer 0 = 0 para as obtener:
N
X
S(q = 1 ) = 2t
t=1
dS(1 )
= 0
d1
1
pero dicha ecuacin no tiene solucin analtica, por lo que se debe utilizar un procedimiento
numrico para aproximarse al mnimo de S(1 ). Guerrero (2003) propone evaluar la funcin
S(1 ) en distintos puntos del espacio de estados de 1 , obtener una grca como la que se
muestra en la Figura 3.5.6 y a partir de aqu encontrar el valor que minimiza S(1 ). Dicho
valor ser la estimacin de 1 . El procedimiento es similar al momento de la estimacin puntual
de los parmetros p y q .
Ante una fuerte dependencia en la variabilidad de los datos alrededor de la media podemos
utilizar las transformaciones de Box-Cox vistas en la Seccin 3.2.2. La tendencia y estacio-
nalidad puede detectarse a travs de la grca de los datos en cuestin. Adems, el uso de
la sucesin de autocorrelaciones muestrales (ACF), nos puede ayudar a determinar si la serie
posee tendencia y estacionalidad ya que una lenta decada y un comportamiento peridico en
las autocorrelaciones, respectivamente, sera indicativo de la presencia de dichas componentes.
Ante esta situacin hemos visto, a lo largo de este escrito, que la descomposicin clsica as
como el diferenciar una serie, nos ayudan a eliminar la tendencia y estacionalidad.
Para poder aplicar un modelo ARMA(p,q) a unos datos, es menester que la serie en cuestin
sea estacionaria en varianza y media. Cuando no lo es, se dice que presenta al menos una raz
unitaria. Cuando ocurre lo anterior, sabemos el conjunto de tcnicas a utilizar para volver a una
serie lo ms estacionaria posible. Pues bien, una de las tcnicas a utilizar ser la de diferenciar
la serie hasta volverla estacionaria. El nmero de diferencias por aplicar coincide con el nmero
de races unitarias que presente la serie. El nmero de races unitarias se determina de manera
formal con la prueba Dickey-Fuller aumentada.
Veamos un sencillo ejemplo. Tomemos un modelo AR(1) dado por la ec. 3.4.1. Recordemos
que |1 | < 1, as que cuando 1 = 1 diremos que la serie en cuestin no es estacionaria. Si
|1 | > 1 tenemos el proceso AR(1) explosivo visto en la Seccin 3.5. Pues bien, la hiptesis de
estacionariedad de una serie puede ser evaluada analizando si el valor absoluto de 1 es menor
estrictamente a la unidad.
Xt = 1 Xt1 Xt1 + t
= (1 1)Xt1 + t
= Xt1 + t
= (3.5.118)
error estndar(
)
Por ello, Dickey y Fuller simularon los valores crticos para una seleccin de distintos tamaos
muestrales. Estas simulaciones sern las tablas que se utilizarn para determinar los valores
crticos de la prueba Dickey-Fuller simple. El problema de la prueba Dickey-Fuller simple es
que asume que el proceso estocstico subyacente a los datos sigue un modelo AR(1). En otras
palabras, de manera estricta, la prueba de Dickey-Fuller slo sirve para ver si el proceso es
causal (su raz es uno) en un proceso AR(1) o alternativamente para ver si conviene diferenciar
una vez a dicho proceso. Por tanto, cuando el proceso siga otro esquema, la estimacin de la
regresin auxiliar de la prueba nos arrojar un incumplimiento de la condicin de ruido blanco
para el conjunto {t }, debido a una mala especicacin. A partir de aqu es cuando se introduce
la prueba Dickey-Fuller aumentada.
p1
X
Xt = Xt1 + ci Xti + t (3.5.119)
i=1
donde {ci } es un conjunto de constantes que dependen del proceso {Xt } a travs del conjunto
{i } para i = 1, . . . , p y adems:
p
!
X
= i 1 (3.5.120)
i=1
A partir de la ec. 3.5.119 se desprenden 2 modelos de series de tiempo, a saber aquel con
deriva (en ingls drift) distinto de cero:
p1
X
Xt = + Xt1 + ci Xti + t (3.5.121)
i=1
p1
X
Xt = + t + Xt1 + ci Xti + t (3.5.122)
i=1
Ejemplo 3.5.27 Consideremos a {Yt } un proceso AR(3) centrado, el cual podemos expresar
como:
=
error estndar(
)
Una prueba alternativa fue introducida por Kwiatkowski, Phillips, Schmidt y Shin, conocida
por tanto como la prueba KPSS, la cual asume como hiptesis nula la estacionariedad en una
serie alrededor ya sea de la media o de una tendencia lineal y como hiptesis alternativa la
no estacionariedad de una serie debido a la presencia de una raz unitaria. En este sentido, es
contraria a la prueba Dickey-Fuller aumentada en la cual la hiptesis nula asume la presencia
de una raz unitaria. Para la prueba KPSS una serie de tiempo se representa como la suma
de 3 componentes, a saber, una tendencia determinstica, una caminata aleatoria y un trmino
estacionario de error. El modelo por tanto adquiere la forma:
Yt = t + t + t
t = t1 + t (3.5.123)
Yt = t + t1 + t + t
Yt = + t + t = + wt (3.5.124)
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 165
Yt = + Yt1 + wt
wt = t + 1 t1 (3.5.125)
= 1
La idea consiste en ver si el proceso {wt } es un proceso AR(1). El estadstico para pro-
bar la hiptesis nula de estacionariedad alrededor de una tendencia lineal contra la hiptesis
alternativa de existencia de una raz unitaria, se construye de la siguiente forma. Sea et para
t = 1, 2, . . . , N , el residual correspondiente a la regresin de Yt sobre una constante, es decir,
et = Yt Y . Sea t2 el estimador para la varianza, el cual va de acuerdo con la ec. 3.5.112.
Sea adems
t
X
St = ei (3.5.126)
i=1
N
1 X 2
LM = S (3.5.127)
t2 i=1 t
Nos resta por estudiar la distribucin asinttica del estadstico LM. La teora concerniente
a dicha distribucin excede los objetivos de este escrito. Bastar decir que para estacionariedad
alrededor de una tendencia lineal, el estadstico para la prueba KPSS converge de manera dbil
al limite de:
Z 1
= V2 (r)2 dr (3.5.128)
0
Z 1
2 2
V2 (r) = W (r) + (2r 3r )W (1) + (6r + 6r ) W (s) ds (3.5.129)
0
Sabemos que nuestra primer herramienta para elegir los valores de p y q en un modelo
ARMA(p,q) es el uso de la sucesin de autocorrelaciones muestrales (ACF) y la sucesin de
autocorrelaciones muestrales parciales (PACF).
Cuando ajustamos un modelo ARMA(p,q) a unos datos, primero obtenemos los estimadores
A partir de un proceso ARMA(p,q), dado por la ec. 3.5.1 o bien, (B)Xt = (B)t , el valor
de t estimado es:
t =
(B) 1 (B)Xt
=
(B)Xt
= Xt + 1 Xt1 +
2 Xt2 + . . . (3.5.130)
= Xt ( 1 Xt1
2 Xt2 . . .)
= Xt Xt
X t , es una funcin de las observaciones hasta el tiempo t 1 que depende de los valores p y
q calculados, y por eso lo denotamos como X t (
p,
q ). Los residuos a estudiar estn denidos
como:
t Xt (p , q )
t = Xq
W (3.5.131)
p,
rt1 ( q)
donde p,
ri ( q ) = E[(Xi X
i )2 ] corresponde al error cuadrtico medio para el tiempo i
al aplicar el algoritmo de innovacin. Si nuestra estimacin mximo verosmil representa en
t } W N (0, 2 ).
realidad al conjunto de datos {X1 , X2 , . . . , Xn } entonces, en teora, {W W
{W
Es decir, t } debera ser no correlacionada si {t } W N (0, 2 ), independiente si la
2 2
secuencia {t } IID(0, ) y con distribucin normal si {t } W NG (0, ). Los residuos
re-escalados, {R t }, se obtienen al dividir {W
t } por el estimador , la desviacin estndar del
ruido blanco, el cual est dado por = W , donde W viene dado por:
n 2
X W t
W = (3.5.132)
t=1
n
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 167
n
X
T = (3.5.133)
S
con
X la media de los residuos t}
{W o t}
{R y S su desviacin estndar. Se rechaza H0 si:
con t1 2 ,n1 el cuantil de una distribucin t con n1 grados de libertad que acumula
2
de
probabilidad.
Antes de tomar cualquier accin con dichas observaciones discrepantes debe investigarse
la causa de que esas observaciones disten de las dems, ya que toda observacin, incluyendo
discrepantes, puede contener informacin muy valiosa para nuestros nes de estudio. La Figura
3.5.7 muestra la existencia de valores extremos o datos discrepantes.
Las pruebas tipo H0 : = 0 vs H1 : 6= 0, para vericar si cierta autocorrelacin
independiente es cero, no son tan vlidas para retrasos pequeos, en particular para 3, y
por ello existen pruebas que conjuntamente sirven para ver si las autocorrelaciones hasta un
retraso k son cero, y estas pueden servir para seguir vericando independencia.
168 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
k
X 2j
Q(k) = n(n + 2) (3.5.135)
j=1
nj
nj
X
(X 2 )(X
t2 X t+j
2 2)
X
t=1
xx (j) = n (3.5.137)
X
2 X
(X 2)
t
t=1
n
2 = 1
X
con t
X los valores estimados y X X 2.
n t=1 t
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 169
k
X 2xx (j)
Qxx (k) = n(n + 2) (3.5.138)
j=1
nj
T N (T , T2 ) (3.5.140)
1
S= |T T | (3.5.141)
T
es mayor a Z1 , el cuantil de una distribucin normal estndar que acumula una probabi-
2
lidad de 1 .
2
Nuestra siguiente prueba es la llamada prueba de rangos. Dicha prueba es utilizada con
gran frecuencia para detectar la presencia de tendencias lineales en unos datos. Sea {Yt } una
serie de tiempo cualquiera. Sea P el nmero de parejas (i, j) tales que Yj > Yi , j > i e
i = 1, 2, . . . , n 1. Existe un total de n2 (n 1) parejas tales que j > i y para cada par de
1
evento S, {Yj > Yi }, tenemos que su probabilidad de ocurrencia es si el conjunto {Yt } es una
2
n
secuencia completamente aleatoria. La media y varianza de P sern P = E(P ) = (n 1) y
4
P2 = V ar(P ) = n8 (n 1)(2n + 5) respectivamente, por lo que la distribucin de P est dada
por:
T N (P , P2 ) (3.5.142)
170 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
1
S= |P P | (3.5.143)
P
es mayor a Z1 , el cuantil de una distribucin normal estndar que acumula una probabi-
2
lidad de 1 .
2
2
Ahora bien, consideremos al conjunto {t } W NG (0, ), proceso de ruido blanco generador
de un proceso {Yt } ARMA(p,q). Sea Y(1) < Y(2) < < Y(n) los estadsticos de orden de una
n 2
muestra aleatoria {Yi }i=1 de una distribucin normal con media y varianza Y . Si adems,
X(1) < X(2) < < X(n) son los estadsticos de orden de una muestra aleatoria {Xi }ni=1 de una
distribucin normal con media 0 y varianza 1, entonces la esperanza del j-simo estadstico de
orden del proceso {Yt } est dado por:
" n #2
X i 0.5
(Y(i) Y )Z 1
n
R2 = n i=1 n 2 (3.5.145)
X X i 0.5
(Y(i) Y ) 2
Z 1
i=1 i=1
n
donde Y = n1 (Y1 + Y2 + . . . + Yn ).
Teorema 3.5.6 Sea {Xt } un proceso ARMA(p,q) causal e invertible dado por la ec. 3.5.1.
0
Sea = (1 , 2 , . . . , p , 1 , 2 , . . . , q ) el vector de parmetros del modelo ARMA(p,q) asociado.
) N (0, 2 1
n( p,q ) (3.5.146)
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 171
p,q = (3.5.147)
La matriz de dimensin pp, , est dada por la ec. 3.5.46, es decir, el ij-simo elemento
de la matriz est dado por X (ij) para un proceso autorregresivo de orden p, (B)Xt = t ,
para i, j = 1, 2, . . . , p.
Ejemplo 3.5.28
Veamos a continuacin las distribuciones asintticas para diversos procesos.
Para un proceso AR(1) tenemos X (0) =
2
121
. De acuerdo con el Teorema 3.5.6
tenemos:
n(1 1 ) N (0, 2 1
1,0 ) conforme n
con 2 1 2
1,0 = 1 1 y entonces:
n(1 1 ) N (0, 1 21 ) conforme n
o bien:
1 21
1 N 1 , conforme n
n
121
As que V ar(1 ) = n
y entonces podemos estimar la varianza como:
1 21
ar(1 ) =
Vd
n
y por tanto el error estndar y podemos dar intervalos de conanza para 1 . Similarmente,
para un AR(2) se puede vericar:
2
1 2
X (0) =
1 + 2 (1 2 )2 21
y por tanto:
1
1 1 1 22 1 (1 + 2 )
N ,
2 2 n 1 (1 + 2 ) 1 22
172 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Ahora bien, para calcular p,q en un proceso ARMA(1,1) debemos calcular primero XY (0),
con procesos (B)Yt = t y (B)Xt = t , dado por:
XY (0) = Cov(Xt , Yt )
= Cov(1 Xt1 + t , 1 Yt1 + t )
= 1 1 XY (0) + 2
2
Resolviendo para XY (0) tenemos XY (0) = 1+1 1
y por tanto:
1
1 1 + 1 1 (1 21 )(1 + 1 1 ) (1 12 )(1 21 )
N ,
1 1 n(1 + 1 )2 (1 12 )(1 21 ) (1 12 )(1 + 1 1 )
1 12
1 N 1 , conforme n
n
1
1 1 1 22 1 (1 + 2 )
N2 ,
2 2 n 1 (1 + 2 ) 1 22
Ejemplo 3.5.29 Suponga que se identic un modelo Zt 1 Zt1 = t + 1 t1 para la serie
Zt , que es una serie transformada obtenida a partir de una serie Xt . La serie Zt consta de 150
observaciones. La etapa de estimacin dio los 1 = 0.613, 1 = 0.298,
siguientes resultados:
residuos promedio igual a 0.0035 y desviacin estndar igual a 0.1651.
La Tabla 3.5.5 muestra la sucesin de autocorrelaciones (ACF) de los residuos para este
ejemplo. Verique que la secuencia {t } tiene media cero y es no correlacionada. Obtenga
mediante la aproximacin asinttica vista en este captulo estimaciones para
V ar() y .
V ar()
Con estos valores construya intervalos de conanza al 95 % para y . Est el cero con-
tenido en estos intervalos? De ser as, esto sera indicativo de que los parmetros no son
signicativos y de que el modelo no est bien especicado.
Para demostrar que la serie {t } no est correlacionada utilice la prueba de Ljung y Box
usando = 0.05 y = 0.1.
lag k 1 2 3 4 5 6 7 8 9 10 11 12
W
k -0.09 .25 .01 .07 -0.05 .11 .07 -0.02 .04 .05 -0.08 -0.12
Tabla 3.5.5: Tabla que muestra la sucesin de autocorrelacines de los residuos de {Zt }
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 173
nX 150[0.0035]
T = = = 0.2596370109
S 0.1651
Se rechaza H0 si:
Para demostrar que la secuencia {t } son no correlacionados debemos probar la hiptesis
H0 : 1 = 2 = . . . = 12 = 0 vs H1 : Al menos una i 6= 0 para los residuos. Usando las
autocorrelaciones muestrales para los residuos k de la Tabla 3.5.5 obtenemos:
W
12
2j (w) (-0.09)2 (0.25)2 (-0.12)2
X
QW (12) = n(n + 2) = (150)(152) + + ... + = 18.1708
j=1
nj 149 148 138
= 1 +
V ar() 2
(1 2 )(1 + )
n( + )
= 1 +
V ar() 2
(1 2 )(1 + )
n( + )
y por tanto:
(1 + )
2
V ar() =
d (1 2 )
n( + ) 2
2
Vd = (1 + ) (1 2 )
ar()
n( + )
2
174 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Vd =
ar() 0.007013703754
Vd =
ar() 0.01023797089
Como
V ar() Cov(, )
N ,
Cov(, ) V ar()
y N (, V ar())
, N (, V ar())
entonces:
q N (0, 1) y q N (0, 1)
V ar()
V ar()
Si pensamos los intervalos de conanza como los de una distribucin normal con varianza
conocida, es decir, si se conoce V ar() o V ar(), tenemos:
q q
P Z1 2 + Z1
V ar() 2
V ar() = 1
q q
El intervalo de conanza est dado por
Z1 2 V ar() , + Z1 2 V ar() .
Si
V ar() es desconocida, que es lo que sucede en realidad, entonces tenemos un intervalo
de conanza para la media de una distribucin normal con varianza desconocida, es decir:
q q
1 1
tn12 , + t 2 V ar()
V ar() n1
1
Si n crece tn12 = Z1 2 . Usemos Z1 2 = 1.96, considerando = 0.05.
El intervalo de conanza para es (0.496318, 0.0996815).
El intervalo de conanza para es (0.7771058021, 0.4488541979).
El cero no est contenido en ningn intervalo de conanza, as que los parmetros son
signicativos y por tanto, el modelo est bien especicado.
Para modelos autorregresivos AR(p) se puede denir el error de prediccin nal (FPE) como
un estimador del error cuadrtico medio que minimiza la prediccin a un paso. Sea {X1 , . . . , Xn }
una realizacin de un proceso AR(p) con coecientes 1 , . . . , p y sea {Y1 , . . . , Yn } una realiza-
cin independiente del mismo proceso. Sean 1 , . . . , p los estimadores mximo verosmiles de
los coecientes basados en {X1 , . . . , Xn }, el predictor a un paso para Yn+1 es:
Brockwell y Davis (1991) deriva el error cuadrtico medio para la prediccin a un paso dada
por:
n+p
E[(Yn+1 Yn+1 ) ] '
2
2 (3.5.149)
n
2
n n+p
y se puede estimar 2 como
np
as que se tiene a 2
np
como un estimador para
\ n+p
E[(Yn+1 Yn+1 )2 ] =
2 = FPE (3.5.150)
np
As que se selecciona el modelo AR(p) cuya p minimiza FPE porque de esta forma el error
cuadrtico medio de la prediccin disminuye.
As,
(|) denota el ndice entre el vector de parmetros estimados y los reales. El mejor
modelo que podemos obtener es aquel que minimice la discrepancia Kullback-Lieber, dada por:
Z
f (x; )
d(|) = 2ln fX (x; ) dx
Rn fX (x; )
Z
f (x; )
2ln fX (x; ) dx
Rn fX (x; )
Z
= 2ln f (x; ) dx
Rn
= 0
es decir, con la desigualdad de Jensen queremos demostrar que lo que buscamos es la menor
distancia posible entre la distribucin estimada con los parmetros y la distribucin real del
modelo ARMA(p,q) asociado.
Ahora bien, Brockwell y Davis (1991), demuestra que si tenemos {X1 , . . . , Xn } observacio-
nes de un proceso ARMA Gaussiano (el ruido blanco es Gaussiano) con vector de parmetros
p,
(p , q , 2 ) donde ( q,
2 ) son sus correspondientes estimadores mximo verosmiles ba-
sados en {X1 , . . . , Xn } y si tomamos {Y1 , . . . , Yn } una realizacin independiente del proceso
2
verdadero con parmetros (p , q , ) entonces un estimador insesgado de:
p,
(( q,
2 )|(p , q , 2 )) = E(p ,q ,2 ) (2lnLy (p , q , 2 ))
es:
S(p , q ) 2(p + q + 1)n
AICC = 2lnLX p , q , + (3.5.152)
n npq2
S(p , q )
AIC = 2lnLX p , q , + 2(p + q + 1) (3.5.153)
n
Seleccionaramos el modelo ARMA(p,q) con AIC o AICC lo ms bajo posible porque ese
tendra menor ndice de Kullback-Lieber, es decir, seleccionaramos aquel modelo que posea la
menor distancia, entre los modelos candidatos y el verdadero.
3.5. MODELOS AUTORREGRESIVOS DE PROMEDIO MVILES 177
En conclusin, si se tiene un grupo de modelos ARMA(p,q) que ajustan bien a una serie de
tiempo, debemos entonces elegir aquel cuyo AIC o AICC sea mnimo. El AIC AICC pueden
ser negativos, en este caso se elige el modelo con |AIC| o |AICC| mnimo.
Nuestro ltimo criterio es el llamado criterio de informacin Bayesiana (BIC), el cual viene
dado por:
" n
#
2
n 1 X 2
BIC = (n p q)ln + n(1 + ln 2) + (p + q)ln 2
Xt n
npq p + q t=1
donde 2
es el estimador mximo verosmil para la varianza del proceso {t }.
La mayora de los trabajos que analizan y comparan distintos criterios de informacin se
realizan con el objetivo de encontrar un criterio dominante en la bsqueda del modelo verdadero
en el contexto de series de tiempo univariadas.
Una propiedad interesante del criterio de informacin Bayesiana (BIC), y que de hecho no la
comparten los criterios de informacin de Akaike (sin corregir y corregido), es que, el criterio de
informacin Bayesiana (BIC) es consistente, es decir, si tenemos una muestra {X1 , X2 , . . . , Xn }
y dicha muestra proviene de observaciones de un proceso ARMA(p,q), y los estimadores p y
q son los estimadores de p y q encontrados al minimizar el criterio de informacin Bayesiana
(BIC), entonces p p y q q con probabilidad 1. Debemos recalcar que para que suceda lo
anterior, con probabilidad 1, el tamao de nuestra muestra debe tender a innito.
De la Figura 3.6.1 podemos observar una tendencia lineal descendente y un patrn es-
tacional con un pico en julio y un declive en febrero de cada ao. Ahora bien, para eliminar
la tendencia aplicaremos el operador de diferencias, con un lag de 1 y para eliminar la
estacionalidad, la cual es anual, se aplicar el operador con un lag de 12. Recordemos que
despus de eliminar la tendencia, y la estacionalidad debemos restar la media a la nueva serie
para as centrar el proceso.
Comenzamos con la tendencia. Elegimos Transform >Difference >Enter lag = 1, ob-
teniendo la Figura 3.6.2. Como siguiente paso, eliminamos la estacionalidad con el cdigo
Transform >Difference >Enter lag = 12, obteniendo la Figura 3.6.3. Nos resta centrar
la nueva serie. El proceso centrado se obtiene eligiendo Transform >Difference >Substract
Mean, obteniendo as, la Figura 3.6.4.
3.6. ANLISIS DE PROCESOS ARMA(P,Q) EN ITSM 179
Figura 3.6.2: Figura que muestra el nmero de muertes accidentales sin tendencia
Figura 3.6.3: Figura que muestra el nmero de muertes accidentales sin estacionalidad
Figura 3.6.4: Figura que muestra el nmero de muertes accidentales restando la media
180 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Algunas opciones para esta serie son las de un proceso ARMA(1,1) y un proceso ARMA(2,1).
Veremos a continuacin cul de estas dos opciones es el proceso ptimo. Queremos hacer hin-
capi que nuestro objetivo es encontrar aquel modelo que represente de manera fehaciente la
realidad sin importar qu tan complicado sea dicho modelo.
Supongamos que slo deseamos el mejor modelo AR(p). Entonces, ITSM lo puede ele-
gir por nosotros. ElegimosModel >Estimation >Preliminary >Find AR model with min
AICC, e ITSM nos muestra que el mejor modelo es el AR(2) con coecientes 1 = 0.447657,
2 = 0.258017 y criterio AICC = 866.210. Ahora bien, para estimar por mxima vero-
similitud usando como valores iniciales los obtenidos va Yule-Walker debemos elegir Model
>Estimation >Max Likelihood, obteniendo los coecientes 1 = 0.443450, 2 = 0.253866
y criterios AICC = 866.208, BIC = 865.289 y F P E = 132,962.
En el prrafo anterior slo tomamos la parte autorregresiva del proceso. Si deseamos tomar
en cuenta la parte de promedio mviles y construir un modelo, por ejemplo, ARMA(1,1) en-
tonces, elegimos Model >Specify >AR order = 1 >MA order = 1, para despus elegir las
siguientes opciones Model >Estimation >Preliminary >Innovations, obteniendo los coe-
cientes 1 = 0.261474, 1 = 0.693012 y criterio AICC = 865.440. Para mxima verosi-
militud debemos elegir Model >Estimation >Max Likelihood, obteniendo los coecientes
1 = 0.485619, 1 = 0.937805 y criterios AICC = 864.927 y BIC = 863.473.
Ahora bien, si deseamos construir nuestro segundo modelo, es decir, un modelo ARMA(2,1),
tenemos que elegir las opciones Model >Specify >AR order = 2 >MA order = 1, a conti-
nuacin elegimos las opciones Model >Estimation >Preliminary >Innovations, obtenien-
do los coecientes 1 = 0.286340, 2 = 0.197289, 1 = 0.714721 y criterio AICC = 870.474.
Para mxima verosimilitud elegimos Model >Estimation >Max Likelihood, obteniendo los
coecientes 1 = 0.454505, 2 = 0.165270, 1 = 0.986089 y criterios AICC = 865.859 y
BIC = 863.643.
Elegimos aquel modelo que tome en cuenta la parte autorregresiva y la parte de promedios
mviles, pero tambin aquel que posea el criterio de informacin de Akaike corregido (AICC),
el error de prediccin nal (FPE) (cuando corresponda) y el criterio de informacin Bayesiana
(BIC) menor, es decir, elegimos el modelo ARMA(1,1).
Figura 3.6.7: Pronstico del nmero de muertes accidentales en E.U.A. para el ao 1979
182 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Slo falta vericar los supuestos del modelo. Elegimos las opciones Statistics >Residual
Analysis >Histogram >Default. La Figura 3.6.8 muestra el histograma de los residuos, los
cuales distan de poseer distribucin Normal. Veamos ahora si la sucesin de autocorrelaciones
muestrales (ACF) de los residuos se asemeja a un ruido blanco, es decir, nos interesa que apro-
ximadamente el 95 % de las autocorrelaciones se encuentren dentro de las bandas de conanza,
para entonces asegurar la semblanza con un ruido blanco. Observamos de la Figura 3.6.9 que
la mayora de las autocorrelaciones caen, efectivamente, dentro de las bandas de conanza. Por
tanto, estamos hablando de un ruido blanco.
Ahora realizaremos un anlisis similar pero basndonos en los modelos ARMA(p,q). Vere-
mos con qu mtodo los pronsticos se acercan ms a la realidad. Seleccionamos la siguiente
opcin File >Project >Open >Univariate y elegimos el archivo Acciones.tsm. La Fi-
gura 3.6.10 muestra dicha serie.
De la Figura 3.6.10 podemos observar una tendencia lineal ascendente y un patrn es-
tacional con un pico en febrero y un declive en noviembre de cada ao. El pico en el primer
trimestre del ao (especialmente en el mes de febrero) se debe al incremento en las acciones
de atencin despus de la poca navidea y el declive se debe al decremento en las acciones de
atencin por ser n de ao y comienzo de poca navidea.
Ahora bien, para eliminar la tendencia aplicaremos el operador j con un lag de 1 y para
eliminar la estacionalidad aplicaremos el operador s con un lag de 12. No olvidemos restar
la media para as centrar al nuevo proceso.
Para eliminar la tendencia, elegimos Transform >Difference >Enter lag = 1, obte-
niendo la Figura 3.6.11. Para eliminar la componente estacional tenemos que seleccionar
Transform >Difference >Enter lag = 12, obteniendo la Figura 3.6.12 y para centrar la
serie elegimos Transform >Difference >Substract Mean, obteniendo nalmente la Figura
3.6.13.
Ahora, mostramos la sucesin de autocorrelaciones muestrales (ACF) y la sucesin de auto-
correlaciones muestrales parciales (PACF) para elegir el modelo ARMA(p,q) ptimo. Elegimos
Statistics >ACF/PACF >Sample, obteniendo la Figura 3.6.14 y la Figura 3.6.15 respec-
tivamente.
Figura 3.6.11: Figura que muestra el nmero de acciones de atencin sin tendencia
Figura 3.6.12: Figura que muestra el nmero de acciones de atencin sin estacionalidad
Figura 3.6.13: Figura que muestra el nmero de acciones de atencin restando la media
3.6. ANLISIS DE PROCESOS ARMA(P,Q) EN ITSM 185
Para construir un modelo ARMA(1,1) tenemos que elegir las opciones Model >Specify
>AR order = 1 >MA order = 1, a continuacin elegimos las opciones Model >Estimation
>Preliminary >Innovations, obteniendo los coecientes 1 = 0.183155, 1 = 0.702112 y
criterio AICC = 1261.92. Para mxima verosimilitud debemos elegir Model >Estimation
>Max Likelihood, obteniendo los coecientes 1 = 0.013740, 1 = 0.598334 y criterios
AICC = 1261.04 y BIC = 1261.82.
Para la construccin del modelo ARMA(2,1) seleccionamos Model >Specify >AR order =
2 >MA order = 1. Despus elegimos Model >Estimation >Preliminary >Innovations,
obteniendo los coecientes 1 = 0.203951, 2 = 0.571660, 1 = 0.720695 respectivamente,
y criterio AICC = 1280.35. Para mxima verosimilitud debemos elegir Model >Estimation
>Max Likelihood, obteniendo los coecientes autorregresivos 1 = 0.447829, 2 = 0.364266,
de promedios mviles 1 = 0.164504 y criterios AICC = 1260.75 y BIC = 1260.69. Elegimos
aquel modelo con menor AICC y BIC , a saber, el modelo ARMA(2,1).
Resta vericar los supuestos del modelo. Elegimos las opciones Statistics >Residual
Analysis >Histogram >Default. La Figura 3.6.17 muestra el histograma de los residuos,
los cuales claramente tienen distribucin Normal. Adems, observamos de la sucesin de au-
tocorrelaciones muestrales (ACF) de los residuos, mostrada en la Figura 3.6.17, que ms del
95 % de las autocorrelaciones para 40 retrasos, caen dentro de las bandas de conanza. Los
residuos en efecto se comportan como un ruido blanco.
Pasemos a analizar la tercera serie, es decir, aquella que muestra las ventas mensuales
File >Project
de vino tinto por parte de viedos australianos. Seleccionamos las opciones
>Open >Univariate y elegimos el archivo Wine.tsm. La Figura 3.6.19 muestra dicha serie.
Observamos inmediatamente una tendencia lineal ascendente y un patrn estacional con pico
en el mes de julio y un declive en el mes de enero de cada ao. Eliminaremos la tendencia
y la estacionalidad por medio del mtodo de descomposicin clsica, para despus ajustar un
modelo ARMA(p,q). Seleccionamos las opciones Transform >Classical >Seasonal Fit =
12 >Polynomial Fit = Linear Trend. El ajuste por descomposicin clsica se muestra en
laFigura 3.6.20. La serie a analizar, sin tendencia ni estacionalidad se muestra en la Figura
3.6.21. No olvidemos restar la media a nuestra nueva serie.
188 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Figura 3.6.19: Figura que muestra el nmero de ventas mensuales de vino tinto
Figura 3.6.20: Figura que muestra la descomposicin clsica de las ventas de vino tinto
Figura 3.6.21: Figura que muestra ventas mensuales de vino sin tendencia ni estacionalidad
3.6. ANLISIS DE PROCESOS ARMA(P,Q) EN ITSM 189
Figura 3.6.22: Figura ACF del nmero de ventas mensuales de vino tinto
Figura 3.6.23: Figura PACF del nmero de ventas mensuales de vino tinto
Figura 3.6.24: Pronstico del nmero de ventas mensuales de vino tinto para el ao 1992
Pasemos a vericar los supuestos del modelo. Elegimos las opciones Statistics >Residual
Analysis >Histogram >Default. La Figura 3.6.25 muestra el histograma de los residuos,
los cuales parecen tener distribucin Normal. Ninguna de las autocorrelaciones en la sucesin de
autocorrelaciones muestrales (ACF) de los residuos caen fuera de las bandas de conanza y por
tanto estamos tratando con un ruido blanco. Para las pruebas de aleatoriedad seleccionamos
Statistics >Residual Analysis >Test of Randomness >22 y observamos la prueba de
Ljung y Box cuyo p-value= 0.42695 > 0.05, por lo cual no rechazamos la hiptesis nula de que
en conjunto, las autocorrelaciones hasta el retraso 23 son cero. Se concluye de manera anloga
para la prueba McLeod-Li ya que su respectivo p-value= 0.99821 > 0.05.
Por ltimo, tomemos la serie correspondiente al nivel (pies) del lago Huron. Realizaremos
nuevamente el mtodo de descomposicin clsica, para despus ajustar un modelo ARMA(p,q)
con parmetros p=2 y q = 3. La Figura 3.6.27 muestra dicha serie.
Figura 3.6.28: Figura que muestra la descomposicin clsica del nivel del lago Hurn
192 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Figura 3.6.29: Figura que muestra el nivel del lago Hurn sin tendencia ni estacionalidad
Figura 3.6.32: Pronstico del nivel del lago Hurn para el ao 1973
La Figura 3.6.33 muestra el histograma de los residuos, los cuales no distan mucho
de normalidad. Finalmente, volvemos a elegir Statistics >Residual Analysis >Test of
Randomness >22 y observamos la prueba de Ljung y Box cuyo p-value= 0.70133 > 0.05,
por lo cual no rechazamos la hiptesis nula H0 y concluimos que las autocorrelaciones hasta
el lag h = 25 conjuntamente son cero. Asimismo obtenemos la prueba McLeod-Li cuyo p-
value= 0.36907 > 0.05, con lo cual corroboramos lo obtenido con la prueba de Ljung y Box.
Finalmente, ninguna de las autocorrelaciones mostradas en la Figura 3.6.34 se encuentra fuera
de las bandas de conanza, por lo que los residuos se comportan como un ruido blanco.
El paquete estadstico ITSM no nos brinda las pruebas no paramtricas para normalidad
Shapiro-Wilk y Lilliefors, pero nos permite exportar los residuos mediante las opciones File
>Export >Residuals para despus llevarlos a R y aqu realizar las pruebas no paramtricas
para normalidad. Para ilustrar lo anterior, veamos si la primera serie posee distribucin Normal
en los residuos. Hemos elegido esta serie ya que a nuestro parecer es la ms complicada de
asegurar normalidad. Habiendo exportado los residuos el cdigo en R ser:
> lillie.test(residuos)
data: residuos
D = 0.0653, p-value = 0.7684
> shapiro.test(residuos)
data: residuos
W = 0.9658, p-value = 0.09585
El p-value para la prueba Lilliefors es 0.7684. La prueba de hiptesis para ambas pruebas
ser H0 : Normalidad en los residuos vs H1 : No normalidad en los residuos, y dado = 0.05,
rechazamos H0 ya que p-value= 0.7684 > 0.05 y concluimos que la distribucin de los residuos
es, en efecto, normal. A la misma conclusin se llega utilizando la prueba Shapiro-Wilk ya que
p-value= 0.0958 > 0.05.
3.7. MODELOS ARIMA 195
W t = d Xt (3.7.1)
Para esta serie, {Wt }, podra ya ser posible obtener un proceso ARMA(p,q), dado por la
expresin, (B)Wt = (B)t , lo cual sera equivalente a tomar un modelo ARIMA(p,d,q), en el
cual se indica el orden del polinomio autorregresivo (p), el orden de diferencias a utilizar (d) y
el orden del polinomio de promedios mviles(q). As, el proceso quedar especicado como:
con {t } ruido blanco con E(t ) = 0. El trmino integrado se reere a que Xt se obtiene de la
ec. 3.7.1 por inversin del operador d , dando como resultado una suma innita (integracin)
de trminos de Wt , es decir:
v " #2
N N
u
u 1 X
j
X j Xt
S(j) = t Xt (3.7.4)
N j 1 t=j+1 t=j+1
N j
Como recomendacin, este mtodo debe ser siempre combinado con la obtencin de la
sucesin de autocorrelaciones muestrales (ACF) y con las reglas que daremos ms adelante.
Modelo Sucesin de autocorr. muestrales (ACF) Sucesin de autocorr. muestrales parciales (PACF)
Las autocorrelaciones caen de manera exponencial. Pico en el lag 1 seguido de autocorrelaciones cer-
AR(1) Todas sern positivas si 1 > 0 y alternarn signos canas a cero. El pico ser positivo si 1 > 0 y nega-
en forma sinoidal si 1 < 0. tivo si 1 < 0.
Las autocorrelaciones caen de manera exponencial. Picos a partir del retraso o lag 1 y hasta el retraso
AR(p) El decaimiento ser de forma sinoidal. El patrn o lag p, seguidos de autocorrelaciones cercanas a
exacto depende del signo y tamao de 1 , 2 , . . . , p . cero.
Pico en el lag 1 seguido de autocorrelaciones cerca- Las autocorrelaciones caen de manera exponencial.
MA(1) nas a cero. El pico ser positivo si 1 < 0 y negativo Todas sern negativas si 1 > 0 y alternarn signos
si 1 > 0. comenzando positivas si 1 < 0.
Picos a partir del retraso o lag 1 y hasta el retraso Las autocorrelaciones caen de manera exponencial.
MA(q) o lag q, seguidos de autocorrelaciones cercanas a El decaimiento ser de forma sinoidal. El patrn
cero. exacto depende del signo y tamao de 1 , 2 , . . . , q .
Tabla 3.7.1: Tabla que muestra las caractersticas tericas de la ACF y PACF
La metodologa Box & Jenkins para examinar la adecuacin del modelo, se basa en las pro-
piedades de la sucesin de autocorrelaciones muestrales (ACF) y la sucesin de autocorrelaciones
muestrales parciales (PACF) para modelos ARIMA(p,d,q) y modelos SARIMA, introducidos
en la siguiente seccin. Algunas propiedades generales que nos brindarn apoyo al identicar
las estructuras del modelo ARIMA(p,d,q) son:
4. Un modelo que no necesite la aplicacin del operador diferencia asume que la serie es
estacionaria. Un modelo cuyo orden de diferenciacin sea 1, implica la existencia de ten-
dencia lineal. Un modelo cuyo orden de diferenciacin sea 2 asume que la serie original
posee una tendencia que vara a lo largo del tiempo.
Esta serie de reglas pueden ser utilizadas en conjunto con el operador j para eliminar el
tipo de tendencia existente en un conjunto de datos (lineal, cuadrtica, etc).
198 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Yt = t t1 (3.7.6)
Xt = Xt1 + Yt (3.7.7)
X
Yt = j Ytj + t (3.7.8)
j=1
X
Xt = (1 )j1 Xtj + t (3.7.9)
j=1
como aproximacin para t grande. Usando dicha aproximacin obtenemos el mejor predictor
lineal a un paso dado por:
X
Pn Xn+1 = (1 )j1 Xn+1j
j=1
X
= (1 )Xn + (1 )j1 Xnj
j=1
X
Pero Pn1 Xn = (1 )j1 Xnj , por lo que el mejor predictor lineal a un paso ser:
j=1
Ejemplo 3.7.1 La Tabla 3.7.2 muestra los datos correspondientes a la serie del ndice de
precios al mayoreo de 210 artculos en la Ciudad de Mxico desde Enero de 1971 hasta Diciembre
de 1980.
1971 1972 1973 1974 1975 1976 1977 1978 1979 1980
Ene 30.60 31.19 33.48 42.29 47.06 54.38 78.87 92.36 109.22 133.37
Feb 30.69 31.36 33.92 43.97 47.62 55.08 80.23 94.35 111.52 136.51
Mar 30.86 31.53 34.27 44.91 47.86 55.89 81.76 96.26 112.92 138.61
Abr 31.17 31.67 34.87 45.16 48.39 56.15 84.12 97.52 113.45 139.60
May 31.14 31.88 36.12 45.16 49.34 57.01 85.96 100.00 116.34 142.02
Jun 31.31 31.93 36.16 45.28 50.49 57.51 86.78 101.34 117.59 145.68
Jul 31.27 32.00 37.07 45.81 51.02 58.95 87.39 102.49 118.92 151.69
Ago 31.29 32.08 37.90 45.76 50.99 58.76 89.83 102.27 120.83 153.35
Sep 31.26 32.20 39.10 45.84 51.07 62.43 90.29 101.42 122.50 153.97
Oct 30.98 32.29 39.72 46.03 51.52 67.66 90.10 102.59 124.78 155.45
Nov 31.08 32.32 39.89 46.19 52.24 73.21 90.12 103.90 125.04 156.78
Dic 31.17 32.84 41.13 46.62 52.86 77.12 91.07 105.50 126.54 159.95
Tabla 3.7.2: Tabla que muestra el ndice de precios al mayoreo en la Ciudad de Mxico
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
1971 30.60 30.69 30.86 31.17 31.14 31.31 31.27 31.29 31.26 30.98 31.08 31.17
1972 31.19 31.36 31.53 31.67 31.88 31.93 32.00 32.08 32.20 32.29 32.32 32.84
1973 33.48 33.92 34.27 34.87 36.12 36.16 37.07 37.90 39.10 39.72 39.89 41.13
1974 42.29 43.97 44.91 45.16 45.16 45.28 45.81 45.76 45.84 46.03 46.19 46.62
1975 47.06 47.62 47.86 48.39 49.34 50.49 51.02 50.99 51.07 51.52 52.24 52.86
1976 54.38 55.08 55.89 56.15 57.01 57.51 58.95 58.76 62.43 67.66 73.21 77.12
1977 78.87 80.23 81.76 84.12 85.96 86.78 87.39 89.83 90.29 90.10 90.12 91.07
1978 92.36 94.35 96.26 97.52 100.00 101.34 102.49 102.27 101.42 102.59 103.90 105.50
1979 109.22 111.52 112.92 113.45 116.34 117.59 118.92 120.83 122.50 124.78 125.04 126.54
1980 133.37 136.51 138.61 139.60 142.02 145.68 151.69 153.35 153.97 155.45 156.78 159.95
> library(stats)
> plot(Serie,main="Indice de Precios al Mayoreo en la Ciudad de Mxico",ylab="IPM")
200 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Figura 3.7.1: Figura que muestra el ndice de precios al mayoreo en la Ciudad de Mxico
0 10 20 30 40
Lag
0 10 20 30 40
Lag
0 10 20 30 40
Lag
Si queremos ajustar el modelo ARIMA(4,2,1) por mxima verosimilitud para la serie ori-
ginal se usa order c(4,2,1) en la funcin arima(), ya que el orden del modelo AR(p) es 4,
correspondiente al primer trmino en el parntesis, la serie se diferencia 2 veces por lo cual el
segundo lugar del parntesis es 2 y el ltimo corresponde a la parte MA(q) del modelo. Adems
agregamos include.mean=TRUE ya que el proceso no est centrado:
202 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Series: Serie
ARIMA(4,2,1)
Coefficients:
ar1 ar2 ar3 ar4 ma1
0.4899 -0.1057 -0.1008 0.0870 -0.9110
s.e. 0.1130 0.1055 0.1048 0.1062 0.0663
El cdigo correspondiente para ajustar tanto el modelo ARIMA(4,2,2) como el modelo ARI-
MA(4,2,3) a nuestros datos originales viene dado en R por:
Series: Serie
ARIMA(4,2,2)
Coefficients:
ar1 ar2 ar3 ar4 ma1 ma2
0.9303 -0.3071 -0.0544 0.1376 -1.3558 0.3949
s.e. 0.4429 0.2494 0.1395 0.0977 0.4392 0.4003
Series: Serie
ARIMA(4,2,3)
Coefficients:
ar1 ar2 ar3 ar4 ma1 ma2 ma3
-0.1554 -0.7431 0.2677 -0.1674 -0.2431 0.4227 -0.8911
s.e. 0.1167 0.1158 0.1194 0.1112 0.0867 0.0719 0.0918
Al observar los criterios de informacin seleccionamos aquel modelo con criterios ms pe-
queos, a saber el que habamos elegido en un principio, el modelo ARIMA(4,2,3).
0 1 2 3 4 5
2 Standardized Residuals
ACF of Residuals
1.0
0.6
ACF
0.2
0.2
2 4 6 8 10
lag
Figura 3.7.5: Figura que muestra la vericacin de los supuestos del modelo
Finalmente en la Figura 3.7.6 se presentan los residuos y su histograma, que sugieren una
distribucin ms o menos normal y varianza distinta a una costante, respectivamente.
El cdigo para la obtencin de la funcin tsdiag(), histograma y grca de los residuos viene
dado por:
> tsdiag(ARMA423)
> residuos<-ARMA423$residuals
> plot(residuos,xlab="Tiempo",ylab="Residuos",main="Grfica de los residuos",pch=19)
> truehist(residuos,col=rainbow(4),border="white",
main="Histograma de los residuos",xlab="Residuos",ylab="Frecuencia
Relativa",col.main="black",col.axis="black",col.lab="black",prob=TRUE,ylim=c(0,0.4))
> curve(dnorm(x,mean(residuos),sd(residuos)),add=T,col="black")
204 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
0.4
5
Frecuencia Relativa
4
0.3
3
Residuos
2
0.2
1
0
0.1
2
0.0
1972 1976 1980 2 0 2 4
Tiempo Residuos
> library(nortest)
> lillie.test(residuos)
data: residuos
D = 0.1508, p-value = 4.599e-07
Otra prueba formal para normalidad en los residuos es la prueba Shapiro-Wilk, con p-value
3.926e-09 0, por lo que, para un nivel de signicancia igual a 0.05, rechazamos la hiptesis
nula y conrmamos que los residuos no se distribuyen normalmente. El cdigo se muestra a
continuacin:
> shapiro.test(residuos)
data: residuos
W = 0.8634, p-value = 3.926e-09
Los datos cumplen los supuestos excepto el de normalidad y varianza constante en los
residuos, aunque se pueden esperar pequeas anomalas en el supuesto de normalidad. El modelo
ARIMA(4,2,3) es un buen modelo para explicar la serie del ndice de precios al mayoreo si no
tomamos en cuenta que la varianza no es constante y no hay normalidad en los residuos.
3.7. MODELOS ARIMA 205
Podemos hacer predicciones sobre los siguientes 12 meses para nuestro modelo ptimo e
incluso gracarlo. La Figura 3.7.7 muestra un comparativo con las predicciones hechas con los
modelos ARIMA(4,2,1) y ARIMA(4,2,3) con las bandas de conanza pintadas en color azul.
Se escogieron estos dos modelos ya que poseen los criterios de informacin ms pequeos y
son claros candidatos a ajustar el ndice de precios al mayoreo. Observamos que no existe una
gran diferencia en las predicciones, as que cualquiera de los dos modelos servir para nuestros
propsitos aunque ya conocida la teora, sabemos qu modelo elegir si tenemos que quedarnos
con uno solo.
> ARMA421.pred<-predict(ARMA421,n.ahead=12)
> plot(Serie, xlim=c(1971,1982),ylim=c(30,200),xlab="Ao",ylab="IPM",
main="Prediccin del IPM en la Ciudad de Mxico")
> lines(ARMA421.pred$pred,col="red")
> lines(ARMA421.pred$pred+1.96*ARMA421.pred$se,col="blue",lty=3)
> lines(ARMA421.pred$pred-1.96*ARMA421.pred$se,col="blue",lty=3)
> ARMA423.pred<-predict(ARMA423,n.ahead=12)
> plot(Serie, xlim=c(1971,1982),ylim=c(30,200),xlab="Ao",ylab="IPM",
main="Prediccin del IPM en la Ciudad de Mxico")
> lines(ARMA423.pred$pred,col="red")
> lines(ARMA423.pred$pred+1.96*ARMA423.pred$se,col="blue",lty=3)
> lines(ARMA423.pred$pred-1.96*ARMA423.pred$se,col="blue",lty=3)
Una de las opciones para estabilizar la varianza en los residuos (y que se aplica casi siempre
a las series econmicas) es tomar el logaritmo natural de la serie original y con esta nueva serie
realizar un anlisis similar al hecho en esta seccin. El mejor modelo para explicar a la nue-
va serie ser ahora un proceso ARIMA(3,2,3). Habiendo realizado las predicciones requeridas,
debemos regresar a la serie original aplicando la funcin exponencial a dichas predicciones.
La grca de los residuos de la nueva serie e histograma de los mismos se muestran en la
Figura 3.7.8. Observamos una mejor estabilidad en la varianza, el histograma muestra apa-
rente normalidad en los residuos pero al aplicar la prueba Lilliefors concluimos que los residuos
nuevamente poseen distribucin distinta a la normal ya que el p-value es menor que = 5 %:
30
Residuos
20
10
0.02
Figura 3.7.8: Figura que muestra los residuos y su correspondiente histograma (logaritmo)
> lillie.test(residuos)
data: residuos
D = 0.1227, p-value = 0.0001346
3.7. MODELOS ARIMA 207
La idea de este escrito es y ser siempre, crear una conexin entre la parte terica y la parte
prctica proporcionada por los paquetes estadsticos. Hemos visto, en esta seccin, el desarrollo,
paso por paso, de la metodologa ARIMA. Es decir, partimos desde la identicacin de la esta-
cionariedad de la serie hasta la comprobacin de los supuestos del modelo. La estacionariedad
de la serie se detect a travs del mtodo propuesto por Guerrero (2003), es decir, dicho mtodo
nos brinda el nmero ptimo de diferencias por aplicar para volver a la serie estacionaria.
Ahora bien, en R, una forma alternativa y que a su vez debe ser combinada con los mtodos
propuestos anteriormente, es realizar la prueba Dickey-Fuller aumentada (la cual recordemos
tiene como hiptesis nula la no estacionariedad de la serie) o bien, la prueba KPSS (la cual
asume como hiptesis nula la estacionariedad de la serie) para de esta forma corroborar si la
serie en cuestin es estacionaria o no. La librera necesaria para correr estas pruebas en R es
fpp: Data for forecasting: principles and practice. Adems utilizaremos el comando ndis(), el
cual nos proporciona el nmero de diferencias por aplicar para volver a una serie estacionaria.
El cdigo en R viene dado por:
> kpss.test(Serie)
data: Serie
KPSS Level = 3.8104, Truncation lag parameter = 2, p-value = 0.01
> adf.test(Serie,alternative="stationary")
data: Serie
Dickey-Fuller = -0.3732, Lag order = 4, p-value = 0.986
alternative hypothesis: stationary
> ndiffs(Serie,alpha=0.05,test=c("kpss"),max.d=2)
[1] 2
Observemos para la prueba KPSS, un p-value menor al 5 % por lo que se rechaza la hiptesis
nula y concluimos que la serie no es estacionaria. A la misma conclusin se llega al tomar
la prueba Dickey-Fuller aumentada ya que para esta, no se rechaza la hiptesis nula de no
estacionariedad en nuestra serie.
Adems, observamos que el nmero de diferencias necesarias para volver a nuestra serie
estacionaria es 2. Dicho nmero de diferencias coincide con el mtodo propuesto por Guerrero
(2003) y expuesto en esta seccin. Entonces, tanto la parte terica como los paquetes estadsticos
nos han llevado a la misma conclusin respecto a la estacionariedad de la serie, lo cual siempre
ser deseable.
208 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
X
t ( ) =
W Mj t+ j (3.8.2)
j=
1
X
X
Wt+ = j t+ j j t+ j (3.8.3)
j=0 j=
es decir, dividimos a Wt+ en dos sumas, una con informacin conocida, primera suma de la
ec. 3.8.3, y la otra con informacin desconocida, las dos al tiempo t. A partir de la ec. 3.8.2
y laec. 3.8.3 obtenemos:
1
X
X
t ( ) =
Wt+ W j t+ j (j + Mj )t+ j (3.8.4)
j=0 j=
1
X
X
t ( ))2 =
Et (Wt+ W j2 2 + (j + Mj )2 2 (3.8.5)
j=0 j=
Para pasar de la ec. 3.8.4 a la ec. 3.8.5 hemos elevado al cuadrado una suma nita y una
con trminos innitos sin tomar en cuenta los productos cruzados ya que la secuencia {t } no
est correlacionada.
3.8. PRONSTICOS CON MODELOS ARIMA 209
Adems, hemos usado la linealidad del operador esperanza slo en la primer suma de la ec.
3.8.5. Para la segunda parte hemos supuesto causalidad y convergencia absoluta en la serie
{Mj }. Ahora bien, el mnimo de la ec. 3.8.5 se obtiene haciendo Mj = j para j = , +1, . . .,
por lo cual obtenemos:
1
X
t ( ))2 =
Et (Wt+ W j2 2 (3.8.6)
j=0
con t ( )
W dado, de manera similar a la ec. 3.8.2, por:
X
t ( ) =
W j t+ j (3.8.7)
j=
1
!
!
X X
Et (Wt+ |X1 , X2 , . . . , Xt ) = Et j t+ j Et j t+ j (3.8.8)
j=0 j=
t+ j si j
Et (t+ j ) =
0 si j<
Adems, hemos hecho uso de algunas propiedades del operador esperanza al condicionar,
a saber, E(X) = E[E(X|Y )], primera suma de la ec. 3.8.8, y E(X|X) es una nueva variable
aleatoria que corresponde a X , segunda suma de la ec. 3.8.8. Obtenemos por tanto:
X
Et (Wt+ |X1 , X2 , . . . , Xt ) = j t+ j (3.8.9)
j=
1
X
et ( ) = Wt+ t ( ) =
W j t+ j (3.8.10)
j=0
t (1) = t+1
et (1) = Wt+1 W (3.8.11)
210 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
1
! 1
X X
Et [et ( )] = Et j t+ j = j Et (t+ j ) = 0 (3.8.12)
j=0 j=0
1
! 1
X X
V art [et ( )] = V art j t+ j = j2 2 (3.8.13)
j=0 j=0
Ahora bien, tomemos el proceso ARIMA(p,d,q) especicado por (B)Wt = (B)t , con
Wt = d Xt ; minimizamos la esperanza condicional de la ec. 3.7.1 en la esperanza condicional
de Wt+ obteniendo:
t ( ) = Et (Wt+ )
W
= Et (1 Wt+ 1 + . . . + p Wt+ p + t+ 1 t+ 1 . . . q t+ q ) (3.8.15)
donde
Wt+ j si j
Et (Wt+ j ) =
Wt ( j) si j<
y haciendo uso de la ec. 3.8.11, y de las propiedades del operador esperanza condicional
aplicado al conjunto {t } tenemos:
t+ j1 (1)
Wt+ j W si j
Et (t+ j ) =
0 j<
si
t (1) =
W Et (Wt+1 )
= Et (0.8Wt + t+1 0.4t )
= 0.8Et (Wt ) + Et (t+1 ) 0.4Et (t )
= 0.8Wt 0.4[Wt W t1 (1)]
3.8. PRONSTICOS CON MODELOS ARIMA 211
t (2) =
W Et (Wt+2 )
= Et (0.8Wt+1 + t+2 0.4t+1 )
= 0.8Et (Wt+1 ) + Et (t+2 ) 0.4Et (t+1 )
= 0.8[0.8Et (Wt ) + Et (t+1 ) 0.4Et (t )] + Et (t+2 ) 0.4Et (t+1 )
= 0.8W t (1)
Utilizando la frmula dada antes de empezar este ejemplo tenemos que los trminos Et (t+2 )
y Et (t+1 ) son cero ya que j = 2 > 0 y j = 1 > 0 en el conjunto {t }. Es decir, ahora
hemos aplicado Et (t+ j ) para j y j < . Los pronsticos se realizan de manera recursiva,
y en general para 2, tenemos:
t ( ) = Et (Wt+ ) = 0.8W
W t ( 1)
Como bien sabemos, nosotros podemos aplicar una transformacin {T (Xt )} a nuestra serie
original {Xt }, por ejemplo una transformacin de Box-Cox para reducir la variabilidad en los
datos. Claro, nuestra intencin ser volver a la nueva serie lo ms estacionaria posible pero a
veces, el realizar una transformacin con ese n, hace que se pierda el sentido de interpretacin
de los datos originales.
Ahora bien, en la realidad, las series con las que nos encontraremos distarn de ser estacio-
narias. Y claro, nosotros necesitamos una generalizacin para este tipo de situaciones. Dicha
generalizacin est basada en el hecho de suponer que la no estacionariedad de la serie pue-
de cancelarse al aplicarle una transformacin (en este trabajo se maneja la transformacin de
Box-Cox), T (Xt ), a la serie original {Xt }.
El pronstico ptimo de T (Xt+ ) est dado por su esperanza condicional a tiempo t. Es
decir, si el modelo para T (Xt ) puede escribirse como:
T(Xt )( ) = Et (T (Xt+ ))
= Et (1 T (Xt+ 1 ) + . . . + p+d T (Xt+ pd ) + t+ 1 t+ 1 . . . q t+ q )
= 1 Et (T (Xt+ 1 )) + . . . + p+d Et (T (Xt+ pd )) + Et (t+ ) 1 Et (t+ 1 ) . . .
q Et (t+ q )
212 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
donde
T (Xt+ j ) si j
Et (T (Xt+ j )) =
T (Xt )( j) si j<
y
( r ) 1
h i2
1 2(1)
T(Xt )( ) V art [et ( )]
2 + 1 si < 1, 6= 0
2
ct, ( ) =
n o
exp V art [et ( )]
si =0
2
A partir de este factor, el pronstico aproximadamente insesgado de Xt+ est dado por:
t ( ) = Et {T 1 [T (Xt )( )]}
X
= T 1 [T(Xt )( )]
ct, ( ) (3.8.17)
Como ejemplo tomemos la serie de ventas mensuales (kilolitros) de vino tinto por parte
de viedos australianos desde enero de 1980 a octubre de 1991. Dicha serie se muestra en la
Figura 3.9.1. Observamos un patrn estacional con picos en los meses de julio de cada ao,
as como declives en los meses de enero de cada ao.
Para hacer frente a cambios estacionales debemos introducir polinomios tanto de promedios
mviles como autorregresivos que tomen en cuenta dicho factor estacional. La parte meramente
estacional de un proceso puede ser modelada por un proceso ARM A(P, Q)s , el cual toma la
forma de la ec. 3.9.1:
P (B s ) = 1 1 B s 2 B 2s . . . P B P s
Q (B s ) = 1 + 1 B s + 2 B 2s + . . . + Q B Qs
Ahora bien, el proceso ARM A(P, Q)s solamente representa la parte estacional de un pro-
ceso mucho ms amplio. Para modelar dicho proceso, es decir, aquel que conoceremos como
ARIM A(p, d, q) (P, D, Q)s o bien SARIM A(p, d, q) (P, D, Q), deberemos incluir la parte
tendencial y estocstica de los modelos ARMA(p,q) vistos a lo largo de este captulo.
Pues bien, el modelo ARIM A(p, d, q) (P, D, Q)s , modelo multiplicativo estacional auto-
rregresivo e integrado de promedios mviles, est dado por:
(B) = 1 1 B 2 B 2 . . . p B p
P (B s ) = 1 1 B s 2 B 2s . . . P B P s
(B) = 1 + 1 B + 2 B 2 + . . . + q B q
Q (B s ) = 1 + 1 B s + 2 B 2s + . . . + Q B Qs
Por ejemplo, si los datos son anuales, entonces s = 12 y elaboramos la sucesin de autoco-
rrelaciones muestrales parciales (PACF) y la sucesin de autocorrelaciones muestrales (ACF)
de manera anual y como en un modelo ARMA(p,q) usual utilizamos las bandas de conanza
correspondientes para decidir el modelo que se va a elegir.
Esto es, vemos los valores de la sucesin de autocorrelaciones muestrales parciales (PACF)
en 1s , 2s , 3s , etc. y a partir de all obtenemos P viendo a partir de qu valor todas las autoco-
rrelaciones quedan dentro de las bandas. Por ejemplo si P =4 y s = 12 debiera ocurrir que los
valores de la sucesin de autocorrelaciones muestrales parciales (PACF) se salen de las bandas
a los 12, 24, 36 y 48 meses y a partir de all ya no se salen. Similarmente, para la sucesin de
autocorrelaciones muestrales (ACF).
Ejemplo 3.9.1 Se realizar a continuacin un estudio para modelar y pronosticar los datos del
nivel de lluvia dados de forma trimestral en Port-Harcourt, Nigeria, a partir del primer trimestre
del ao 1971 hasta el ltimo trimestre del ao 2008. Los datos se muestran en la Figura 3.9.2.
Observamos que la serie carece de tendencia por lo que slo aplicaremos el operador (s )D para
ltrar la estacionalidad. El cdigo en R est dado por:
Ahora bien, como ya sabemos, la funcin di sirve para obtener la serie diferenciada, lag
indica el retraso, por ejemplo, para un modelo con estacionalidad s podramos usar lag de
s y dierences indica el orden de las diferencias, es decir, el nmero de veces que se est
diferenciando. Obtenemos la serie con lag de 4, ya que la serie es trimestral, para tratar de
eliminar estacionalidad. No olvidemos restar la media de los datos. La Figura 3.9.3 representa
la serie sin estacionalidad y centrada:
Figura 3.9.3: Figura que muestra el nivel de lluvia sin la presencia de estacionalidad
216 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
Ya que hemos logrado eliminar la estacionalidad y hemos centrado nuestra nueva serie,
pasamos ahora a obtener la sucesin de autocorrelaciones muestrales (ACF) y a la sucesin de
autocorrelaciones muestrales parciales (PACF), las cuales mostramos en la Figura 3.9.4. El
cdigo correspondiente viene dado por:
0 5 10 15 20
Lag
5 10 15 20
Lag
Call:
arima(x = Serie, order = c(0, 0, 0), seasonal = c(2, 1, 0), include.mean = FALSE)
Coefficients:
sar1 sar2
-0.693 -0.5548
s.e. 0.069 0.0684
Podemos hacer predicciones sobre los siguientes 4 aos e incluso gracarlos. La Figura
3.9.5 muestra dicha prediccin. El cdigo para la prediccin ser entonces:
> Lluvia.pred<-predict(Modelolluvia,n.ahead=16)
Figura 3.9.5: Prediccin del nivel de lluvia en Port-Harcourt para los aos 2009-2012
Ahora pasemos a vericar los supuestos del modelo. Se usa la funcin tsdiag, mostrada en la
Figura 3.9.6. En ella, observamos que las autocorrelaciones pertenecen a un ruido blanco ya
que no se salen de las bandas de conanza. Adems todos los p-values del estadstico de Ljung
y Box estn por arriba de un nivel de signicancia de 0.05 hasta el lag 10 al menos, as que
no rechazo la hiptesis nula de que las autocorrelaciones conjuntamente son cero.
218 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
> tsdiag(Modelolluvia)
> par(mfrow=c(1,2))
> residuos<-Modelolluvia$residuals
> plot(residuos,xlab="Tiempo",ylab="Residuos",main="Grfica de los residuos",pch=19)
> truehist(residuos,col=rainbow(4),border="white",
main="Histograma de los residuos",xlab="Residuos",ylab="Frecuencia
Relativa",col.main="black",col.axis="black",col.lab="black",prob=TRUE,ylim=c(0,0.003))
> curve(dnorm(x,mean(residuos),sd(residuos)),add=T,col="black")
Standardized Residuals
3
2
1
1 0
3
ACF of Residuals
1.0
0.6
ACF
0.2
0.2
0 1 2 3 4 5
Lag
2 4 6 8 10
lag
Figura 3.9.6: Figura que muestra la vericacin de los supuestos del modelo
3.9. MODELOS SARIMA 219
0.0030
200 400
Frecuencia Relativa
Residuos
0.0015
0
400
0.0000
1970 1980 1990 2000 2010 400 0 200 400
Tiempo Residuos
Como siempre, debemos corroborar el supuesto de normalidad con pruebas formales; en este
caso utilizaremos la prueba de Lilliefors(Kolmogorov Sminrov) y la prueba Shapiro-Wilk, las
cuales estn dadas en R por el siguiente cdigo:
> library(nortest)
> lillie.test(residuos)
data: residuos
D = 0.0385, p-value = 0.8412
> shapiro.test(residuos)
data: residuos
W = 0.9959, p-value = 0.9489
Los datos cumplen los supuestos y el modelo SARIMA(0,0,0)(2,1,0) es un buen modelo para
explicar y pronosticar el nivel de lluvia en Port-Harcourt, Nigeria.
> kpss.test(Serie)
data: Serie
KPSS Level = 0.095, Truncation lag parameter = 2, p-value = 0.1
> adf.test(Serie,alternative="stationary")
data: Serie
Dickey-Fuller = -5.1027, Lag order = 5, p-value = 0.01
alternative hypothesis: stationary
[1] 1
Evidentemente, nadie considera que los precios de los activos nancieros evolucionan
independientemente de los mercados alrededor de stos y, por ello, cabra esperar que
existan otras variables que contengan informacin relevante para la volatilidad de la serie.
Pensemos por un momento que xt es el precio de una accin a tiempo t. Entonces, denimos
al rendimiento yt a tiempo t como:
xt xt1
yt = (3.10.1)
xt1
El modelo ARCH ms sencillo, es aquel que modela los rendimientos de la siguiente forma:
yt = t t
(3.10.2)
t2 = 0 + 2
1 yt1
2
yt |yt1 N (0, 0 + 1 yt1 ) (3.10.3)
Ahora bien, para estimar los parmetros del modelo ARCH(1) debemos obtener la verosi-
militud condicional de nuestras observaciones y2 , y3 , . . . , yn dado y1 , es decir:
n
Y
L(0 , 1 |y1 ) = f0 ,1 (yt |yt1 ) (3.10.4)
t=2
n n
yt2
1X 2 1X
l(0 , 1 ) = ln(0 + 1 yt1 )+ 2
(3.10.5)
2 t=2 2 t=2 0 + 1 yt1
El clculo de la estimacin de los parmetros del modelo deber realizarse por tanto, por
mtodos numricos.
222 CAPTULO 3. MODELOS PARA SERIES DE TIEMPO UNIVARIADAS.
El modelo ARCH(1) puede extenderse a un modelo general, ARCH(m), a saber, dado por:
yt = t t
(3.10.6)
t2 = 0 + 2
1 yt1 + 2
2 yt2 + ... + 2
m ytm
Para la estimacin de los parmetros del modelo ARCH(m), de nuevo se utiliza la verosi-
militud condicional de nuestras observaciones ym+1 , ym+2 , . . . , yn dados y1 , y2 , . . . , ym , es decir:
n
Y
L(0 , 1 , . . . , m |y1 , y2 , . . . , ym ) = f0 ,1 ,...,m (yt |yt1 , yt2 , . . . , ytm ) (3.10.7)
t=m+1
donde
2 2 2
yt |yt1 , yt2 , . . . , ytm N (0, 0 + 1 yt1 + 2 yt2 + . . . + m ytm ) (3.10.8)
Una generalizacin de los modelos ARCH son los modelos GARCH. Por ejemplo, un
modelo GARCH(1,1) para los rendimientos est dado por:
yt = t t
(3.10.9)
t2 = 0 + 2
1 yt1 + 2
1 t1
yt = t t
(3.10.10)
m
X r
X
t2 = 0 + 2
j ytj + 2
j tj
j=1 j=1
La estimacin por mxima verosimilitud condicional es similar a la expuesta para los mo-
delos ARCH(m), donde la verosimilitud condicional dada por la es el producto ec. 3.10.7
2 2
de densidades N (0, t ) con t dada por la ec. 3.10.10
y se condiciona sobre las primeras
2 2 2
max(m, r) observaciones, con 1 = 2 = . . . = r = 0. Una vez obtenidos los estimadores para
los parmetros, el modelo se puede utilizar para realizar predicciones sobre la volatilidad a un
paso, a saber:
m
X r
X
2
t+1 =
0 + 2
j yt+1j + j 2
t+1j (3.10.11)
j=1 j=1
2
Como conclusin, una vez hecho el pronstico para la volatilidad,
t+1 , podemos realizar el
pronstico de la observacin yt+1 con base en la ec. 3.10.10 y una simulacin a un paso del
conjunto {t }.
Captulo 4
Modelos de Regresin Dinmica
4.1. Introduccin
En este captulo introduciremos nociones bsicas del modelo de espacio de estados y su uso
en el anlisis de series de tiempo. Veremos, en particular, los modelos de regresin dinmica, los
cuales sern nuestro tema de inters en este captulo. Comenzaremos con el modelo de espacio
de estados para al nal, abordar de manera extensiva el modelo de regresin dinmica. Para
darnos una idea de las posibles aplicaciones de los modelos de espacio de estados considere-
mos la Figura 4.1.1, la cual representa el nmero de pasajeros mensuales de cierta aerolnea
internacional desde el mes de enero de 1949 hasta el mes de diciembre de 1960.
Figura 4.1.1: Figura que muestra el nmero de pasajeros de cierta aerolnea internacional
Esta serie posee tanto tendencia como estacionalidad y un pequeo incremento en la va-
riabilidad de los datos alrededor de la media cada ao. Podemos realizar, como en el captulo
anterior, un anlisis exhaustivo de dicha serie obteniendo un modelo SARIM A(1, 1, 1)(0, 1, 0)12 .
Como bien sabemos, el anlisis de series de tiempo se basa en la posibilidad de encontrar re-
gularidades en el comportamiento de una serie, para con ello, y manteniendo este supuesto a
lo largo del tiempo, predecir el comportamiento futuro. Pero, qu sucede con series como la
mostrada en la Figura 4.1.2, la cual representa el consumo trimestral de gas en el Reino Unido,
desde el ao 1960 y hasta el ao 1986? Observamos un cambio sustancial en la estacionalidad.
223
224 CAPTULO 4. MODELOS DE REGRESIN DINMICA
0 20 40 60 80
Tiempo
Figura 4.1.3: Figura que muestra el ndice de utilidades del Dow Jones
0 50 100 150
Tiempo
O bien, con la Figura 4.1.3, que muestra el ndice de utilidades del Dow Jones desde el
28 de agosto de 1972 hasta el 18 de diciembre del mismo ao. An ms irregular es la serie
mensual del ndice de precios al consumo (IPC) a partir de enero del ao 2000 y hasta marzo
del ao 2014, gracada en la Figura 4.1.4. Esta serie claramente no es estacionaria y de hecho
es bastante irregular. Comenzamos a sentir la necesidad de un modelo mucho ms exible, el
cual no asuma un patrn regular pero que incluya cambios radicales en su estructura.
El anlisis de series de tiempo con modelos ARMA(p,q) necesita, la mayora de las ocasiones,
de transformaciones en los datos para volverlos estacionarios. Pero, qu pasara si encontramos
algn modelo que nos permita analizar de manera eciente unos datos que posean inestabili-
dad en el nivel de tendencia, inestabilidad en su varianza y que tenga cambios estructurales
radicales? Claramente estaramos mucho ms satisfechos.
Los modelos de espacio de estados incluyen a los modelos ARMA(p,q) como caso particu-
lar, pero pueden aplicarse a series de tiempo sin la necesidad de aplicar alguna transformacin
preliminar. Pero existe todava una razn ms poderosa para extender nuestro estudio a los
modelos de espacio de estados. Cuando trabajamos con series econmicas o nancieras, los mo-
delos de series de tiempo univariados se vuelven limitados para analizar dichas series. Expertos
encargados de comprender series econmicas querrn, por ejemplo, agregar variables macroeco-
nmicas relevantes que puedan llegar a inuir en la variable de inters. Un modelo de series de
tiempo univariado puede satisfacer las necesidades del investigador al analizar series como la
que se muestra en la Figura 4.1.4, pero dicho modelo puede ser ineciente e incapaz al realizar
predicciones si no tomamos en cuenta todos aquellos factores polticos, sociales y econmicos
que pueden llegar a interactuar con la variable de estudio. Antes de comenzar de lleno el tema
de este captulo, veamos algunos conceptos bsicos relacionados con la Inferencia Bayesiana
que sern tiles en la presentacin de estos modelos.
f (y|)f ()
f (|y) = (4.2.2)
f (y)
Z
f (y|)f () d para continuo
f (y) = E(f (y|)) = C 1 = X
f (y|)f () para discreto
La ec. 4.2.2 o bien la ec. 4.2.3 es conocida como el Teorema de Bayes. Veamos algunos
trminos involucrados en dicho teorema. f () nos habla de toda aquella informacin que po-
seamos de sin tener informacin alguna proporcionada por unos datos; se le conoce como la
distribucin a priori de . Similarmente, f (|y) la podemos interpretar como todo aquello que
se conoce de dada la informacin obtenida de unos datos; se le conoce como la distribucin a
posteriori de . La constante C es usada simplemente para asegurar que f (|y) sume o integre
uno.
Ahora bien, dado el vector de informacin y , f (|y) puede ser visto como funcin de .
Cuando es as, se le conoce como la funcin de verosimilitud de dado y y puede escribirse
como l(|y). Por tanto, la ec. 4.2.3 puede escribirse como:
Qu queremos decir con esto? Pues bien, el Teorema de Bayes nos dice que la distribucin
a posteriori de est dada por el producto entre la funcin de verosimilitud y la distribucin
a priori de . La funcin de verosimilitud modica (al agregar la informacin de unos datos)
el conocimiento que se tena de , es decir, es toda aquella informacin que obtenemos para
dados unos datos.
l(|y)
Z (4.2.5)
l(|y) d
y esto se realiza para que el rea, volumen o hipervolumen debajo de la curva sea igual
ec. 4.2.4 nos ayuda a combinar informacin previa con
a uno. Por otro lado, es claro que la
nueva, es decir, el Teorema de Bayes nos permite actualizar continuamente la informacin de
, mientras ms observaciones se vayan registrando. Para darnos una mejor idea de lo anterior,
imaginemos una observacin inicial y1 , entonces, al aplicar la ec. 4.2.4 obtenemos:
Esta ltima expresin es de la misma forma que la ec. 4.2.6 pero f (|y1 ), la distribucin
a posteriori de dado y1 , jugar ahora el papel de la distribucin a priori de . Claramente,
este proceso puede repetirse las veces que se desee.
4.2. INFERENCIA BAYESIANA 227
" 2 # " 2 #
1 800 1 700
1 2 20 1 2 80
fA () = e y fB () = e (4.2.9)
20 2 80 2
El panel (a) de la Figura 4.2.1 muestra las correspondientes funciones de densidad para
el actuario A y para el actuario B. Supongamos que existe un mtodo insesgado para esti-
mar parmetros y se realiza una observacin, y, con este mtodo, arrojando la distribucin,
y| N (, 402 ). Si esta observacin es tomada en cuenta, la verosimilitud estandarizada tiene
distribucin Normal centrada en ,
y desviacin estndar igual a 40. Veamos cmo se obtiene
2
la distribucin de f (|y). Supongamos que a priori N (0 , 0 ), es decir:
" 2 #
1 0
1 2 0
f () = e < < (4.2.10)
0 2
" 2 #
1 xy
2 1
l(|y) e (4.2.11)
donde xy es una funcin del vector de observaciones, y . Un valor particular de xy , por ejem-
plo, podra ser el promedio del conjunto de observaciones y1 , y2 , . . . , yn , o bien el mismo vector
de observaciones, y. La distribucin a posteriori de , de dado el vector de observaciones,
ser:
l(|y)f () s(|y)
f (|y) = Z =Z (4.2.12)
l(|y)f () d s(|y) d
228 CAPTULO 4. MODELOS DE REGRESIN DINMICA
donde
( " 2 2 #)
1 0 xy
+
2 0 1
s(|y) e (4.2.13)
AB
Haciendo uso de la identidad A(z a)2 + B(z b)2 = (A + B)(z c)2 + A+B
(a b)2 con
1
c = A+B (Aa + Bb) podemos escribir:
2 2
0 xy
+ = (02 + 12 )(
)2 + d (4.2.14)
0 1
donde
1
= ( 2 0 + 12 xy ) (4.2.15)
02 + 12 0
(02 + 12 )(
)2 d
s(|y) e 2 2 (4.2.16)
y adems:
(02 + 12 )(
)2 d
Z Z
l(|y)f () d = e 2 2 d (4.2.17)
d 2
-
= e 2 1
(02 + 12 ) 2
de donde:
1 (02 + 12 )(
)2
(02 + 12 ) 2
f (|y) = e 2 (4.2.18)
2
s !
1
es decir, f (|y) N
, .
0 + 12
2
Regresando a nuestro ejemplo, supongamos que el resultado de una sola observacin est
dada por y = xy = 750. La funcin de verosimilitud tendr distribucin Normal con media
2
y = 750 y desviacin estndar 1 = 40; es decir, l(|y) N (750, 40 ). Dicha funcin se
muestra en el panel (b) de la Figura 4.2.1.
4.2. INFERENCIA BAYESIANA 229
La opinin a posteriori del actuario A estar dada por fA (|y) con media
y desviacin
2 dados por:
estndar
1 1 1 1
= 1 1 800 + 2 750 = 790 y 2 =
1 1 = 320
202
+ 402
202 40 202
+ 402
1 1 1 1
= 1 1 700 + 2 750 = 740 y 2 =
1 1 = 1280
802
+ 402
802 40 802
+ 402
El panel (c) de la Figura 4.2.1 muestra tanto fA (|y) como fB (|y) cuando y = 750.
Observamos que despus de agregar la primer observacin, las opiniones a posteriori de los
actuarios acerca de son mucho ms parecidas aunque todava dieren.
" n
#
1 X
n (yi )2
1 2 2 i=1
l(|y) = e (4.2.19)
2
n
X n
X
(yi )2 = (yi y)2 + n( y)2 (4.2.20)
i=1 i=1
n
X
Como (yi y)2 es una constante que no depende de , la funcin de verosimilitud ser:
i=1
!2
1 y
2
l(|y) e n
(4.2.21)
0.030
0.008
Distribucin a priori act. B
0.020
0.004
0.010
0.000
0.000
300 400 500 600 700 800 900 400 500 600 700 800 900 1000
(a) Distribucin a priori para el actuario A y B (b) Verosimilitud estandarizada para y=750
0.030
0.10
0.06
0.04
0.010
0.02
0.000
0.00
300 400 500 600 700 800 900 700 720 740 760 780 800
(c) Distribucin a posteriori para el actuario A y B (d) Verosimilitud estandarizada para 100 obs.
Figura 4.2.1: Figura que muestra la distribucin a priori y a posteriori de los actuarios
Obtenemos, dado y = 770, que la opinin a posteriori del actuario A estar dada por fA (|y)
con media 771.2 y desviacin estndar igual a 3.922, mientras que la opinin a posteriori del
actuario B estar dada por fB (|y) con media 769.8 y desviacin estndar igual a 3.995. Estas
dos distribuciones se muestran en la Figura 4.2.2, observando que, despus de 100 observa-
ciones, el actuario A y el actuario B tendrn casi la misma opinin acerca de la distribucin de
.
Con este ejemplo hemos querido explicar la teora vista anteriormente, haciendo hincapi
en el papel que desempea la funcin de verosimilitud; gracias a ella, a la informacin que
nos proporciona, la opinin o distribucin a posteriori de ambos actuarios cambia, acercndose
cada vez ms, conforme aumenta la informacin disponible, a la realidad.
4.2. INFERENCIA BAYESIANA 231
0.10
0.08
Figura 4.2.2: Figura que muestra la distribucin a posteriori del actuario A y B | y = 770
232 CAPTULO 4. MODELOS DE REGRESIN DINMICA
es decir, la ec. 4.3.1 implica que la informacin acerca de Yt dado toda la informacin que
nos pueda dar Y1 , Y2 , . . . , Yt1 es exactamente la misma que nos da simplemente la observacin
Yt1 . Existen otras formas equivalentes de expresar esta propiedad; la que nos interesa ser:
En los modelos de espacio de estados ocuparemos a {t }, serie de tiempo que nos ayudar
en la tarea de especicar la distribucin de otra serie de tiempo conocida como {Yt }.
Yt = Ft t + t t Nm (0, t ) (4.3.3)
t = Gt t1 + t t Np (0, t ) (4.3.4)
Yt = t + t t N (0, ) (4.3.5)
t = t1 + t t N (0, ) (4.3.6)
Usted y su amigo no quedaron en una puerta especca como lugar de encuentro. Usted
tiene por ejemplo, la opcin de quedarse en la puerta X y esperar a que su amigo recorra todas
las puertas de entrada hasta encontrarlo. En este panorama usted, o ms bien, su posicin,
{t }, es la misma t. El otro panorama es que usted se mueva tambin buscando a su amigo,
por lo cual, su posicin, {t }, cambiar con el tiempo.
El primer escenario puede ser modelado modicando la ec. 4.3.5, de la siguiente forma:
Yt = + t t N (0, 2 ) (4.3.7)
Yt = t + t t N (0, )
t = t1 + t1 + t,1 t,1 N (0, 2 ) (4.3.8)
Los modelos lineales generalizados mixtos pueden ser vistos como una generalizacin del
modelo de regresin lineal permitiendo que los coecientes del modelo de regresin varen con
el paso del tiempo.
234 CAPTULO 4. MODELOS DE REGRESIN DINMICA
con t,j , la evolucin temporal, dada por t,j = t1,j + t,j , donde 0,j y 1,j son variables
aleatorias independientes Gaussianas. La ec. 4.3.9, corresponde a la ecuacin de observacin
de un modelo dinmico lineal y cuya ecuacin del sistema est dada por:
t = Gt t1 + t t N2 (0, t ) (4.3.10)
con t matriz diagonal de tamao 2x2 tal que sus elementos son las varianzas de 0,j y 1,j .
t,0 1 0 2
Este modelo es un modelo dinmico con t = , Gt = , F t = 1 xt y = .
t,1 0 1
El modelo de regresin lineal simple, Yt = + 1 xt + t , puede ser incorporado a los
modelos dinmicos lineales, tomando simplemente a Gt como la matriz identidad (Gt = I ),
t2 = 2 y t = 0.
La ec. 4.3.9 puede ser generalizada para el modelo de regresin lineal mixto mltiple como:
t = Gt t1 + t t Np (0, t ) (4.3.12)
0 0
donde claro, t = t,0 t,1 . . . t,m , Ft = xt = xt,1 xt,2 . . . xt,m , son todas las m
variables explicativas incluidas en el modelo a tiempo t y en donde si se incluye un trmino
constante, x1,t vale 1. Como primer opcin tomaremos a la matriz Gt como la matriz identidad
mientras que la matriz t ser una matriz diagonal con los coecientes de la regresin como
elementos en la diagonal de la matriz. Finalmente, t = 2 .
Nuestro siguiente ejemplo consistir en representar, con un modelo dinmico lineal, a los
modelos ARMA(p,q) y ARIMA(p,d,q). Comencemos con los modelos ARMA(p,q), los cuales
supondremos estacionarios y centrados.
Petris et al. (2009) utiliza la siguiente representacin para modelos ARMA(p,q), en los cuales
se supone que el ruido blanco es Gaussiano y donde los parmetros {1 , 2 , . . . , p , 1 , 2 , . . . , q }
son tales que el proceso {Yt } sea estacionario:
p q
X X
Yt = + j (Ytj ) + j tj + t (4.3.13)
j=1 j=1
4.3. MODELOS DE ESPACIO DE ESTADOS 235
r
X r1
X
Yt = j Ytj + j tj + t (4.3.14)
j=1 j=1
Yt = Ft t (4.3.15)
= 0 y = RR0 2 = 2 (1 + 12 + 22 + . . . + r1
con
2
), la varianza del proceso de promedios
mviles. = RR concuerda con lo obtenido en la ec. 3.3.11. De la ecuacin de observacin,
0 2
Veamos un caso particular de los procesos ARMA(p,q), a saber ser el caso de los modelos
AR(p). Suponiendo = 0, un modelo AR(p) est dado por la
0 ec. 3.4.14 en la cual, el proceso
{t } W N (0, 2 ). Sean
t = 1,t 2,t 3,t . . . p,t , = diag 2 0 . . . 0 , = 0,
F = 1 0 0 . . . 0 y:
1 1 0 0
2 0 1 0
3 0 0 0
G = ..
. . .
. . . .
. . .
r1 0 0 1
r 0 0 0
El sistema de ecuaciones puede denirse como en la ec. 4.3.17 o bien de la siguiente forma:
1,t 1 1 0 0 t
2,t 2 0 1 0 0
3,t 3 0 0 0 0
t+1 = .. .. . + .
. .
. . . . . .
. . .
.
p1,t p1 0 0 1 0
p,t p 0 0 0 0
Al desarrollar como en la ec. 4.3.17 obtenemos Yt = 1,t = 1 Yt1 +2 Yt2 +. . .+p Ytp +t ,
la representacin de un proceso AR(p).
Vamos a diferenciar tres distintos problemas, a saber, aquellos que involucran ltros, suavi-
zamiento y pronstico. Para comprender el trmino de ltro imaginemos la siguiente situacin.
Usted se encuentra trabajando en la Bolsa Mexicana de Valores, el da est por terminar y
usted, con base en la informacin que obtuvo ese da, realiza un pronstico para el precio de
una accin de cierta compaa. Usted termina su trabajo, se retira y al da siguiente regresa
y observa su pronstico. Debera usted quedarse con tal pronstico, hecho con informacin
del da anterior o debera usted tomar en cuenta lo que ha sucedido, es decir, los cambios que
ocurrieron en el mercado, desde el da de ayer hasta el momento en que volvi a observar su
pronstico? Claramente, debemos tomar en cuenta todo aquel acontecimiento que haya ocurrido
en este lapso de tiempo, por muy corto que este sea.
El ltro es un procedimiento que nos ayuda a estimar nuestro vector de estados, usando
la informacin que tengamos disponible hasta el presente, y actualizar nuestros estimados y
pronsticos conforme nueva informacin vaya surgiendo. El ltro de Kalman nos da la frmula
para pasar de P(t |y1 , y2 , . . . , yt ) a P(t+1 |y1 , y2 , . . . , yt+1 ).
4.3. MODELOS DE ESPACIO DE ESTADOS 237
Pasemos ahora a la parte prctica. R nos da la opcin de manejar modelos dinmicos lineales.
Se encuentran dentro del paquete dlm y se manejan como objetos de la clase dlm. Dicho
objeto se maneja como una lista con elementos m0 , C0 , F F , GG, V = , W = , JF F , JV ,
JGG, y JW . Los primeros seis atributos corresponden a modelos dinmicos lineales donde no
vara el tiempo, mientras que los cuatro restantes se utilizan para modelos de tiempo variante.
Los comandos as.dlm e is.dlm nos ayudarn a probar si cierto modelo representa un modelo
dinmico lineal, es decir, estos comandos vericarn todos aquellos requisitos subyacentes de la
ec. 4.3.3 y la ec. 4.3.4.
Entonces, para un modelo que no vara en el tiempo debemos especicar:
2. La matriz de transicin Ft = F F .
Yt = t + t t N (0, )
t = t1 + t t N (0, )
1400
1200
1000
Flujo anual del ro Nilo
Flujo
800
600
Figura 4.3.1: Figura que muestra el ujo anual del ro Nilo en los aos 1871-1970
Para especicar el modelo podramos utilizar la funcin dlm con los siguientes parmetros:
El ajuste, ltro y suavizamiento del modelo estn dados por el siguiente cdigo:
> NiloPolinomio<-dlmModPoly(order=1,dV=15100,dW=1468,m0=1100)
> NiloAjuste<-dlmFilter(Nilo,NiloPolinomio)
> NiloSuaviza<-dlmSmooth(NiloAjuste)
Para la funcin dlmModPoly se requiere especicar el orden del polinomio, el valor esperado
del vector de estados m0 , la varianza del vector de estados C0 , la varianza de la ecuacin de
observacin dV (que en este escrito dV = V = ) y la varianza de la ecuacin del sistema dW
(de la misma forma dW = W = ). Hemos seleccionado V = 15100 y W = 1468, ya que estos
valores son los estimadores mximo verosmiles para cada una de las varianzas. La Figura
4.3.2 muestra los datos originales as como el correspondiente ltro. La Figura 4.3.3 muestra
los datos originales con su respectivo suavizamiento. Finalmente, la Figura 4.3.4 muestra los
datos originales con el correspondiente pronstico a un paso.
Flujo anual
Filtro
Figura 4.3.2: Figura que muestra el ltro para el ujo anual del ro Nilo
240 CAPTULO 4. MODELOS DE REGRESIN DINMICA
1400
1200
1000
800
600
Flujo anual del ro Nilo
Flujo anual
Suavizamiento
Figura 4.3.3: Figura que muestra el suavizamiento para el ujo anual del ro Nilo
Recordemos que los valores dV y dW representan la varianza del proceso t y los elemen-
tos de la diagonal de la matriz del proceso t . Para terminar esta seccin, y como ejercicio,
modicaremos dV y dW para ver el cambio en el ltro y pronstico. Las instrucciones que
se presentan a continuacin sirven para estimar el ltro ya visto arriba y otro ltro con valo-
res = 15100 y = 150. Mostraremos posteriormente comparativos entre ambos modelos y
mediante el anlisis de residuos concluiremos qu modelo nos conviene seleccionar:
> NiloPolinomio2<-dlmModPoly(order=1,dV=15100,dW=150)
> NiloAjuste2<-dlmFilter(Nile,NiloPolinomio2)
4.3. MODELOS DE ESPACIO DE ESTADOS 241
1400
1200
1000
800
600
Flujo anual del ro Nilo
Flujo anual
Pronstico
Figura 4.3.4: Figura que muestra el pronstico a un paso para el ujo anual del ro Nilo
La Figura 4.3.5 muestra los datos originales junto con ambos ltros. La Figura 4.3.6
muestra los datos originales con ambos pronsticos a un paso.
Flujo anual
Filtro 1
Filtro 2
1880 1900 1920 1940 1960
Ao
Figura 4.3.5: Figura que muestra ambos ltros para el ujo anual del ro Nilo
4.3. MODELOS DE ESPACIO DE ESTADOS 243
1400
1200
1000
800
600
Flujo anual del ro Nilo
Flujo anual
Pronstico 1
Pronstico 2
1880 1900 1920 1940 1960
Ao
Figura 4.3.6: Figura que muestra ambos pronsticos a un paso para el ujo anual del Nilo
> Residuos<-residuals(NiloAjuste)
> qqnorm(Residuos$res,xlab="Residuos",ylab="Valores Esperados",
main="Grfica de Probabilidad Normal",pch=19,col="blue")
> qqline(Residuos$res,xlab="Residuos",ylab="Valores Esperados",
main="Grfica de Probabilidad Normal",col="red")
> truehist(Residuos$res,col=rainbow(4),border="white",
main="Histograma de los residuos",xlab="Residuos",ylab="Frecuencia
Relativa",col.main="black",col.axis="black",col.lab="black",prob=TRUE,ylim=c(0,0.4))
> curve(dnorm(x,mean(Residuos$res),sd(Residuos$res)),add=T,col="black")
244 CAPTULO 4. MODELOS DE REGRESIN DINMICA
0.4
2
Frecuencia Relativa
Valores Esperados
0.3
1
0.2
0
3 2 1
0.1
0.0
2 1 0 1 2 3 2 1 0 1 2 3
Residuos Residuos
Figura 4.3.7: Figura que muestra grcos de residuos para el primer modelo
> shapiro.test(Residuos$res)
data: Residuos$res
W = 0.9932, p-value = 0.8984
> lillie.test(Residuos$res)
data: Residuos$res
D = 0.0557, p-value = 0.6243
> Residuos2<-residuals(NiloAjuste2)
> qqnorm(Residuos2$res,xlab="Residuos",ylab="Valores Esperados",
main="Grfica de Probabilidad Normal",pch=19,col="blue")
> qqline(Residuos2$res,xlab="Residuos",ylab="Valores Esperados",
main="Grfica de Probabilidad Normal",col="red")
> truehist(Residuos2$res,col=rainbow(4),border="white",
main="Histograma de los residuos",xlab="Residuos",ylab="Frecuencia
Relativa",col.main="black",col.axis="black",col.lab="black",prob=TRUE,ylim=c(0,0.2))
> curve(dnorm(x,mean(Residuos2$res),sd(Residuos2$res)),add=T,col="black")
4.3. MODELOS DE ESPACIO DE ESTADOS 245
Frecuencia Relativa
Valores Esperados
2
0
2
4
6
2 1 0 1 2 8 6 4 2 0 2 4
Residuos Residuos
Figura 4.3.8: Figura que muestra grcos de residuos para el segundo modelo
> shapiro.test(Residuos2$res)
data: Residuos2$res
W = 0.9904, p-value = 0.6934
> lillie.test(Residuos2$res)
data: Residuos2$res
D = 0.0594, p-value = 0.5201
Y = + 1 X + (4.4.1)
Podemos, a partir de este modelo, combinar el modelo de regresin lineal simple con
errores ARIMA(p,d,q), pero nos gustara primero generalizarlo para los modelos de regresin
lineal mltiple. El modelo regresin lineal mltiple est dado por:
donde claro, Yt es la llamada variable respuesta, t W N (0, 2 ) (recuerde que los errores
en los modelos de regresin lineal -simple o mltiple- en principio, son variables aleatorias no
2
correlacionadas con media 0 y varianza aunque tambin podemos suponer cierta distribucin
en los mismos) y el conjunto {Xk,i } son las k-variables explicativas del modelo en cada tiempo
i. Para cada variable explicativa le corresponde un coeciente del conjunto {k }, los cuales
nos miden el efecto que tiene cada variable explicativa, Xk,i , despus de haber considerado el
efecto total de las dems variables explicativas. En palabras, los coecientes {k } nos miden la
aportacin de cada variable explicativa al modelo en general. Para un mejor entendimiento del
modelo de regresin lineal mltiple, consulte Montgomery y Peck (1992).
Ahora, con mayor razn podemos comprender por qu en el captulo 1 incluimos la prueba
de Durbin-Watson, ya que sta nos ser de gran ayuda en esta seccin para corroborar la
correlacin del conjunto {t }. Deseamos, a partir de ahora, que los residuos estn autocorre-
lacionados; para lograr este acometido, renombramos t como t de tal forma que t seguir
un proceso ARIMA(p,d,q). Si, por ejemplo, suponemos que t sigue un proceso ARIMA(1,1,1)
podemos escribir la ec. 4.4.2 como:
con
y t W N (0, 2 ).
4.4. MODELOS DE REGRESIN DINMICA 247
Notemos la existencia de dos errores, uno perteneciente al modelo de regresin lineal mltiple
y otro perteneciente al modelo ARIMA(p,d,q). Solamente los errores t los supondremos ruido
blanco. Antes de proseguir con la estimacin de los parmetros de los modelos de regresin
dinmica, relacionemos estos modelos con los modelos de espacio de estados. Consideremos un
ejemplo sencillo para comprender dicha relacin. Tomemos un modelo de regresin lineal con
una variable explicativa y errores que siguen un modelo AR(1). Este modelo particular puede
ser visto como:
Y t = + 1 X t + t
t = t1 + t
donde Xt denota a la variable explicativa y el conjunto {t } denota un ruido blanco. Nuestro
modelo ejemplo se puede expresar en un modelo de espacio de estados de la siguiente forma:
Yt = 1 Xt 1 t + t
1 0 0 0
t = 0 1 0 t1 + 0
0 0 t1
0
donde t = 1 t y t = t . Adems la varianza de t = = 2 y es una matriz
con ceros en todas sus entradas excepto en la entrada (3, 3) en donde tomara el valor de 2 .
n
X
S(
, 1 ) = 1 Xt )2
(Yt (4.4.5)
t=1
donde
Yt = + 1 Xt + t , t = 1, 2, ..., n. (4.4.6)
Recordamos tambin haber denido al t-simo residuo como la diferencia entre el valor
observado Yt y su correspondiente valor ajustado, Yt . Es decir, t = Yt Yt = Yt (
+ 1 Xt ),
t = 1, 2, ..., n.
Con esto, el criterio de mnimos cuadrados se convierte simplemente en minimizar la suma
de los residuos al cuadrado. Claramente, este procedimiento puede aplicarse de la misma forma
para el modelo de regresin lineal mltiple dado por la ec. 4.4.3. Los errores a minimizar sern
aquellos dados por el conjunto {t } ya que si minimizamos los errores t apareceran varios
inconvenientes, ya que no estamos tomando en cuenta la autocorrelacin en los errores.
248 CAPTULO 4. MODELOS DE REGRESIN DINMICA
1. Los estimadores para el conjunto {k } dejan de ser los mejores estimadores lineales in-
sesgados, ya que no toda la informacin ha sido tomada a consideracin.
2. Pruebas para corroborar la signicancia de los parmetros estimados dejan de ser correc-
tas. Esto se traduce en que el p-value para los parmetros estimados ser muy pequeo,
implicando, de acuerdo con lo que sabemos, que dichos parmetros pueden ser de alta
signicancia al explicar al modelo, cuando en realidad no lo sean. Este evento es conocido
como regresin espuria.
3. El criterio de informacin de Akaike corregido o bien el criterio de informacin de Akaike
sin corregir dejan de ser una gua el para la eleccin del mejor modelo al momento de
realizar predicciones.
n X
X n
G = w i w j i j (4.4.7)
i=1 j=1
donde wi , wj son pesos relacionados con el patrn en las autocorrelaciones. Observe que en
lugar de sumar sobre los errores t al cuadrado, tomaremos en cuenta tambin los productos
cruzados en los mismos.
El mtodo de mxima verosimilitud resulta mucho ms complejo pero los resultados son
similares a los obtenidos con el mtodo de mnimos cuadrados generalizado. Paquetes esta-
dsticos calcularn dichos pesos de manera automtica si nosotros especicamos un modelo
ARIMA(p,d,q) inicial. Dicho modelo inicial se explica con todo detalle en la siguiente subsec-
cin.
Tomemos nuevamente un proceso ARIMA(1,1,1) dado tanto por la ec. 4.4.3 como por la
ec. 4.4.4 0 0
. Si tomamos diferencias, es decir, yt = yt yt1 , xt,i = xt,i xt1,i y t0 = t t1 ,
obtenemos el modelo dado por:
con
En este captulo trabajaremos exclusivamente con cuatro series. La primera de ellas nos
habla del cambio porcentual en el ingreso y gasto en consumo personal en Estados Unidos desde
el primer cuatrimestre del ao 1970 hasta el ltimo cuatrimestre del ao 2010. La Figura 4.4.1
muestra ambas series.
Gasto en consumo
4
Ingresos
2
0
4
Figura 4.4.1: Figura que muestra los cambios porcentuales del ingreso y gasto en U.S.A.
250 CAPTULO 4. MODELOS DE REGRESIN DINMICA
La librera a utilizar es fpp: Data for forecasting: principles and practice. En ella podemos
encontrar los datos correspondientes a nuestro primer ejemplo. La versin mnima de R a utilizar
ser la 3.0.3. El cdigo correspondiente en R para la grca de ambas series est dado por:
Es claro que estas dos variables, ingreso y gasto en consumo, estn altamente relacionadas.
A mayor ingreso, mayor cantidad de dinero se destina al consumo de todo tipo de bienes. Pero
atencin, cuando aumenta o disminuye el ingreso, el cambio en el gasto en consumo no se da, a
veces, de manera inmediata. Pensemos por un momento en una disminucin del ingreso debido
por ejemplo a la jubilacin del jefe de familia despus de varios aos de trabajo. Claramente,
la familia se tomar algunos meses en ajustar sus gastos dado el nuevo presupuesto familiar,
es decir, el cambio en el gasto en consumo no se dar de manera inmediata, mientras que el
cambio en el ingreso s que lo har. En este trabajo no entraremos en detalles como ste, pero
simplemente hemos querido comentarlo. Observamos de la Figura 4.4.1 que las series relacio-
nadas al ingreso y gasto en consumo son ambas estacionarias y que carecen de estacionalidad.
Ante esta situacin podramos bien ajustar un modelo AR(2). El cdigo correspondiente en R
para modelos de regresin dinmica con errores ARIMA(p,d,q) ser:
Series: usconsumption[, 1]
ARIMA(2,0,0) with non-zero mean
Coefficients:
ar1 ar2 intercept usconsumption[, 2]
0.1325 0.2924 0.5641 0.2578
s.e. 0.0826 0.0747 0.0883 0.0530
La funcin arima() establece =0 cuando d>0 y nos brinda un estimado del parmetro
cuando d = 0. El parmetro es muy cercano a la media muestral de la serie de tiempo pero
no es idntico ya que la media muestral no es el estimador mximo verosmil cuando p + q > 0.
Dentro de las opciones de la funcin arima() tenemos include.mean, el cual slo hace efecto
cuando d = 0. Escribir include.mean=FALSE forzar a que = 0. Cuando d > 0 en general
da igual centrar o no la serie; por esto la funcin arima() por default considera la media de
cero, ya que estamos eliminando la constante al aplicar el operador de diferencia. Ahora bien,
la funcin Arima() ajustar un modelo de regresin con errores ARIMA(p,d,q) si el argumento
xreg es utilizado. La funcin Arima() muestra mayor exibilidad al incluir la constante . Sigue
incluyendo la opcin include.mean pero anexa la opcin include.drift que nos permite que el
intercepto de la regresin (deriva o drift) sea distinto de cero cuando d = 1. Esto no sucede
con la funcin arima(). Adicionalmente, existe la funcin auto.arima (utilizada ms adelante)
la cual automticamente incluye la constante . Si d = 0 o d = 1, dicha constante se incluir
si ayuda a mejorar el criterio de Akaike; para d > 1 la constante siempre se omite. Del cdigo
tenemos los estimadores para el intercepto, = 0.5641, para la pendiente, 1 = 0.2578 (slo
tenemos 1 variable explicativa, el ingreso; de aqu que, estamos utilizando el modelo de regresin
lineal simple), para 1 = 0.1325 y para 2 = 0.2924. El modelo, por tanto, podra ser descrito
como:
yt = 0.5641 + 0.2578x1,t + t
t = 0.1325t1 + 0.2924t2 + t (4.4.10)
t N ID(0, 0.3452)
Figura 4.4.2: Figura que muestra los residuos del proceso AR(2)
Lo que sigue sera, a partir del modelo AR(2), buscar un nuevo modelo ARIMA(p,d,q) que
se ajuste mejor a los datos, en el sentido de que posea el menor criterio de informacin de
Akaike corregido o bien el menor criterio de informacin de Akaike sin corregir.
252 CAPTULO 4. MODELOS DE REGRESIN DINMICA
1.0
0.6
ACF del proceso AR(2)
ACF
0.2
0.2
0 5 10 15 20
Lag
5 10 15 20
Lag
Para lograr esto, podemos correr, una y otra vez, el cdigo anterior, con las distintas com-
binaciones de modelos ARIMA(p,d,q) y quedarnos con aquel que nos muestre el menor crite-
rio de Akaike. De la Figura 4.4.3 y la Figura 4.4.4 podemos observar algunas opciones y
combinaciones para el modelo ARIMA(p,d,q) ptimo, a saber unos ejemplos, AR(2), MA(3),
ARMA(2,3), etc (por supuesto, pueden existir otras opciones y dentro de ellas podra estar
el modelo ptimo). Recordemos que a partir de la sucesin de autocorrelaciones muestrales
parciales (PACF) se selecciona el parmetro p del modelo ARMA(p,q) mientras que de la suce-
sin de autocorrelaciones muestrales (ACF) el parmetro q. Recordemos asimismo que el valor
de los parmetros depender de aquellos retrasos que se salgan de las bandas de conanza
correspondientes.
Ahora bien, para cada uno de los modelos podemos utilizar el cdigo anterior y ajustar dicho
modelo a los datos y al nal ver cul de todos tiene menor criterio de Akaike. Dicha tarea, puede
simplicarse utilizando el siguiente cdigo en R, el cual, a travs de la funcin auto.arima, nos
dice automticamente qu modelo posee menor criterio de Akaike (no necesariamente ser uno
de los propuestos anteriormente):
4.4. MODELOS DE REGRESIN DINMICA 253
Series: usconsumption[, 1]
ARIMA(1,0,2) with non-zero mean
Coefficients:
ar1 ma1 ma2 intercept usconsumption[, 2]
0.6516 -0.5440 0.2187 0.5750 0.2420
s.e. 0.1468 0.1576 0.0790 0.0951 0.0513
Dentro de los parmetros a utilizar por la funcin auto.arima() se encuentra xreg el cual
representa a las variables explicativas del modelo. Pero, Cmo trabaja la funcin auto.arima()?
Esta funcin se basa en el algoritmo creado por Hyndman-Khandakar donde, primero, el nmero
de diferencias se determina usando la prueba KPSS (recordemos que esta prueba fue introducida
por Kwiatkowski, Phillips, Schmidt y Shin; dicha prueba fue introducida en el captulo 3).
Acto seguido, se encuentran los valores de p y q que minimizan el criterio de Akaike una vez
diferenciado la serie d veces. La funcin selecciona uno de cuatro modelos iniciales, a saber,
ARIMA(2,d,2), ARIMA(0,d,0), ARIMA(1,d,0), ARIMA(0,d,1). A este modelo se le conocer
como modelo actual. Despus se consideran variaciones de p y q en 1 o bien la inclusin
o exclusin del parmetro , en el modelo actual para ver si existe algn modelo distinto a
los iniciales que minimice el criterio de Akaike. Este ltimo paso se repite hasta encontrar el
modelo ptimo. Retomando nuestro ejemplo, el modelo ptimo para los errores es el modelo
ARIMA(1,0,2), es decir:
yt = 0.5750 + 0.2420x1,t + t
t = 0.6516t1 + t 0.5440t1 + 0.2187t2 (4.4.11)
t N ID(0, 0.3396)
> Box.test(residuals(Ajuste2),fitdf=5,lag=10,type="Ljung")
Box-Ljung test
data: residuals(Ajuste2)
X-squared = 4.5948, df = 5, p-value = 0.4673
> Pred2<-forecast(Ajuste2,xreg=rep(mean(usconsumption[,2]),12),h=12)
> plot(Pred2,main="Pronstico para el modelo ARIMA(1,0,2) en los residuos",xlab="Ao")
Figura 4.4.5: Figura que muestra el pronstico del ingreso para los prximos 3 aos
> Ajuste3<-auto.arima(usconsumption[,2])
Series: usconsumption[, 2]
ARIMA(0,0,0) with non-zero mean
Coefficients:
intercept
0.7366
s.e. 0.0732
> Pred3<-forecast(Ajuste3,h=12)
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
2011 Q1 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2011 Q2 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2011 Q3 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2011 Q4 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2012 Q1 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2012 Q2 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2012 Q3 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2012 Q4 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2013 Q1 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2013 Q2 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2013 Q3 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
2013 Q4 0.7365571 -0.4649583 1.938073 -1.101002 2.574116
> mean(usconsumption[,2])
[1] 0.7365571
yt = + 1 t + t (4.4.12)
con t proceso ARMA(p,q). Una tendencia estocstica est dada por el modelo:
yt = + 1 t + t (4.4.13)
Usando = j
5 %, se requerir el uso del operador de diferencia ( ), visto en la Seccin
3.2.3, para hacer estacionaria a la serie si p-value > 0.05. Anlogamente, realizaremos la prueba
KPSS para estacionariedad. Recordamos, similarmente, que dicha prueba tiene como hiptesis:
Un valor pequeo para el p-value implica que la serie no es estacionaria y que entonces es
j
necesaria la aplicacin del operador . Pero cuntas diferencias debemos aplicar? Es decir,
j
Cul es el valor de j en el operador ? Estas dos pruebas no nos dicen el nmero de veces a
diferenciar. R provee dos funciones, a saber ndis() y nsdis(), las cuales nos determinan el
nmero apropiado de diferencias para la parte no estacional y estacional de la serie, respecti-
vamente. La funcin ndis() permite utilizar la prueba Dickey-Fuller aumentada o la prueba
KPSS para determinar el nmero adecuado de diferencias a utilizar para la parte no estacional.
La funcin nsdis() permite utilizar la prueba Osborn-Chui-Smith-Birchenhall para determi-
nar el nmero ptimo de diferencias para la parte estacional de la serie. R ajustar de manera
automtica un modelo ARIMA(p,d,q) o bien ARIM A(p, d, q) (P, D, Q)s ptimo, esto es, nos
proporciona el valor de s ptimo en el operador s . Presentaremos nalmente el pronstico
para los prximos 3 aos as como la prueba de Ljung y Box para autocorrelaciones.
data: Serie
KPSS Level = 2.8305, Truncation lag parameter = 2, p-value = 0.01
data: Serie
Dickey-Fuller = -3.7405, Lag order = 4, p-value = 0.02628
alternative hypothesis: stationary
> ndiffs(Serie,alpha=0.05,test=c("kpss"),max.d=2)
[1] 1
[1] 1
4.4. MODELOS DE REGRESIN DINMICA 257
> auto.arima(Serie,xreg=1:length(Serie),trace=FALSE,test=c("kpss"),stepwise=FALSE,
approximation=FALSE,max.order=9,allowdrift=TRUE)
Series: Serie
ARIMA(2,0,0)(0,1,1)[4]
Coefficients:
ar1 ar2 sma1 1:length(Serie)
1.2195 -0.3652 -0.5431 181190.4
s.e. 0.1072 0.1109 0.1014 16059.2
Series: Serie
ARIMA(2,0,0)(0,1,1)[4] with drift
Coefficients:
ar1 ar2 sma1 drift
1.2195 -0.3652 -0.5431 181190.4
s.e. 0.1072 0.1109 0.1014 16059.2
> forecast(Ajuste,h=12)
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
2013 Q4 16757089 16529684 16984494 16409303 17104875
2014 Q1 16363276 16004642 16721911 15814792 16911760
2014 Q2 16579550 16139421 17019679 15906431 17252670
2014 Q3 16767495 16279895 17255095 16021775 17513215
2014 Q4 17455884 16900144 18011624 16605953 18305815
2015 Q1 17068149 16459375 17676923 16137109 17999189
2015 Q2 17289541 16646959 17932123 16306797 18272286
2015 Q3 17481508 16819289 18143727 16468731 18494284
2015 Q4 18172931 17473861 18872002 17103795 19242068
2016 Q1 17787429 17056137 18518720 16669015 18905842
2016 Q2 18010435 17257317 18763554 16858640 19162230
2016 Q3 18203555 17437331 18969778 17031717 19375392
> Box.test(residuals(Ajuste),fitdf=2,lag=22,type="Ljung")
Box-Ljung test
data: residuals(Ajuste)
X-squared = 24.2397, df = 20, p-value = 0.2321
258 CAPTULO 4. MODELOS DE REGRESIN DINMICA
Observamos de la prueba KPSS la necesidad de aplicar diferencias a nuestra serie (ya que el
p-value = 0.01 < 0.05 y por tanto rechazamos H0 , es decir, la serie no es estacionaria), mientras
que la prueba Dickey-Fuller aumentada nos dice que la serie ya es estacionaria (p-value < 0.05).
Tenemos dos pruebas que miden lo mismo y que envan resultados distintos. Ante esta
situacin debemos tomar en cuenta la grca de los datos, las salidas de los comandos ndis()
y nsdis() (este ltimo nos indica una diferencia estacional, la cual coincide con lo obtenido
con la funcin auto.arima) y nuestra intuicin para tomar la mejor decisin.
> auto.arima(Serie,d=1,xreg=1:length(Serie),trace=FALSE,stepwise=FALSE,
approximation=FALSE,max.order=9,allowdrift=TRUE)
Series: Serie
ARIMA(1,1,0)(0,1,2)[4]
Coefficients:
ar1 sma1 sma2 1:length(Serie)
0.2922 -0.6321 0.0816 192796.1
s.e. 0.1102 0.1179 0.1133 NaN
> forecast(Ajuste2,h=12)
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
2013 Q4 16813075 16580778 17045371 16457808 17168341
2014 Q1 16464007 16084449 16843565 15883523 17044491
2014 Q2 16687300 16190846 17183755 15928039 17446562
2014 Q3 16896805 16302994 17490616 15988649 17804960
2014 Q4 17631058 16907773 18354344 16524888 18737228
2015 Q1 17257935 16412149 18103721 15964417 18551452
2015 Q2 17485384 16529275 18441493 16023142 18947627
2015 Q3 17691041 16635163 18746919 16076214 19305868
2015 Q4 18424170 17232200 19616140 16601209 20247131
2016 Q1 18050719 16723463 19377974 16020857 20080580
2016 Q2 18278072 16824465 19731679 16054972 20501172
2016 Q3 18483701 16912888 20054514 16081349 20886052
4.4. MODELOS DE REGRESIN DINMICA 259
> Box.test(residuals(Ajuste2),fitdf=2,lag=22,type="Ljung")
Box-Ljung test
data: residuals(Ajuste2)
X-squared = 25.3743, df = 20, p-value = 0.1875
El modelo ptimo para la tendencia estocstica es ARIM A(1, 1, 0) (0, 1, 2)4 . La Figura
4.4.6 muestra el pronstico correspondiente. El cdigo en R est dado por:
> par(mfrow=c(2,1)); options(scipen=3)
> plot(forecast(Ajuste,h=12),main="Pronstico para el PIB mexicano",
xlab="(a) Tendencia determinista",ylab="PIB")
> plot(forecast(Ajuste2,h=12),main="Pronstico para el PIB mexicano",
xlab="(b) Tendencia estocstica",ylab="PIB")
Figura 4.4.6: Figura que muestra el pronstico para el PIB mexicano para los prx. 3 aos
260 CAPTULO 4. MODELOS DE REGRESIN DINMICA
Algunas observaciones para estas dos tendencias de este ejemplo salen a la luz. Primero,
cuando ajustamos un modelo para la tendencia determinista el nmero de diferencias, en con-
junto -estacionales y no estacionales- es 1, por lo que las funciones Arima() y auto.arima()
permiten la inclusin de una constante si esta ayuda a mejorar el criterio de Akaike. En nuestro
ejemplo s que se incluye un trmino constante (en el cdigo podemos observar drift = 181190.4).
Como segunda observacin, notemos que el nmero de diferencias en conjunto para el ajuste
del modelo de tendencia estocstica es 2, por lo que las funciones antes mencionadas omiten el
valor de la constante.
La tercer serie a analizar ser aquella correspondiente al PIB trimestral (millones de dlares)
de E.U.A a partir del ao 1947 hasta el ao 1991. Esta serie tambin fue analizada (se calcul la
componente de tendencia) en el captulo 2. Realizaremos un ajuste de un modelo de tendencia
estocstica en los datos, as como su correspondiente pronstico para parte del ao 1991 y los
aos 1992-1994. La prueba KPSS y la prueba Dickey-Fuller aumentada, ambas, concluyen en la
necesidad de aplicar diferencias para volver estacionaria la serie. De la grca del PIB trimestral
en Estados Unidos podemos observar, y esto se corrobora con el comando ndis(), la necesidad
de aplicar solamente una diferencia para la parte no estacional. Tambin observamos que no hay
necesidad de aplicar diferencias para la parte estacional. Esto lo corroboramos con el comando
nsdis(). El cdigo en R para este proceso est dado por:
data: Serie2
KPSS Level = 4.4492, Truncation lag parameter = 3, p-value = 0.01
> adf.test(Serie2,alternative="stationary")
data: Serie2
Dickey-Fuller = -2.3099, Lag order = 5, p-value = 0.4467
alternative hypothesis: stationary
> ndiffs(Serie2,alpha=0.05,test=c("kpss"),max.d=2)
[1] 1
[1] 0
> Ajuste4<-auto.arima(Serie2,d=1,xreg=1:length(Serie2),trace=FALSE,test=c("kpss"),
stepwise=FALSE,approximation=FALSE,max.order=9,allowdrift=TRUE)
Series: Serie2
ARIMA(2,1,0) with drift
4.4. MODELOS DE REGRESIN DINMICA 261
Coefficients:
ar1 ar2 drift
0.3005 0.1540 17.1097
s.e. 0.0748 0.0751 3.1964
> forecast(Ajuste4,h=12)
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
1991 Q2 4125.167 4095.361 4154.973 4079.583 4170.752
1991 Q3 4129.960 4081.062 4178.858 4055.177 4204.744
1991 Q4 4140.530 4073.364 4207.697 4037.808 4243.253
1992 Q1 4153.778 4070.273 4237.283 4026.068 4281.488
1992 Q2 4168.719 4070.447 4266.991 4018.425 4319.013
1992 Q3 4184.582 4072.920 4296.245 4013.810 4355.355
1992 Q4 4200.984 4077.071 4324.896 4011.475 4390.492
1993 Q1 4217.688 4082.473 4352.903 4010.895 4424.482
1993 Q2 4234.567 4088.840 4380.295 4011.696 4457.438
1993 Q3 4251.545 4095.969 4407.121 4013.612 4489.478
1993 Q4 4268.580 4103.718 4433.442 4016.445 4520.715
1994 Q1 4285.647 4111.981 4459.312 4020.048 4551.245
> Box.test(residuals(Ajuste4),fitdf=2,lag=22,type="Ljung")
Box-Ljung test
data: residuals(Ajuste4)
X-squared = 16.7376, df = 20, p-value = 0.6699
Figura 4.4.7: Figura que muestra el pronstico para el PIB de U.S.A para aos 1991-1994
262 CAPTULO 4. MODELOS DE REGRESIN DINMICA
data: Serie3
KPSS Level = 4.1148, Truncation lag parameter = 3, p-value = 0.01
> adf.test(Serie3,alternative="stationary")
data: Serie3
Dickey-Fuller = -2.8661, Lag order = 5, p-value = 0.2147
alternative hypothesis: stationary
> ndiffs(Serie3,alpha=0.05,test=c("kpss"),max.d=2)
[1] 1
[1] 0
> Ajuste5<-auto.arima(Serie3,xreg=1:length(Serie3),trace=FALSE,test=c("kpss"),
stepwise=FALSE,approximation=FALSE,max.order=9,allowdrift=TRUE)
Series: Serie3
ARIMA(5,0,3) with zero mean
Coefficients:
ar1 ar2 ar3 ar4 ar5 ma1 ma2 ma3 1:length(Serie3)
2.0487 -2.1409 2.1329 -1.1943 0.1384 -1.0490 1.0299 -0.9624 257.4221
s.e. 0.0714 0.1549 0.1488 0.1559 0.0753 0.0309 0.0517 0.0418 2.5857
> forecast(Ajuste5,xreg=c(171:182),h=12)
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
Mar 2014 37892.09 36567.54 39216.64 35866.37 39917.82
Apr 2014 38014.32 36140.93 39887.71 35149.22 40879.42
May 2014 38808.76 36561.09 41056.43 35371.24 42246.28
Jun 2014 39686.99 37110.40 42263.58 35746.43 43627.54
Jul 2014 40005.20 37177.24 42833.17 35680.20 44330.21
Aug 2014 40321.21 37340.79 43301.62 35763.05 44879.36
Sep 2014 41232.54 38141.59 44323.48 36505.34 45959.73
Oct 2014 42166.74 38969.57 45363.92 37277.09 47056.40
Nov 2014 42548.99 39273.98 45824.00 37540.29 47557.69
Dec 2014 42946.39 39635.10 46257.69 37882.20 48010.59
Jan 2015 43894.02 40561.37 47226.68 38797.16 48990.89
Feb 2015 44814.22 41460.33 48168.11 39684.88 49943.55
> Box.test(residuals(Ajuste5),fitdf=2,lag=22,type="Ljung")
Box-Ljung test
data: residuals(Ajuste5)
X-squared = 17.8676, df = 20, p-value = 0.5961
El modelo ptimo es ARIMA(5,0,3) con media igual a cero. Los pronsticos para el prximo
ao se muestran dentro del cdigo. Para el clculo de la tendencia estocstica tenemos el
cdigo siguiente en R, obteniendo ahora un modelo ARIMA(3,1,2) y cuyos pronsticos tambin
se muestran dentro del cdigo:
data: Serie3
KPSS Level = 4.1148, Truncation lag parameter = 3, p-value = 0.01
> adf.test(Serie3,alternative="stationary")
data: Serie3
Dickey-Fuller = -2.8661, Lag order = 5, p-value = 0.2147
alternative hypothesis: stationary
> ndiffs(Serie3,alpha=0.05,test=c("kpss"),max.d=2)
[1] 1
[1] 0
264 CAPTULO 4. MODELOS DE REGRESIN DINMICA
> Ajuste6<-auto.arima(Serie3,d=1,trace=FALSE,xreg=1:length(Serie3),stepwise=FALSE,
approximation=FALSE,max.order=9,allowdrift=TRUE)
Series: Serie3
ARIMA(3,1,2)
Coefficients:
ar1 ar2 ar3 ma1 ma2 1:length(Serie3)
0.1855 -0.9431 0.2068 -0.0699 0.9746 176.4805
s.e. 0.0777 0.0339 0.0790 0.0224 0.0468 101.3177
> forecast(Ajuste6,xreg=c(171:182),h=12)
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
Mar 2014 37503.12 36126.37 38879.88 35397.56 39608.69
Apr 2014 37397.92 35335.28 39460.56 34243.38 40552.46
May 2014 37902.41 35286.94 40517.88 33902.39 41902.42
Jun 2014 38276.29 35125.92 41426.67 33458.21 43094.38
Jul 2014 38121.79 34518.75 41724.83 32611.42 43632.16
Aug 2014 38118.52 34167.09 42069.95 32075.32 44161.72
Sep 2014 38614.63 34337.59 42891.68 32073.45 45155.81
Oct 2014 38951.49 34327.67 43575.32 31879.96 46023.03
Nov 2014 38819.10 33878.95 43759.26 31263.78 46374.42
Dec 2014 38853.12 33652.27 44053.97 30899.11 46807.13
Jan 2015 39327.64 33872.48 44782.81 30984.69 47670.60
Feb 2015 39629.90 33899.89 45359.92 30866.60 48393.20
> Box.test(residuals(Ajuste6),fitdf=2,lag=22,type="Ljung")
Box-Ljung test
data: residuals(Ajuste6)
X-squared = 21.24, df = 20, p-value = 0.3831
En el clculo de ambas tendencias, vemos, gracias a la prueba de Ljung y Box, que las
autocorrelaciones hasta el lag h = 22 conjuntamente son cero. El correspondiente p-value
para la tendencia determinista es 0.5961 > 0.05, mientras que el p-value para la tendencia
estocstica es 0.3831 > 0.05. La Figura 4.4.8 muestra el pronstico correspondiente con ambas
tendencias. El cdigo en R es el siguiente:
Al ver estos ejemplos nos preguntamos, por qu las bandas de prediccin son un poco ms
amplias para la tendencia estocstica? En el modelo con tendencia determinista, la pendiente
de dicha tendencia se supone invariante en el tiempo, mientras que en el modelo con tendencia
estocstica puede cambiar en el tiempo, de aqu que las bandas de prediccin para la tendencia
estocstica permiten una mayor incertidumbre en la pendiente de la tendencia.
4.4. MODELOS DE REGRESIN DINMICA 265
50000
30000 Pronstico para el IPC mexicano
IPC
10000
Figura 4.4.8: Figura que muestra el pronstico para el IPC mexicano para los prx. 2 aos
Conclusiones
En cada modelo existen supuestos que pueden ser obviados si dieren en una pequea cuan-
ta de lo que se busca demostrar ya que dichas desviaciones no son tan signicativas y no
inuyen en nuestra decisin de rechazar o no rechazar el modelo. Pero en cambio, s que existen
otros supuestos que, de no cumplirse, impediran de manera rotunda la aplicacin de cierto
modelo a unos datos.
Ahora bien, para poder ajustar un modelo ARMA(p,q) a una serie debemos ser capaces
de primero estimar las componentes de tendencia y de estacionalidad para as, al sustraerlas,
obtener una nueva serie lo ms estacionaria posible. El captulo 2 nos ha servido de gua para
encontrar modelos y mtodos de ajuste tendencial y estacional que nos servirn como paso
previo al ajuste de los modelos estudiados en el captulo 3, aunque claro que hay gente que
puede optar por usar el mtodo de Holt-Winters, por ejemplo, para modelar completamente a
la serie.
267
268 CONCLUSIONES
De especial inters fue lograr llevar la teora de la mano de la parte grca, en particular el
procedimiento que se llev a cabo para identicar, a partir de la sucesin de autocorrelaciones
muestrales (ACF) y de la sucesin de autocorrelaciones muestrales parciales (PACF), las carac-
tersticas tericas de los modelos ARMA(p,q), ARIMA(p,d,q) y SARIM A(p, d, q) (P, D, Q).
Los ejercicios analizados en el captulo 4 han querido ejemplicar la metodologa del modelo
de regresin dinmica. Nuestros pronsticos se basaron solamente en la teora vista en este
captulo y a pesar de ser una buena base para realizar predicciones, muchas series manejadas
a lo largo de este escrito deben tomar en cuenta un sinnmero de variables explicativas ex-
tras para su mejor pronstico. Nuestra intencin no es modicar la metodologa utilizada para
realizar predicciones de series como las correspondientes al PIB o IPC mexicano, por ejemplo,
sino ms bien, con base en la informacin pasada de la serie, dar un estimado conable para
el futuro, para con ello tomar decisiones que involucren el menor riesgo posible. El entender el
pasado de una serie de tiempo es de gran ayuda al realizar predicciones pero seguramente cada
conjunto de datos podr involucrar (o ha involucrado en sus observaciones anteriores) un sinfn
de variables explicativas que ayudarn (o han ayudado) a predecir observaciones futuras.
Sabemos que el IPC es un indicador que se utiliza para expresar la variacin promedio de
los precios de las acciones que cotizan en la Bolsa Mexicana de Valores y que para su clculo,
se debe tomar en cuenta las acciones y precios de una muestra signicativa de emisoras que
representen a los sectores econmicos en los cuales se clasica a las emisoras inscritas en la Bol-
sa Mexicana de Valores. De cierta forma, al tomar la informacin pasada, estamos tomando a
consideracin muestras signicativas de emisoras del pasado y junto al tiempo hemos realizado
nuestro pronstico. Pero estamos seguros que para la prediccin real, expertos en la materia,
tienen mucha ms informacin, no slo de la serie, sino de todos aquellos factores que han
afectado, afectan y de cierta forma, afectarn, el comportamiento de la serie, en este caso, del
IPC.
Box, G. y Tiao, G. (1973). Bayesian Inference in Statistical Analysis. Addison Wesley, primera
edicin.
Brockwell, P. y Davis, R. (1991). Time Series: Theory and Methods. Springer, segunda edicin.
Chateld, C. (2004). The Analysis of Time Series. An Introduction. Chapman & Hall, sexta
edicin.
Engel, R. (2001). What a Good is a Volatility Model? University of California, primera edicin.
Hamilton, J. (1994). Time Series Analysis. Princeton University Press, primera edicin.
Harvey, A. (1990). Forecasting, structural time series models and the kalman lter. Cambridge
University Press, primera edicin.
Kedem, B. y Konstantinos, F. (2002). Regression models for time series analysis. John Wiley
& Sons, primera edicin.
Kutner, M., Neter, J., y Nachtsheim, C. (2005). Applied Linear Statistical Models. McGraw
Hill Irwin, quinta edicin.
Madsen, H. (2008). Time Series Analysis. Chapman & Hall, segunda edicin.
Montgomery, D. y Peck, E. (1992). Introduction to Linear Regression Analysis. John Wiley &
Sons, cuarta edicin.
Neter, J., Kutner, M., y Wasserman, W. (1990). Applied Linear Statistical Models. Regression,
Analysis of Variance and Experimental Designs. Irwin, tercera edicin.
Petris, G., Petrone, S., y Campagnoli, P. (2009). Dynamic Linear Models With R. Springer,
primera edicin.
Seber, G. y Lee, A. (2003). Linear Regression Analysis. John Wiley & Sons, segunda edicin.
269
270 BIBLIOGRAFA
Shumway, R. y Stoer, D. (2011). Time Series Analysis and its Applications. Springer, tercera
edicin.
Wei, W. (2006). Time Series Analysis. Univariate and Multivariate Methods. Pearson Addison
Wesley, segunda edicin.
Apndice A
Tablas Estadsticas
271
Z x
1 t2
Tabla A1: Distribucin Normal (0,1) (x) = e 2 dt
2
p 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009
0.00 -3.0902 -2.8782 -2.7478 -2.6521 -2.5758 -2.5121 -2.4573 -2.4089 -2.3656
0.01 -2.3263 -2.2904 -2.2571 -2.2262 -2.1973 -2.1701 -2.1444 -2.1201 -2.0969 -2.0749
0.02 -2.0537 -2.0335 -2.0141 -1.9954 -1.9774 -1.9600 -1.9431 -1.9268 -1.9110 -1.8957
0.03 -1.8808 -1.8663 -1.8522 -1.8384 -1.8250 -1.8119 -1.7991 -1.7866 -1.7744 -1.7624
0.04 -1.7507 -1.7392 -1.7279 -1.7169 -1.7060 -1.6954 -1.6849 -1.6747 -1.6646 -1.6546
0.05 -1.6449 -1.6352 -1.6258 -1.6164 -1.6072 -1.5982 -1.5893 -1.5805 -1.5718 -1.5632
0.06 -1.5548 -1.5464 -1.5382 -1.5301 -1.5220 -1.5141 -1.5063 -1.4985 -1.4909 -1.4833
0.07 -1.4758 -1.4684 -1.4611 -1.4538 -1.4466 -1.4395 -1.4325 -1.4255 -1.4187 -1.4118
0.08 -1.4051 -1.3984 -1.3917 -1.3852 -1.3787 -1.3722 -1.3658 -1.3595 -1.3532 -1.3469
0.09 -1.3408 -1.3346 -1.3285 -1.3225 -1.3165 -1.3106 -1.3047 -1.2988 -1.2930 -1.2873
0.10 -1.2816 -1.2759 -1.2702 -1.2646 -1.2591 -1.2536 -1.2481 -1.2426 -1.2372 -1.2319
0.11 -1.2265 -1.2212 -1.2160 -1.2107 -1.2055 -1.2004 -1.1952 -1.1901 -1.1850 -1.1800
0.12 -1.1750 -1.1700 -1.1650 -1.1601 -1.1552 -1.1503 -1.1455 -1.1407 -1.1359 -1.1311
0.13 -1.1264 -1.1217 -1.1170 -1.1123 -1.1077 -1.1031 -1.0985 -1.0939 -1.0893 -1.0848
0.14 -1.0803 -1.0758 -1.0714 -1.0669 -1.0625 -1.0581 -1.0537 -1.0494 -1.0450 -1.0407
0.15 -1.0364 -1.0322 -1.0279 -1.0237 -1.0194 -1.0152 -1.0110 -1.0069 -1.0027 -0.9986
0.16 -0.9945 -0.9904 -0.9863 -0.9822 -0.9782 -0.9741 -0.9701 -0.9661 -0.9621 -0.9581
0.17 -0.9542 -0.9502 -0.9463 -0.9424 -0.9385 -0.9346 -0.9307 -0.9269 -0.9230 -0.9192
0.18 -0.9154 -0.9116 -0.9078 -0.9040 -0.9002 -0.8965 -0.8927 -0.8890 -0.8853 -0.8816
0.19 -0.8779 -0.8742 -0.8705 -0.8669 -0.8633 -0.8596 -0.8560 -0.8524 -0.8488 -0.8452
0.20 -0.8416 -0.8381 -0.8345 -0.8310 -0.8274 -0.8239 -0.8204 -0.8169 -0.8134 -0.8099
0.21 -0.8064 -0.8030 -0.7995 -0.7961 -0.7926 -0.7892 -0.7858 -0.7824 -0.7790 -0.7756
0.22 -0.7722 -0.7688 -0.7655 -0.7621 -0.7588 -0.7554 -0.7521 -0.7488 -0.7454 -0.7421
0.23 -0.7388 -0.7356 -0.7323 -0.7290 -0.7257 -0.7225 -0.7192 -0.7160 -0.7128 -0.7095
0.24 -0.7063 -0.7031 -0.6999 -0.6967 -0.6935 -0.6903 -0.6871 -0.6840 -0.6808 -0.6776
0.25 -0.6745 -0.6713 -0.6682 -0.6651 -0.6620 -0.6588 -0.6557 -0.6526 -0.6495 -0.6464
0.26 -0.6433 -0.6403 -0.6372 -0.6341 -0.6311 -0.6280 -0.6250 -0.6219 -0.6189 -0.6158
0.27 -0.6128 -0.6098 -0.6068 -0.6038 -0.6008 -0.5978 -0.5948 -0.5918 -0.5888 -0.5858
0.28 -0.5828 -0.5799 -0.5769 -0.5740 -0.5710 -0.5681 -0.5651 -0.5622 -0.5592 -0.5563
0.29 -0.5534 -0.5505 -0.5476 -0.5446 -0.5417 -0.5388 -0.5359 -0.5330 -0.5302 -0.5273
0.30 -0.5244 -0.5215 -0.5187 -0.5158 -0.5129 -0.5101 -0.5072 -0.5044 -0.5015 -0.4987
0.31 -0.4959 -0.4930 -0.4902 -0.4874 -0.4845 -0.4817 -0.4789 -0.4761 -0.4733 -0.4705
0.32 -0.4677 -0.4649 -0.4621 -0.4593 -0.4565 -0.4538 -0.4510 -0.4482 -0.4454 -0.4427
0.33 -0.4399 -0.4372 -0.4344 -0.4316 -0.4289 -0.4261 -0.4234 -0.4207 -0.4179 -0.4152
0.34 -0.4125 -0.4097 -0.4070 -0.4043 -0.4016 -0.3989 -0.3961 -0.3934 -0.3907 -0.3880
0.35 -0.3853 -0.3826 -0.3799 -0.3772 -0.3745 -0.3719 -0.3692 -0.3665 -0.3638 -0.3611
0.36 -0.3585 -0.3558 -0.3531 -0.3505 -0.3478 -0.3451 -0.3425 -0.3398 -0.3372 -0.3345
0.37 -0.3319 -0.3292 -0.3266 -0.3239 -0.3213 -0.3186 -0.3160 -0.3134 -0.3107 -0.3081
0.38 -0.3055 -0.3029 -0.3002 -0.2976 -0.2950 -0.2924 -0.2898 -0.2871 -0.2845 -0.2819
0.39 -0.2793 -0.2767 -0.2741 -0.2715 -0.2689 -0.2663 -0.2637 -0.2611 -0.2585 -0.2559
0.40 -0.2533 -0.2508 -0.2482 -0.2456 -0.2430 -0.2404 -0.2378 -0.2353 -0.2327 -0.2301
0.41 -0.2275 -0.2250 -0.2224 -0.2198 -0.2173 -0.2147 -0.2121 -0.2096 -0.2070 -0.2045
0.42 -0.2019 -0.1993 -0.1968 -0.1942 -0.1917 -0.1891 -0.1866 -0.1840 -0.1815 -0.1789
0.43 -0.1764 -0.1738 -0.1713 -0.1687 -0.1662 -0.1637 -0.1611 -0.1586 -0.1560 -0.1535
0.44 -0.1510 -0.1484 -0.1459 -0.1434 -0.1408 -0.1383 -0.1358 -0.1332 -0.1307 -0.1282
0.45 -0.1257 -0.1231 -0.1206 -0.1181 -0.1156 -0.1130 -0.1105 -0.1080 -0.1055 -0.1030
0.46 -0.1004 -0.0979 -0.0954 -0.0929 -0.0904 -0.0878 -0.0853 -0.0828 -0.0803 -0.0778
0.47 -0.0753 -0.0728 -0.0702 -0.0677 -0.0652 -0.0627 -0.0602 -0.0577 -0.0552 -0.0527
0.48 -0.0502 -0.0476 -0.0451 -0.0426 -0.0401 -0.0376 -0.0351 -0.0326 -0.0301 -0.0276
0.49 -0.0251 -0.0226 -0.0201 -0.0175 -0.0150 -0.0125 -0.0100 -0.0075 -0.0050 -0.0025
272
Z x
1 t2
Tabla A1: Distribucin Normal (0,1) (x) = e 2 dt
2
p 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009
0.50 0.0000 0.0025 0.0050 0.0075 0.0100 0.0125 0.0150 0.0175 0.0201 0.0226
0.51 0.0251 0.0276 0.0301 0.0326 0.0351 0.0376 0.0401 0.0426 0.0451 0.0476
0.52 0.0502 0.0527 0.0552 0.0577 0.0602 0.0627 0.0652 0.0677 0.0702 0.0728
0.53 0.0753 0.0778 0.0803 0.0828 0.0853 0.0878 0.0904 0.0929 0.0954 0.0979
0.54 0.1004 0.1030 0.1055 0.1080 0.1105 0.1130 0.1156 0.1181 0.1206 0.1231
0.55 0.1257 0.1282 0.1307 0.1332 0.1358 0.1383 0.1408 0.1434 0.1459 0.1484
0.56 0.1510 0.1535 0.1560 0.1586 0.1611 0.1637 0.1662 0.1687 0.1713 0.1738
0.57 0.1764 0.1789 0.1815 0.1840 0.1866 0.1891 0.1917 0.1942 0.1968 0.1993
0.58 0.2019 0.2045 0.2070 0.2096 0.2121 0.2147 0.2173 0.2198 0.2224 0.2250
0.59 0.2275 0.2301 0.2327 0.2353 0.2378 0.2404 0.2430 0.2456 0.2482 0.2508
0.60 0.2533 0.2559 0.2585 0.2611 0.2637 0.2663 0.2689 0.2715 0.2741 0.2767
0.61 0.2793 0.2819 0.2845 0.2871 0.2898 0.2924 0.2950 0.2976 0.3002 0.3029
0.62 0.3055 0.3081 0.3107 0.3134 0.3160 0.3186 0.3213 0.3239 0.3266 0.3292
0.63 0.3319 0.3345 0.3372 0.3398 0.3425 0.3451 0.3478 0.3505 0.3531 0.3558
0.64 0.3585 0.3611 0.3638 0.3665 0.3692 0.3719 0.3745 0.3772 0.3799 0.3826
0.65 0.3853 0.3880 0.3907 0.3934 0.3961 0.3989 0.4016 0.4043 0.4070 0.4097
0.66 0.4125 0.4152 0.4179 0.4207 0.4234 0.4261 0.4289 0.4316 0.4344 0.4372
0.67 0.4399 0.4427 0.4454 0.4482 0.4510 0.4538 0.4565 0.4593 0.4621 0.4649
0.68 0.4677 0.4705 0.4733 0.4761 0.4789 0.4817 0.4845 0.4874 0.4902 0.4930
0.69 0.4959 0.4987 0.5015 0.5044 0.5072 0.5101 0.5129 0.5158 0.5187 0.5215
0.70 0.5244 0.5273 0.5302 0.5330 0.5359 0.5388 0.5417 0.5446 0.5476 0.5505
0.71 0.5534 0.5563 0.5592 0.5622 0.5651 0.5681 0.5710 0.5740 0.5769 0.5799
0.72 0.5828 0.5858 0.5888 0.5918 0.5948 0.5978 0.6008 0.6038 0.6068 0.6098
0.73 0.6128 0.6158 0.6189 0.6219 0.6250 0.6280 0.6311 0.6341 0.6372 0.6403
0.74 0.6433 0.6464 0.6495 0.6526 0.6557 0.6588 0.6620 0.6651 0.6682 0.6713
0.75 0.6745 0.6776 0.6808 0.6840 0.6871 0.6903 0.6935 0.6967 0.6999 0.7031
0.76 0.7063 0.7095 0.7128 0.7160 0.7192 0.7225 0.7257 0.7290 0.7323 0.7356
0.77 0.7388 0.7421 0.7454 0.7488 0.7521 0.7554 0.7588 0.7621 0.7655 0.7688
0.78 0.7722 0.7756 0.7790 0.7824 0.7858 0.7892 0.7926 0.7961 0.7995 0.8030
0.79 0.8064 0.8099 0.8134 0.8169 0.8204 0.8239 0.8274 0.8310 0.8345 0.8381
0.80 0.8416 0.8452 0.8488 0.8524 0.8560 0.8596 0.8633 0.8669 0.8705 0.8742
0.81 0.8779 0.8816 0.8853 0.8890 0.8927 0.8965 0.9002 0.9040 0.9078 0.9116
0.82 0.9154 0.9192 0.9230 0.9269 0.9307 0.9346 0.9385 0.9424 0.9463 0.9502
0.83 0.9542 0.9581 0.9621 0.9661 0.9701 0.9741 0.9782 0.9822 0.9863 0.9904
0.84 0.9945 0.9986 1.0027 1.0069 1.0110 1.0152 1.0194 1.0237 1.0279 1.0322
0.85 1.0364 1.0407 1.0450 1.0494 1.0537 1.0581 1.0625 1.0669 1.0714 1.0758
0.86 1.0803 1.0848 1.0893 1.0939 1.0985 1.1031 1.1077 1.1123 1.1170 1.1217
0.87 1.1264 1.1311 1.1359 1.1407 1.1455 1.1503 1.1552 1.1601 1.1650 1.1700
0.88 1.1750 1.1800 1.1850 1.1901 1.1952 1.2004 1.2055 1.2107 1.2160 1.2212
0.89 1.2265 1.2319 1.2372 1.2426 1.2481 1.2536 1.2591 1.2646 1.2702 1.2759
0.90 1.2816 1.2873 1.2930 1.2988 1.3047 1.3106 1.3165 1.3225 1.3285 1.3346
0.91 1.3408 1.3469 1.3532 1.3595 1.3658 1.3722 1.3787 1.3852 1.3917 1.3984
0.92 1.4051 1.4118 1.4187 1.4255 1.4325 1.4395 1.4466 1.4538 1.4611 1.4684
0.93 1.4758 1.4833 1.4909 1.4985 1.5063 1.5141 1.5220 1.5301 1.5382 1.5464
0.94 1.5548 1.5632 1.5718 1.5805 1.5893 1.5982 1.6072 1.6164 1.6258 1.6352
0.95 1.6449 1.6546 1.6646 1.6747 1.6849 1.6954 1.7060 1.7169 1.7279 1.7392
0.96 1.7507 1.7624 1.7744 1.7866 1.7991 1.8119 1.8250 1.8384 1.8522 1.8663
0.97 1.8808 1.8957 1.9110 1.9268 1.9431 1.9600 1.9774 1.9954 2.0141 2.0335
0.98 2.0537 2.0749 2.0969 2.1201 2.1444 2.1701 2.1973 2.2262 2.2571 2.2904
0.99 2.3263 2.3656 2.4089 2.4573 2.5121 2.5758 2.6521 2.7478 2.8782 3.0902
273
n+1
t
Z
2
Tabla A2: Distribucin t F (t) = n+1 dx
n
x2 2
2 n 1 + n
HH
HH 0.75 0.80 0.85 0.875 0.90 0.95 0.975 0.99 0.995 0.9995
n H
H
1 1.000 1.376 1.963 2.414 3.078 6.314 12.706 31.821 63.657 636.619
2 0.816 1.061 1.386 1.604 1.886 2.920 4.303 6.965 9.925 31.599
3 0.765 0.978 1.250 1.423 1.638 2.353 3.182 4.541 5.841 12.924
4 0.741 0.941 1.190 1.344 1.533 2.132 2.776 3.747 4.604 8.610
5 0.727 0.920 1.156 1.301 1.476 2.015 2.571 3.365 4.032 6.869
6 0.718 0.906 1.134 1.273 1.440 1.943 2.447 3.143 3.707 5.959
7 0.711 0.896 1.119 1.254 1.415 1.895 2.365 2.998 3.499 5.408
8 0.706 0.889 1.108 1.240 1.397 1.860 2.306 2.896 3.355 5.041
9 0.703 0.883 1.100 1.230 1.383 1.833 2.262 2.821 3.250 4.781
10 0.700 0.879 1.093 1.221 1.372 1.812 2.228 2.764 3.169 4.587
11 0.697 0.876 1.088 1.214 1.363 1.796 2.201 2.718 3.106 4.437
12 0.695 0.873 1.083 1.209 1.356 1.782 2.179 2.681 3.055 4.318
13 0.694 0.870 1.079 1.204 1.350 1.771 2.160 2.650 3.012 4.221
14 0.692 0.868 1.076 1.200 1.345 1.761 2.145 2.624 2.977 4.140
15 0.691 0.866 1.074 1.197 1.341 1.753 2.131 2.602 2.947 4.073
16 0.690 0.865 1.071 1.194 1.337 1.746 2.120 2.583 2.921 4.015
17 0.689 0.863 1.069 1.191 1.333 1.740 2.110 2.567 2.898 3.965
18 0.688 0.862 1.067 1.189 1.330 1.734 2.101 2.552 2.878 3.922
19 0.688 0.861 1.066 1.187 1.328 1.729 2.093 2.539 2.861 3.883
20 0.687 0.860 1.064 1.185 1.325 1.725 2.086 2.528 2.845 3.850
21 0.686 0.859 1.063 1.183 1.323 1.721 2.080 2.518 2.831 3.819
22 0.686 0.858 1.061 1.182 1.321 1.717 2.074 2.508 2.819 3.792
23 0.685 0.858 1.060 1.180 1.319 1.714 2.069 2.500 2.807 3.768
24 0.685 0.857 1.059 1.179 1.318 1.711 2.064 2.492 2.797 3.745
25 0.684 0.856 1.058 1.178 1.316 1.708 2.060 2.485 2.787 3.725
26 0.684 0.856 1.058 1.177 1.315 1.706 2.056 2.479 2.779 3.707
27 0.684 0.855 1.057 1.176 1.314 1.703 2.052 2.473 2.771 3.690
28 0.683 0.855 1.056 1.175 1.313 1.701 2.048 2.467 2.763 3.674
29 0.683 0.854 1.055 1.174 1.311 1.699 2.045 2.462 2.756 3.659
30 0.683 0.854 1.055 1.173 1.310 1.697 2.042 2.457 2.750 3.646
40 0.681 0.851 1.050 1.167 1.303 1.684 2.021 2.423 2.704 3.551
50 0.679 0.849 1.047 1.164 1.299 1.676 2.009 2.403 2.678 3.496
60 0.679 0.848 1.045 1.162 1.296 1.671 2.000 2.390 2.660 3.460
70 0.678 0.847 1.044 1.160 1.294 1.667 1.994 2.381 2.648 3.435
80 0.678 0.846 1.043 1.159 1.292 1.664 1.990 2.374 2.639 3.416
90 0.677 0.846 1.042 1.158 1.291 1.662 1.987 2.368 2.632 3.402
100 0.677 0.845 1.042 1.157 1.290 1.660 1.984 2.364 2.626 3.390
274
n+1
t
Z
2
Tabla A2: Distribucin t F (t) = n+1 dx
n
x2 2
2 n 1 + n
HH
HH 0.40 0.25 0.10 0.05 0.025 0.01 0.005 0.0025 0.001 0.0005
n H
H
1 0.325 1.000 3.078 6.314 12.706 31.821 63.657 127.321 318.309 636.619
2 0.289 0.816 1.886 2.920 4.303 6.965 9.925 14.089 22.327 31.599
3 0.277 0.765 1.638 2.353 3.182 4.541 5.841 7.453 10.215 12.924
4 0.271 0.741 1.533 2.132 2.776 3.747 4.604 5.598 7.173 8.610
5 0.267 0.727 1.476 2.015 2.571 3.365 4.032 4.773 5.893 6.869
6 0.265 0.718 1.440 1.943 2.447 3.143 3.707 4.317 5.208 5.959
7 0.263 0.711 1.415 1.895 2.365 2.998 3.499 4.029 4.785 5.408
8 0.262 0.706 1.397 1.860 2.306 2.896 3.355 3.833 4.501 5.041
9 0.261 0.703 1.383 1.833 2.262 2.821 3.250 3.690 4.297 4.781
10 0.260 0.700 1.372 1.812 2.228 2.764 3.169 3.581 4.144 4.587
11 0.260 0.697 1.363 1.796 2.201 2.718 3.106 3.497 4.025 4.437
12 0.259 0.695 1.356 1.782 2.179 2.681 3.055 3.428 3.930 4.318
13 0.259 0.694 1.350 1.771 2.160 2.650 3.012 3.372 3.852 4.221
14 0.258 0.692 1.345 1.761 2.145 2.624 2.977 3.326 3.787 4.140
15 0.258 0.691 1.341 1.753 2.131 2.602 2.947 3.286 3.733 4.073
16 0.258 0.690 1.337 1.746 2.120 2.583 2.921 3.252 3.686 4.015
17 0.257 0.689 1.333 1.740 2.110 2.567 2.898 3.222 3.646 3.965
18 0.257 0.688 1.330 1.734 2.101 2.552 2.878 3.197 3.610 3.922
19 0.257 0.688 1.328 1.729 2.093 2.539 2.861 3.174 3.579 3.883
20 0.257 0.687 1.325 1.725 2.086 2.528 2.845 3.153 3.552 3.850
21 0.257 0.686 1.323 1.721 2.080 2.518 2.831 3.135 3.527 3.819
22 0.256 0.686 1.321 1.717 2.074 2.508 2.819 3.119 3.505 3.792
23 0.256 0.685 1.319 1.714 2.069 2.500 2.807 3.104 3.485 3.768
24 0.256 0.685 1.318 1.711 2.064 2.492 2.797 3.091 3.467 3.745
25 0.256 0.684 1.316 1.708 2.060 2.485 2.787 3.078 3.450 3.725
26 0.256 0.684 1.315 1.706 2.056 2.479 2.779 3.067 3.435 3.707
27 0.256 0.684 1.314 1.703 2.052 2.473 2.771 3.057 3.421 3.690
28 0.256 0.683 1.313 1.701 2.048 2.467 2.763 3.047 3.408 3.674
29 0.256 0.683 1.311 1.699 2.045 2.462 2.756 3.038 3.396 3.659
30 0.256 0.683 1.310 1.697 2.042 2.457 2.750 3.030 3.385 3.646
40 0.255 0.681 1.303 1.684 2.021 2.423 2.704 2.971 3.307 3.551
50 0.255 0.679 1.299 1.676 2.009 2.403 2.678 2.937 3.261 3.496
60 0.254 0.679 1.296 1.671 2.000 2.390 2.660 2.915 3.232 3.460
70 0.254 0.678 1.294 1.667 1.994 2.381 2.648 2.899 3.211 3.435
80 0.254 0.678 1.292 1.664 1.990 2.374 2.639 2.887 3.195 3.416
90 0.254 0.677 1.291 1.662 1.987 2.368 2.632 2.878 3.183 3.402
100 0.254 0.677 1.290 1.660 1.984 2.364 2.626 2.871 3.174 3.390
275
n2 x
u
x 2 e 2
Z
Tabla A3: Distribucin 2 F (u) = n dx
0 2 2 ( n2 )
HH
HH 0.995 0.99 0.975 0.95 0.90 0.50 0.10 0.05 0.025 0.01 0.005
H
n H
1 0.00 0.00 0.00 0.00 0.02 0.45 2.71 3.84 5.02 6.63 7.88
2 0.01 0.02 0.05 0.10 0.21 1.39 4.61 5.99 7.38 9.21 10.60
3 0.07 0.11 0.22 0.35 0.58 2.37 6.25 7.81 9.35 11.34 12.84
4 0.21 0.30 0.48 0.71 1.06 3.36 7.78 9.49 11.14 13.28 14.86
5 0.41 0.55 0.83 1.15 1.61 4.35 9.24 11.07 12.83 15.09 16.75
6 0.68 0.87 1.24 1.64 2.20 5.35 10.64 12.59 14.45 16.81 18.55
7 0.99 1.24 1.69 2.17 2.83 6.35 12.02 14.07 16.01 18.48 20.28
8 1.34 1.65 2.18 2.73 3.49 7.34 13.36 15.51 17.53 20.09 21.95
9 1.73 2.09 2.70 3.33 4.17 8.34 14.68 16.92 19.02 21.67 23.59
10 2.16 2.56 3.25 3.94 4.87 9.34 15.99 18.31 20.48 23.21 25.19
11 2.60 3.05 3.82 4.57 5.58 10.34 17.28 19.68 21.92 24.72 26.76
12 3.07 3.57 4.40 5.23 6.30 11.34 18.55 21.03 23.34 26.22 28.30
13 3.57 4.11 5.01 5.89 7.04 12.34 19.81 22.36 24.74 27.69 29.82
14 4.07 4.66 5.63 6.57 7.79 13.34 21.06 23.68 26.12 29.14 31.32
15 4.60 5.23 6.26 7.26 8.55 14.34 22.31 25.00 27.49 30.58 32.80
16 5.14 5.81 6.91 7.96 9.31 15.34 23.54 26.30 28.85 32.00 34.27
17 5.70 6.41 7.56 8.67 10.09 16.34 24.77 27.59 30.19 33.41 35.72
18 6.26 7.01 8.23 9.39 10.86 17.34 25.99 28.87 31.53 34.81 37.16
19 6.84 7.63 8.91 10.12 11.65 18.34 27.20 30.14 32.85 36.19 38.58
20 7.43 8.26 9.59 10.85 12.44 19.34 28.41 31.41 34.17 37.57 40.00
21 8.03 8.90 10.28 11.59 13.24 20.34 29.62 32.67 35.48 38.93 41.40
22 8.64 9.54 10.98 12.34 14.04 21.34 30.81 33.92 36.78 40.29 42.80
23 9.26 10.20 11.69 13.09 14.85 22.34 32.01 35.17 38.08 41.64 44.18
24 9.89 10.86 12.40 13.85 15.66 23.34 33.20 36.42 39.36 42.98 45.56
25 10.52 11.52 13.12 14.61 16.47 24.34 34.38 37.65 40.65 44.31 46.93
26 11.16 12.20 13.84 15.38 17.29 25.34 35.56 38.89 41.92 45.64 48.29
27 11.81 12.88 14.57 16.15 18.11 26.34 36.74 40.11 43.19 46.96 49.64
28 12.46 13.56 15.31 16.93 18.94 27.34 37.92 41.34 44.46 48.28 50.99
29 13.12 14.26 16.05 17.71 19.77 28.34 39.09 42.56 45.72 49.59 52.34
30 13.79 14.95 16.79 18.49 20.60 29.34 40.26 43.77 46.98 50.89 53.67
40 20.71 22.16 24.43 26.51 29.05 39.34 51.81 55.76 59.34 63.69 66.77
50 27.99 29.71 32.36 34.76 37.69 49.33 63.17 67.50 71.42 76.15 79.49
60 35.53 37.48 40.48 43.19 46.46 59.33 74.40 79.08 83.30 88.38 91.95
70 43.28 45.44 48.76 51.74 55.33 69.33 85.53 90.53 95.02 100.43 104.21
80 51.17 53.54 57.15 60.39 64.28 79.33 96.58 101.88 106.63 112.33 116.32
90 59.20 61.75 65.65 69.13 73.29 89.33 107.57 113.15 118.14 124.12 128.30
100 67.33 70.06 74.22 77.93 82.36 99.33 118.50 124.34 129.56 135.81 140.17
276
Tabla A4: Distribucin F
F.25,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
1 2 3 4 5 6 7 8 9 10
HH
m H
HH
1 5.83 7.50 8.20 8.58 8.82 8.98 9.10 9.19 9.26 9.32
2 2.57 3.00 3.15 3.23 3.28 3.31 3.34 3.35 3.37 3.38
3 2.02 2.28 2.36 2.39 2.41 2.42 2.43 2.44 2.44 2.44
4 1.81 2.00 2.05 2.06 2.07 2.08 2.08 2.08 2.08 2.08
5 1.69 1.85 1.88 1.89 1.89 1.89 1.89 1.89 1.89 1.89
6 1.62 1.76 1.78 1.79 1.79 1.78 1.78 1.78 1.77 1.77
7 1.57 1.70 1.72 1.72 1.71 1.71 1.70 1.70 1.69 1.69
8 1.54 1.66 1.67 1.66 1.66 1.65 1.64 1.64 1.63 1.63
9 1.51 1.62 1.63 1.63 1.62 1.61 1.60 1.60 1.59 1.59
10 1.49 1.60 1.60 1.59 1.59 1.58 1.57 1.56 1.56 1.55
11 1.47 1.58 1.58 1.57 1.56 1.55 1.54 1.53 1.53 1.52
12 1.46 1.56 1.56 1.55 1.54 1.53 1.52 1.51 1.51 1.50
13 1.45 1.55 1.55 1.53 1.52 1.51 1.50 1.49 1.49 1.48
14 1.44 1.53 1.53 1.52 1.51 1.50 1.49 1.48 1.47 1.46
15 1.43 1.52 1.52 1.51 1.49 1.48 1.47 1.46 1.46 1.45
16 1.42 1.51 1.51 1.50 1.48 1.47 1.46 1.45 1.44 1.44
17 1.42 1.51 1.50 1.49 1.47 1.46 1.45 1.44 1.43 1.43
18 1.41 1.50 1.49 1.48 1.46 1.45 1.44 1.43 1.42 1.42
19 1.41 1.49 1.49 1.47 1.46 1.44 1.43 1.42 1.41 1.41
20 1.40 1.49 1.48 1.47 1.45 1.44 1.43 1.42 1.41 1.40
21 1.40 1.48 1.48 1.46 1.44 1.43 1.42 1.41 1.40 1.39
22 1.40 1.48 1.47 1.45 1.44 1.42 1.41 1.40 1.39 1.39
23 1.39 1.47 1.47 1.45 1.43 1.42 1.41 1.40 1.39 1.38
24 1.39 1.47 1.46 1.44 1.43 1.41 1.40 1.39 1.38 1.38
25 1.39 1.47 1.46 1.44 1.42 1.41 1.40 1.39 1.38 1.37
26 1.38 1.46 1.45 1.44 1.42 1.41 1.39 1.38 1.37 1.37
27 1.38 1.46 1.45 1.43 1.42 1.40 1.39 1.38 1.37 1.36
28 1.38 1.46 1.45 1.43 1.41 1.40 1.39 1.38 1.37 1.36
29 1.38 1.45 1.45 1.43 1.41 1.40 1.38 1.37 1.36 1.35
30 1.38 1.45 1.44 1.42 1.41 1.39 1.38 1.37 1.36 1.35
40 1.36 1.44 1.42 1.40 1.39 1.37 1.36 1.35 1.34 1.33
50 1.35 1.43 1.41 1.39 1.37 1.36 1.34 1.33 1.32 1.31
60 1.35 1.42 1.41 1.38 1.37 1.35 1.33 1.32 1.31 1.30
70 1.35 1.41 1.40 1.38 1.36 1.34 1.33 1.32 1.31 1.30
80 1.34 1.41 1.40 1.38 1.36 1.34 1.32 1.31 1.30 1.29
90 1.34 1.41 1.39 1.37 1.35 1.33 1.32 1.31 1.30 1.29
100 1.34 1.41 1.39 1.37 1.35 1.33 1.32 1.30 1.29 1.28
277
Tabla A4: Distribucin F
F.25,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
11 12 13 14 15 20 30 40 50 100
HH
m H
HH
1 9.37 9.41 9.44 9.47 9.49 9.58 9.67 9.71 9.74 9.80
2 3.39 3.39 3.40 3.41 3.41 3.43 3.44 3.45 3.46 3.47
3 2.45 2.45 2.45 2.45 2.46 2.46 2.47 2.47 2.47 2.47
4 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08
5 1.89 1.89 1.89 1.89 1.89 1.88 1.88 1.88 1.88 1.87
6 1.77 1.77 1.77 1.76 1.76 1.76 1.75 1.75 1.75 1.74
7 1.69 1.68 1.68 1.68 1.68 1.67 1.66 1.66 1.66 1.65
8 1.63 1.62 1.62 1.62 1.62 1.61 1.60 1.59 1.59 1.58
9 1.58 1.58 1.58 1.57 1.57 1.56 1.55 1.54 1.54 1.53
10 1.55 1.54 1.54 1.54 1.53 1.52 1.51 1.51 1.50 1.49
11 1.52 1.51 1.51 1.51 1.50 1.49 1.48 1.47 1.47 1.46
12 1.49 1.49 1.49 1.48 1.48 1.47 1.45 1.45 1.44 1.43
13 1.47 1.47 1.47 1.46 1.46 1.45 1.43 1.42 1.42 1.41
14 1.46 1.45 1.45 1.44 1.44 1.43 1.41 1.41 1.40 1.39
15 1.44 1.44 1.43 1.43 1.43 1.41 1.40 1.39 1.38 1.37
16 1.43 1.43 1.42 1.42 1.41 1.40 1.38 1.37 1.37 1.36
17 1.42 1.41 1.41 1.41 1.40 1.39 1.37 1.36 1.36 1.34
18 1.41 1.40 1.40 1.40 1.39 1.38 1.36 1.35 1.34 1.33
19 1.40 1.40 1.39 1.39 1.38 1.37 1.35 1.34 1.33 1.32
20 1.39 1.39 1.38 1.38 1.37 1.36 1.34 1.33 1.32 1.31
21 1.39 1.38 1.37 1.37 1.37 1.35 1.33 1.32 1.32 1.30
22 1.38 1.37 1.37 1.36 1.36 1.34 1.32 1.31 1.31 1.29
23 1.37 1.37 1.36 1.36 1.35 1.34 1.32 1.31 1.30 1.29
24 1.37 1.36 1.36 1.35 1.35 1.33 1.31 1.30 1.29 1.28
25 1.36 1.36 1.35 1.35 1.34 1.33 1.31 1.29 1.29 1.27
26 1.36 1.35 1.35 1.34 1.34 1.32 1.30 1.29 1.28 1.27
27 1.35 1.35 1.34 1.34 1.33 1.32 1.30 1.28 1.28 1.26
28 1.35 1.34 1.34 1.33 1.33 1.31 1.29 1.28 1.27 1.25
29 1.35 1.34 1.33 1.33 1.32 1.31 1.29 1.27 1.27 1.25
30 1.34 1.34 1.33 1.33 1.32 1.30 1.28 1.27 1.26 1.25
40 1.32 1.31 1.31 1.30 1.30 1.28 1.25 1.24 1.23 1.21
50 1.30 1.30 1.29 1.28 1.28 1.26 1.23 1.22 1.21 1.19
60 1.29 1.29 1.28 1.27 1.27 1.25 1.22 1.21 1.20 1.18
70 1.29 1.28 1.27 1.27 1.26 1.24 1.21 1.20 1.19 1.16
80 1.28 1.27 1.27 1.26 1.26 1.23 1.21 1.19 1.18 1.16
90 1.28 1.27 1.26 1.26 1.25 1.23 1.20 1.19 1.18 1.15
100 1.27 1.27 1.26 1.25 1.25 1.23 1.20 1.18 1.17 1.14
278
Tabla A5: Distribucin F
F.10,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
1 2 3 4 5 6 7 8 9 10
HH
m H
HH
1 39.86 49.50 53.59 55.83 57.24 58.20 58.91 59.44 59.86 60.19
2 8.53 9.00 9.16 9.24 9.29 9.33 9.35 9.37 9.38 9.39
3 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5.25 5.24 5.23
4 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94 3.92
5 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.32 3.30
6 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96 2.94
7 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72 2.70
8 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.56 2.54
9 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.44 2.42
10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35 2.32
11 3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30 2.27 2.25
12 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21 2.19
13 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20 2.16 2.14
14 3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.12 2.10
15 3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12 2.09 2.06
16 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 2.06 2.03
17 3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06 2.03 2.00
18 3.01 2.62 2.42 2.29 2.20 2.13 2.08 2.04 2.00 1.98
19 2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02 1.98 1.96
20 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.96 1.94
21 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.95 1.92
22 2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97 1.93 1.90
23 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.92 1.89
24 2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94 1.91 1.88
25 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89 1.87
26 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.88 1.86
27 2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91 1.87 1.85
28 2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90 1.87 1.84
29 2.89 2.50 2.28 2.15 2.06 1.99 1.93 1.89 1.86 1.83
30 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85 1.82
40 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.79 1.76
50 2.81 2.41 2.20 2.06 1.97 1.90 1.84 1.80 1.76 1.73
60 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74 1.71
70 2.78 2.38 2.16 2.03 1.93 1.86 1.80 1.76 1.72 1.69
80 2.77 2.37 2.15 2.02 1.92 1.85 1.79 1.75 1.71 1.68
90 2.76 2.36 2.15 2.01 1.91 1.84 1.78 1.74 1.70 1.67
100 2.76 2.36 2.14 2.00 1.91 1.83 1.78 1.73 1.69 1.66
279
Tabla A5: Distribucin F
F.10,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
11 12 13 14 15 20 30 40 50 100
HH
m H
HH
1 60.47 60.71 60.90 61.07 61.22 61.74 62.26 62.53 62.69 63.01
2 9.40 9.41 9.41 9.42 9.42 9.44 9.46 9.47 9.47 9.48
3 5.22 5.22 5.21 5.20 5.20 5.18 5.17 5.16 5.15 5.14
4 3.91 3.90 3.89 3.88 3.87 3.84 3.82 3.80 3.80 3.78
5 3.28 3.27 3.26 3.25 3.24 3.21 3.17 3.16 3.15 3.13
6 2.92 2.90 2.89 2.88 2.87 2.84 2.80 2.78 2.77 2.75
7 2.68 2.67 2.65 2.64 2.63 2.59 2.56 2.54 2.52 2.50
8 2.52 2.50 2.49 2.48 2.46 2.42 2.38 2.36 2.35 2.32
9 2.40 2.38 2.36 2.35 2.34 2.30 2.25 2.23 2.22 2.19
10 2.30 2.28 2.27 2.26 2.24 2.20 2.16 2.13 2.12 2.09
11 2.23 2.21 2.19 2.18 2.17 2.12 2.08 2.05 2.04 2.01
12 2.17 2.15 2.13 2.12 2.10 2.06 2.01 1.99 1.97 1.94
13 2.12 2.10 2.08 2.07 2.05 2.01 1.96 1.93 1.92 1.88
14 2.07 2.05 2.04 2.02 2.01 1.96 1.91 1.89 1.87 1.83
15 2.04 2.02 2.00 1.99 1.97 1.92 1.87 1.85 1.83 1.79
16 2.01 1.99 1.97 1.95 1.94 1.89 1.84 1.81 1.79 1.76
17 1.98 1.96 1.94 1.93 1.91 1.86 1.81 1.78 1.76 1.73
18 1.95 1.93 1.92 1.90 1.89 1.84 1.78 1.75 1.74 1.70
19 1.93 1.91 1.89 1.88 1.86 1.81 1.76 1.73 1.71 1.67
20 1.91 1.89 1.87 1.86 1.84 1.79 1.74 1.71 1.69 1.65
21 1.90 1.87 1.86 1.84 1.83 1.78 1.72 1.69 1.67 1.63
22 1.88 1.86 1.84 1.83 1.81 1.76 1.70 1.67 1.65 1.61
23 1.87 1.84 1.83 1.81 1.80 1.74 1.69 1.66 1.64 1.59
24 1.85 1.83 1.81 1.80 1.78 1.73 1.67 1.64 1.62 1.58
25 1.84 1.82 1.80 1.79 1.77 1.72 1.66 1.63 1.61 1.56
26 1.83 1.81 1.79 1.77 1.76 1.71 1.65 1.61 1.59 1.55
27 1.82 1.80 1.78 1.76 1.75 1.70 1.64 1.60 1.58 1.54
28 1.81 1.79 1.77 1.75 1.74 1.69 1.63 1.59 1.57 1.53
29 1.80 1.78 1.76 1.75 1.73 1.68 1.62 1.58 1.56 1.52
30 1.79 1.77 1.75 1.74 1.72 1.67 1.61 1.57 1.55 1.51
40 1.74 1.71 1.70 1.68 1.66 1.61 1.54 1.51 1.48 1.43
50 1.70 1.68 1.66 1.64 1.63 1.57 1.50 1.46 1.44 1.39
60 1.68 1.66 1.64 1.62 1.60 1.54 1.48 1.44 1.41 1.36
70 1.66 1.64 1.62 1.60 1.59 1.53 1.46 1.42 1.39 1.34
80 1.65 1.63 1.61 1.59 1.57 1.51 1.44 1.40 1.38 1.32
90 1.64 1.62 1.60 1.58 1.56 1.50 1.43 1.39 1.36 1.30
100 1.64 1.61 1.59 1.57 1.56 1.49 1.42 1.38 1.35 1.29
280
Tabla A6: Distribucin F
F.05,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
1 2 3 4 5 6 7 8 9 10
HH
m H
HH
1 161.4 199.5 215.7 224.5 230.1 233.9 236.7 238.8 240.5 241.8
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30
23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25
25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20
28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08
50 4.03 3.18 2.79 2.56 2.40 2.29 2.20 2.13 2.07 2.03
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99
70 3.98 3.13 2.74 2.50 2.35 2.23 2.14 2.07 2.02 1.97
80 3.96 3.11 2.72 2.49 2.33 2.21 2.13 2.06 2.00 1.95
90 3.95 3.10 2.71 2.47 2.32 2.20 2.11 2.04 1.99 1.94
100 3.94 3.09 2.70 2.46 2.31 2.19 2.10 2.03 1.97 1.93
281
Tabla A6: Distribucin F
F.05,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
11 12 13 14 15 20 30 40 50 100
HH
m H
HH
1 242.9 243.9 244.6 245.3 245.9 248.0 250.1 251.1 251.7 253.0
2 19.40 19.41 19.42 19.42 19.43 19.45 19.46 19.47 19.48 19.49
3 8.76 8.74 8.73 8.71 8.70 8.66 8.62 8.59 8.58 8.55
4 5.94 5.91 5.89 5.87 5.86 5.80 5.75 5.72 5.70 5.66
5 4.70 4.68 4.66 4.64 4.62 4.56 4.50 4.46 4.44 4.41
6 4.03 4.00 3.98 3.96 3.94 3.87 3.81 3.77 3.75 3.71
7 3.60 3.57 3.55 3.53 3.51 3.44 3.38 3.34 3.32 3.27
8 3.31 3.28 3.26 3.24 3.22 3.15 3.08 3.04 3.02 2.97
9 3.10 3.07 3.05 3.03 3.01 2.94 2.86 2.83 2.80 2.76
10 2.94 2.91 2.89 2.86 2.85 2.77 2.70 2.66 2.64 2.59
11 2.82 2.79 2.76 2.74 2.72 2.65 2.57 2.53 2.51 2.46
12 2.72 2.69 2.66 2.64 2.62 2.54 2.47 2.43 2.40 2.35
13 2.63 2.60 2.58 2.55 2.53 2.46 2.38 2.34 2.31 2.26
14 2.57 2.53 2.51 2.48 2.46 2.39 2.31 2.27 2.24 2.19
15 2.51 2.48 2.45 2.42 2.40 2.33 2.25 2.20 2.18 2.12
16 2.46 2.42 2.40 2.37 2.35 2.28 2.19 2.15 2.12 2.07
17 2.41 2.38 2.35 2.33 2.31 2.23 2.15 2.10 2.08 2.02
18 2.37 2.34 2.31 2.29 2.27 2.19 2.11 2.06 2.04 1.98
19 2.34 2.31 2.28 2.26 2.23 2.16 2.07 2.03 2.00 1.94
20 2.31 2.28 2.25 2.22 2.20 2.12 2.04 1.99 1.97 1.91
21 2.28 2.25 2.22 2.20 2.18 2.10 2.01 1.96 1.94 1.88
22 2.26 2.23 2.20 2.17 2.15 2.07 1.98 1.94 1.91 1.85
23 2.24 2.20 2.18 2.15 2.13 2.05 1.96 1.91 1.88 1.82
24 2.22 2.18 2.15 2.13 2.11 2.03 1.94 1.89 1.86 1.80
25 2.20 2.16 2.14 2.11 2.09 2.01 1.92 1.87 1.84 1.78
26 2.18 2.15 2.12 2.09 2.07 1.99 1.90 1.85 1.82 1.76
27 2.17 2.13 2.10 2.08 2.06 1.97 1.88 1.84 1.81 1.74
28 2.15 2.12 2.09 2.06 2.04 1.96 1.87 1.82 1.79 1.73
29 2.14 2.10 2.08 2.05 2.03 1.94 1.85 1.81 1.77 1.71
30 2.13 2.09 2.06 2.04 2.01 1.93 1.84 1.79 1.76 1.70
40 2.04 2.00 1.97 1.95 1.92 1.84 1.74 1.69 1.66 1.59
50 1.99 1.95 1.92 1.89 1.87 1.78 1.69 1.63 1.60 1.52
60 1.95 1.92 1.89 1.86 1.84 1.75 1.65 1.59 1.56 1.48
70 1.93 1.89 1.86 1.84 1.81 1.72 1.62 1.57 1.53 1.45
80 1.91 1.88 1.84 1.82 1.79 1.70 1.60 1.54 1.51 1.43
90 1.90 1.86 1.83 1.80 1.78 1.69 1.59 1.53 1.49 1.41
100 1.89 1.85 1.82 1.79 1.77 1.68 1.57 1.52 1.48 1.39
282
Tabla A7: Distribucin F
F.025,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
1 2 3 4 5 6 7 8 9 10
HH
m H
HH
1 647.7 799.5 864.1 899.5 921.8 937.1 948.2 956.6 963.2 968.6
2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40
3 17.44 16.04 15.44 15.10 14.88 14.73 14.62 14.54 14.47 14.42
4 12.22 10.65 9.98 9.60 9.36 9.20 9.07 8.98 8.90 8.84
5 10.01 8.43 7.76 7.39 7.15 6.98 6.85 6.76 6.68 6.62
6 8.81 7.26 6.60 6.23 5.99 5.82 5.70 5.60 5.52 5.46
7 8.07 6.54 5.89 5.52 5.29 5.12 4.99 4.90 4.82 4.76
8 7.57 6.06 5.42 5.05 4.82 4.65 4.53 4.43 4.36 4.30
9 7.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10 4.03 3.96
10 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.85 3.78 3.72
11 6.72 5.26 4.63 4.28 4.04 3.88 3.76 3.66 3.59 3.53
12 6.55 5.10 4.47 4.12 3.89 3.73 3.61 3.51 3.44 3.37
13 6.41 4.97 4.35 4.00 3.77 3.60 3.48 3.39 3.31 3.25
14 6.30 4.86 4.24 3.89 3.66 3.50 3.38 3.29 3.21 3.15
15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20 3.12 3.06
16 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.12 3.05 2.99
17 6.04 4.62 4.01 3.66 3.44 3.28 3.16 3.06 2.98 2.92
18 5.98 4.56 3.95 3.61 3.38 3.22 3.10 3.01 2.93 2.87
19 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96 2.88 2.82
20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91 2.84 2.77
21 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87 2.80 2.73
22 5.79 4.38 3.78 3.44 3.22 3.05 2.93 2.84 2.76 2.70
23 5.75 4.35 3.75 3.41 3.18 3.02 2.90 2.81 2.73 2.67
24 5.72 4.32 3.72 3.38 3.15 2.99 2.87 2.78 2.70 2.64
25 5.69 4.29 3.69 3.35 3.13 2.97 2.85 2.75 2.68 2.61
26 5.66 4.27 3.67 3.33 3.10 2.94 2.82 2.73 2.65 2.59
27 5.63 4.24 3.65 3.31 3.08 2.92 2.80 2.71 2.63 2.57
28 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69 2.61 2.55
29 5.59 4.20 3.61 3.27 3.04 2.88 2.76 2.67 2.59 2.53
30 5.57 4.18 3.59 3.25 3.03 2.87 2.75 2.65 2.57 2.51
40 5.42 4.05 3.46 3.13 2.90 2.74 2.62 2.53 2.45 2.39
50 5.34 3.97 3.39 3.05 2.83 2.67 2.55 2.46 2.38 2.32
60 5.29 3.93 3.34 3.01 2.79 2.63 2.51 2.41 2.33 2.27
70 5.25 3.89 3.31 2.97 2.75 2.59 2.47 2.38 2.30 2.24
80 5.22 3.86 3.28 2.95 2.73 2.57 2.45 2.35 2.28 2.21
90 5.20 3.84 3.26 2.93 2.71 2.55 2.43 2.34 2.26 2.19
100 5.18 3.83 3.25 2.92 2.70 2.54 2.42 2.32 2.24 2.18
283
Tabla A7: Distribucin F
F.025,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
11 12 13 14 15 20 30 40 50 100
HH
m H
HH
1 973.0 976.7 979.8 982.5 984.8 993.1 1001.4 1005 1008 1013
2 39.41 39.41 39.42 39.43 39.43 39.45 39.46 39.47 39.48 39.49
3 14.37 14.34 14.30 14.28 14.25 14.17 14.08 14.04 14.01 13.96
4 8.79 8.75 8.71 8.68 8.66 8.56 8.46 8.41 8.38 8.32
5 6.57 6.52 6.49 6.46 6.43 6.33 6.23 6.18 6.14 6.08
6 5.41 5.37 5.33 5.30 5.27 5.17 5.07 5.01 4.98 4.92
7 4.71 4.67 4.63 4.60 4.57 4.47 4.36 4.31 4.28 4.21
8 4.24 4.20 4.16 4.13 4.10 4.00 3.89 3.84 3.81 3.74
9 3.91 3.87 3.83 3.80 3.77 3.67 3.56 3.51 3.47 3.40
10 3.66 3.62 3.58 3.55 3.52 3.42 3.31 3.26 3.22 3.15
11 3.47 3.43 3.39 3.36 3.33 3.23 3.12 3.06 3.03 2.96
12 3.32 3.28 3.24 3.21 3.18 3.07 2.96 2.91 2.87 2.80
13 3.20 3.15 3.12 3.08 3.05 2.95 2.84 2.78 2.74 2.67
14 3.09 3.05 3.01 2.98 2.95 2.84 2.73 2.67 2.64 2.56
15 3.01 2.96 2.92 2.89 2.86 2.76 2.64 2.59 2.55 2.47
16 2.93 2.89 2.85 2.82 2.79 2.68 2.57 2.51 2.47 2.40
17 2.87 2.82 2.79 2.75 2.72 2.62 2.50 2.44 2.41 2.33
18 2.81 2.77 2.73 2.70 2.67 2.56 2.44 2.38 2.35 2.27
19 2.76 2.72 2.68 2.65 2.62 2.51 2.39 2.33 2.30 2.22
20 2.72 2.68 2.64 2.60 2.57 2.46 2.35 2.29 2.25 2.17
21 2.68 2.64 2.60 2.56 2.53 2.42 2.31 2.25 2.21 2.13
22 2.65 2.60 2.56 2.53 2.50 2.39 2.27 2.21 2.17 2.09
23 2.62 2.57 2.53 2.50 2.47 2.36 2.24 2.18 2.14 2.06
24 2.59 2.54 2.50 2.47 2.44 2.33 2.21 2.15 2.11 2.02
25 2.56 2.51 2.48 2.44 2.41 2.30 2.18 2.12 2.08 2.00
26 2.54 2.49 2.45 2.42 2.39 2.28 2.16 2.09 2.05 1.97
27 2.51 2.47 2.43 2.39 2.36 2.25 2.13 2.07 2.03 1.94
28 2.49 2.45 2.41 2.37 2.34 2.23 2.11 2.05 2.01 1.92
29 2.48 2.43 2.39 2.36 2.32 2.21 2.09 2.03 1.99 1.90
30 2.46 2.41 2.37 2.34 2.31 2.20 2.07 2.01 1.97 1.88
40 2.33 2.29 2.25 2.21 2.18 2.07 1.94 1.88 1.83 1.74
50 2.26 2.22 2.18 2.14 2.11 1.99 1.87 1.80 1.75 1.66
60 2.22 2.17 2.13 2.09 2.06 1.94 1.82 1.74 1.70 1.60
70 2.18 2.14 2.10 2.06 2.03 1.91 1.78 1.71 1.66 1.56
80 2.16 2.11 2.07 2.03 2.00 1.88 1.75 1.68 1.63 1.53
90 2.14 2.09 2.05 2.02 1.98 1.86 1.73 1.66 1.61 1.50
100 2.12 2.08 2.04 2.00 1.97 1.85 1.71 1.64 1.59 1.48
284
Tabla A8: Distribucin F
F.01,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
1 2 3 4 5 6 7 8 9 10
HH
m H
HH
1 4052 4999 5403 5624 5763 5858 5928 5981 6022 6055
2 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39 99.40
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35 27.23
4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98 7.87
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81
9 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35 5.26
10 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94 4.85
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.39 4.30
13 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19 4.10
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.89 3.80
16 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78 3.69
17 8.40 6.11 5.18 4.67 4.34 4.10 3.93 3.79 3.68 3.59
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60 3.51
19 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.52 3.43
20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46 3.37
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40 3.31
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.30 3.21
24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.26 3.17
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09
27 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15 3.06
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03
29 7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20 3.09 3.00
30 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07 2.98
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.80
50 7.17 5.06 4.20 3.72 3.41 3.19 3.02 2.89 2.78 2.70
60 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72 2.63
70 7.01 4.92 4.07 3.60 3.29 3.07 2.91 2.78 2.67 2.59
80 6.96 4.88 4.04 3.56 3.26 3.04 2.87 2.74 2.64 2.55
90 6.93 4.85 4.01 3.53 3.23 3.01 2.84 2.72 2.61 2.52
100 6.90 4.82 3.98 3.51 3.21 2.99 2.82 2.69 2.59 2.50
285
Tabla A8: Distribucin F
F.01,n,m
Grados de libertad para el numerador (n)
Grados de libertad para el denominador (m)
n
H
11 12 13 14 15 20 30 40 50 100
HH
m H
HH
1 6083 6106 6125 6142 6157 6208 6260 6286 6302 6334
2 99.41 99.42 99.42 99.43 99.43 99.45 99.47 99.47 99.48 99.49
3 27.13 27.05 26.98 26.92 26.87 26.69 26.50 26.41 26.35 26.24
4 14.45 14.37 14.31 14.25 14.20 14.02 13.84 13.75 13.69 13.58
5 9.96 9.89 9.82 9.77 9.72 9.55 9.38 9.29 9.24 9.13
6 7.79 7.72 7.66 7.60 7.56 7.40 7.23 7.14 7.09 6.99
7 6.54 6.47 6.41 6.36 6.31 6.16 5.99 5.91 5.86 5.75
8 5.73 5.67 5.61 5.56 5.52 5.36 5.20 5.12 5.07 4.96
9 5.18 5.11 5.05 5.01 4.96 4.81 4.65 4.57 4.52 4.41
10 4.77 4.71 4.65 4.60 4.56 4.41 4.25 4.17 4.12 4.01
11 4.46 4.40 4.34 4.29 4.25 4.10 3.94 3.86 3.81 3.71
12 4.22 4.16 4.10 4.05 4.01 3.86 3.70 3.62 3.57 3.47
13 4.02 3.96 3.91 3.86 3.82 3.66 3.51 3.43 3.38 3.27
14 3.86 3.80 3.75 3.70 3.66 3.51 3.35 3.27 3.22 3.11
15 3.73 3.67 3.61 3.56 3.52 3.37 3.21 3.13 3.08 2.98
16 3.62 3.55 3.50 3.45 3.41 3.26 3.10 3.02 2.97 2.86
17 3.52 3.46 3.40 3.35 3.31 3.16 3.00 2.92 2.87 2.76
18 3.43 3.37 3.32 3.27 3.23 3.08 2.92 2.84 2.78 2.68
19 3.36 3.30 3.24 3.19 3.15 3.00 2.84 2.76 2.71 2.60
20 3.29 3.23 3.18 3.13 3.09 2.94 2.78 2.69 2.64 2.54
21 3.24 3.17 3.12 3.07 3.03 2.88 2.72 2.64 2.58 2.48
22 3.18 3.12 3.07 3.02 2.98 2.83 2.67 2.58 2.53 2.42
23 3.14 3.07 3.02 2.97 2.93 2.78 2.62 2.54 2.48 2.37
24 3.09 3.03 2.98 2.93 2.89 2.74 2.58 2.49 2.44 2.33
25 3.06 2.99 2.94 2.89 2.85 2.70 2.54 2.45 2.40 2.29
26 3.02 2.96 2.90 2.86 2.81 2.66 2.50 2.42 2.36 2.25
27 2.99 2.93 2.87 2.82 2.78 2.63 2.47 2.38 2.33 2.22
28 2.96 2.90 2.84 2.79 2.75 2.60 2.44 2.35 2.30 2.19
29 2.93 2.87 2.81 2.77 2.73 2.57 2.41 2.33 2.27 2.16
30 2.91 2.84 2.79 2.74 2.70 2.55 2.39 2.30 2.25 2.13
40 2.73 2.66 2.61 2.56 2.52 2.37 2.20 2.11 2.06 1.94
50 2.63 2.56 2.51 2.46 2.42 2.27 2.10 2.01 1.95 1.82
60 2.56 2.50 2.44 2.39 2.35 2.20 2.03 1.94 1.88 1.75
70 2.51 2.45 2.40 2.35 2.31 2.15 1.98 1.89 1.83 1.70
80 2.48 2.42 2.36 2.31 2.27 2.12 1.94 1.85 1.79 1.65
90 2.45 2.39 2.33 2.29 2.24 2.09 1.92 1.82 1.76 1.62
100 2.43 2.37 2.31 2.27 2.22 2.07 1.89 1.80 1.74 1.60
286
Tabla A9: Estadstico Durbin-Watson
k = Nmero de predictores (sin incluir el intercepto)
Cola izquierda 1 2 3 4 5
Muestra dL dU dL dU dL dU dL dU dL dU
0.01 0.81 1.07 0.70 1.25 0.59 1.46 0.49 1.70 0.39 1.96
15 0.025 0.95 1.23 0.83 1.40 0.71 1.61 0.59 1.84 0.48 2.09
0.05 1.08 1.36 0.95 1.54 0.82 1.75 0.69 1.97 0.56 2.21
0.01 0.95 1.15 0.86 1.27 0.77 1.41 0.63 1.57 0.60 1.74
20 0.025 1.08 1.28 0.99 1.41 0.89 1.55 0.79 1.70 0.70 1.87
0.05 1.20 1.41 1.10 1.54 1.00 1.68 0.90 1.83 0.79 1.99
0.01 1.05 1.21 0.98 1.30 0.90 1.41 0.83 1.52 0.75 1.65
25 0.025 1.13 1.34 1.10 1.43 1.02 1.54 0.94 1.65 0.86 1.77
0.05 1.20 1.45 1.21 1.55 1.12 1.66 1.04 1.77 0.95 1.89
0.01 1.13 1.26 1.07 1.34 1.01 1.42 0.94 1.51 0.88 1.61
30 0.025 1.25 1.38 1.18 1.46 1.12 1.54 1.05 1.63 0.98 1.73
0.05 1.35 1.49 1.28 1.57 1.21 1.65 1.14 1.74 1.07 1.83
0.01 1.25 1.34 1.20 1.40 1.15 1.46 1.10 1.52 1.05 1.58
40 0.025 1.35 1.45 1.30 1.51 1.25 1.57 1.20 1.63 1.15 1.69
0.05 1.44 1.54 1.39 1.60 1.34 1.66 1.29 1.72 1.23 1.79
0.01 1.32 1.40 1.28 1.45 1.24 1.49 1.20 1.54 1.16 1.59
50 0.025 1.42 1.50 1.38 1.54 1.34 1.59 1.30 1.64 1.26 1.69
0.05 1.50 1.59 1.46 1.63 1.42 1.67 1.38 1.72 1.34 1.77
0.01 1.38 1.45 1.35 1.48 1.32 1.52 1.28 1.56 1.25 1.60
60 0.025 1.47 1.54 1.44 1.57 1.40 1.61 1.37 1.65 1.33 1.69
0.05 1.55 1.62 1.51 1.65 1.48 1.69 1.44 1.73 1.41 1.77
0.01 1.47 1.52 1.44 1.54 1.42 1.57 1.39 1.60 1.36 1.62
80 0.025 1.54 1.59 1.52 1.62 1.49 1.65 1.47 1.67 1.44 1.70
0.05 1.61 1.66 1.59 1.69 1.56 1.72 1.53 1.74 1.51 1.77
0.01 1.52 1.56 1.50 1.58 1.48 1.60 1.45 1.63 1.44 1.65
100 0.025 1.59 1.63 1.57 1.65 1.55 1.67 1.53 1.70 1.51 1.72
0.05 1.65 1.69 1.63 1.72 1.61 1.74 1.59 1.76 1.57 1.78
287
ndice alfabtico
ndice de Kullback-Lieber, 175 cadena de Markov, 232
calidad del ajuste, 3
acciones de atencin, 32, 33, 36, 5254, 57, 64, causalidad, 3, 109
65, 178, 183 cociente estacional, 34
ajuste del modelo a los datos, 3 coeciente de determinacin, 15
algoritmo de Durbin-Levinson, 138, 145, 146, coeciente de variacin, 34
149 coecientes de la regresin, 1
algoritmo de innovacin, 152, 155, 166
componente irregular, 31, 32, 48, 72
anlisis de regresin lineal, 37, 70
Condusef, 32, 33, 5254, 64, 65, 178, 183, 187
Anderson-Darling, 20, 21, 28
consistentes, 10
ANOVA, 12, 13
correlacin de Spearman, 6, 7
AR(1), 22, 23, 93, 99, 100, 106, 109, 110, 112,
criterio de informacin Bayesiana (BIC), 175,
113, 117, 130, 134, 135, 142, 143, 156,
177, 181
162, 163, 165, 171, 172, 247
criterio de informacin de Akaike corregido,
AR(1) explosivo, 110
175177, 181, 248, 251
AR(2), 101103, 120, 134, 138, 143, 144, 171,
criterio de informacin de Akaike sin corregir,
181, 249252
175177, 248, 251
AR(p), 93, 104, 106, 107, 130, 133, 135137,
criterios de informacin, 166
148, 149, 155, 163, 171, 175, 181, 196,
curtosis, 18
197, 201, 236
ARCH(1), 221
dbilmente estacionario, 76
ARIMA(0,0,0), 254
datos de series de tiempo, 22
ARIMA(1,0,2), 253
datos de tipo longitudinales, 30
ARIMA(1,1,1), 246, 249
datos de tipo transversales, 30
ARIMA(p,d,q), 195197, 199, 200, 210, 212,
deactacin, 31
234, 246254, 256
deactor del PIB, 31
ARMA(1,1), 106, 108, 113, 115, 172, 173, 181,
descomposicin clsica, 30
183, 185
desigualdad de Cauchy, 76, 79
ARMA(1,2), 189
desigualdad de Jensen, 176
ARMA(2,1), 181, 183, 185, 187
diagrama de caja y bigotes, 18, 21, 28
ARMA(2,2), 113, 151
diferencia estacional, 34
ARMA(2,3), 193, 252
distribucin a posteriori, 226, 227
ARMA(p,q), 43, 81, 85, 88, 106, 107, 109, 111,
distribucin a priori, 226
112, 117119, 122, 123, 125, 126, 129,
distribucin F, 13
130, 132, 135, 136, 145, 148, 149, 151,
distribucin ji-cuadrada, 5
152, 160, 162, 165, 166, 170, 174, 176
distribucin Normal, 14, 156
178, 180, 183, 187, 189, 191, 195, 213,
distribucin t, 12, 14
214, 220, 225, 234236, 248250, 252,
255, 267, 268 Durbin-Watson, 2224, 28, 246
289
ecuaciones de Yule-Walker, 103105, 134138, MA(q), 97, 98, 105107, 121, 130, 133, 137,
145 149, 152, 155, 196, 197
ecuaciones normales por mnimos cuadrados, 4 matriz de autocorrelaciones muestrales, 130
enfoque determinista, 30 matriz de autocovarianzas muestrales, 129
enfoque estocstico, 30, 75 mejor predictor lineal, 139, 141144
error cuadrtico medio, 5, 52, 56, 127, 128, 134, metodologa ARIMA, 29, 30, 75
139, 141143, 145, 166, 175 modelo aditivo, 36
error de prediccin nal (FPE), 175, 177, 181 modelo de espacio de estados, 223
esquema aditivo, 33, 35, 36, 48, 65, 68, 74 modelo de regresin dinmica, 253, 268
esquema multiplicativo, 3336 modelo de regresin lineal, 1, 3, 9, 15, 16, 249,
estacionalidad, 31, 32, 36, 37, 48, 6163, 69, 71, 253
72, 74, 8385, 88, 178, 183, 187, 223 modelo de regresin lineal mltiple, 247
estadsticas sucientes, 10 modelo de regresin lineal simple, 2, 3, 5, 9, 16,
estimador mximo verosmil, 157 22, 24, 85, 234, 246, 247, 251
modelo de regresin muestral, 4
frmula general, 103 modelo dinmico lineal, 232, 234, 237
ltro de estacionalidad, 62, 88 modelo en diferencias, 248
ltro de Kalman, 236 modelo en niveles, 248
ltro de promedios mviles, 85 modelo multiplicativo, 36
fuertemente estacionario, 76 modelos ARCH, 220
funcin de autocorrelacin, 76 modelos de espacio de estados, 225
funcin de autocovarianza, 76, 79 modelos GARCH, 222
funcin de verosimilitud, 157159, 226230 modelos inestables, 16
290
residuos estudentizados, 16, 18 valores extremos, 16, 17
ruido blanco, 80, 81, 94, 9799, 104, 106, 116, variable aleatoria, 1, 2
122, 133, 138, 151, 152, 156, 173, 195, variable explicativa, 2, 15, 24, 28, 246
202 variable respuesta, 2, 3, 6, 7, 12, 16, 24, 37, 246
verosimilitud estandarizada, 226, 227
serie de tiempo, 29, 30, 33, 34, 37, 68, 74, 75,
8386, 150, 162, 163, 177, 195, 232, 233,
251
sesgo, 18, 21
Shapiro-Wilk, 194, 204, 219
signicancia de la regresin, 12
Sistema Financiero Mexicano, 32
suavizamiento exponencial simple, 5254, 57
sucesin de autocorrelaciones (ACF), 172
sucesin de autocorrelaciones muestrales (ACF),
129, 130, 133, 149152, 162, 166, 167,
180, 182, 183, 187, 189, 191, 193, 195
197, 199201, 214, 216, 251, 252, 268
sucesin de autocorrelaciones muestrales par-
ciales (PACF), 166, 180, 183, 189, 193,
196, 197, 200, 201, 214, 216, 252, 268
sucesin de autocorrelaciones parciales (PACF),
130, 132, 134, 135, 149, 151, 152, 189,
251
sucesin de autocorrelaciones terica (ACF),
80, 92, 9496, 98, 100, 103, 105108,
110, 129, 130, 152
sucesin de autocovarianzas, 8991, 107, 111
113, 125, 128, 139, 148
sucesin de autocovarianzas muestrales, 129
sucesin de autocovarianzas terica, 79, 80, 92,
94, 97100, 106108, 113, 124126, 129,
136, 143
suma de cuadrados total, 5
suma de los errores al cuadrado, 4, 5
tendencia, 3133, 36, 37, 42, 47, 48, 56, 62, 63,
69, 70, 72, 8388, 178, 183, 187, 197,
233, 258, 260
tendencia cuadrtica, 42
tendencia determinista, 255, 264
tendencia estocstica, 255, 264
tendencia exponencial, 44
tendencia lineal, 42
Teorema de Bayes, 226
Teorema de Gauss-Markov, 8, 10, 37
Teorema de proyeccin ortogonal, 147
Teorema de Schur, 102
transformacin de Box-Cox, 211, 212
291