Inferencia y Prediccion
Inferencia y Prediccion
Inferencia y Prediccion
Definiciones previas:
• H0 : Hipótesis Nula
• H1 : Hipótesis Alternativa
• El error del tipo 1 es rechazar H0 cuando es cierta
• El error del tipo 2 es aceptar H0 cuando es falsa
• A la máxima probabilidad de cometer error del tipo uno se le denomina nivel de
significación (𝛼)
• La región crítica está conformada por todos los valores del estadístico que rechazan H0
(zona de rechazo)
• El p – valor es el nivel de significación mínimo al que se rechaza H0. Como regla de
decisión rechazamos H0 si: 𝒑 − 𝒗𝒂𝒍𝒐𝒓 < 𝛼
Considerando los supuestos clásicos y el supuesto 6 [𝑢/𝑋 ~ 𝑁(0, 𝜎 2 𝐼)] entonces:
መ
𝛽~𝑁 𝛽, 𝜎 2 (𝑋 ′ 𝑋)−1
Pruebas de Hipótesis:
1) Prueba de significación individual de un parámetro
𝐻0 ) 𝛽𝑖 = 0
𝐻1 ) 𝛽𝑖 ≠ 0
Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:
𝛽𝑖
𝐸= ~ 𝑡𝑁−𝑘−1
𝛽𝑖 )
𝑉(
1− 𝛼/2
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/ 𝑒 > 𝑡𝑁−𝑘−1
2) Prueba individual de un parámetro (a dos colas)
𝐻0 ) 𝛽𝑖 = 𝑎
𝐻1 ) 𝛽𝑖 ≠ 𝑎 ∀ 𝑎 ∈ 𝑅
Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:
𝛽𝑖 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
𝛽𝑖 )
𝑉(
1− 𝛼/2
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/ 𝑒 > 𝑡𝑁−𝑘−1
3) Prueba individual de un parámetro (a cola izquierda)
𝐻0 ) 𝛽𝑖 ≥ 𝑎
𝐻1 ) 𝛽𝑖 < 𝑎 ∀𝑎 ∈ 𝑅
Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:
𝛽𝑖 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
𝛽𝑖 )
𝑉(
𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 < 𝑡𝑁−𝑘−1
4) Prueba individual de un parámetro (a cola derecha)
𝐻0 ) 𝛽𝑖 ≤ 𝑎
𝐻1 ) 𝛽𝑖 > 𝑎 ∀ 𝑎 ∈ 𝑅
Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:
𝛽𝑖 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
𝛽𝑖 )
𝑉(
1−𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 > 𝑡𝑁−𝑘−1
5) Prueba de una restricción lineal (un ejemplo particular)
𝐻0 ) 2𝛽1 + 𝛽2 = 𝑎
𝐻1 ) 2𝛽1 + 𝛽2 ≠ 𝑎 ∀ 𝑎 ∈ 𝑅
Bajo H0 y suponiendo normalidad del error cierta el estadístico del contraste es:
2𝛽1 + 𝛽2 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
𝛽1 + 𝛽2 )
𝑉(2
1− 𝛼/2
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/ 𝑒 > 𝑡𝑁−𝑘−1
𝐻0 ) 𝛽1 = 𝛽2 = 𝛽3 = ⋯ = 𝛽𝑘 = 0
𝐻1 ) 𝐴𝑙𝑔ú𝑛 𝛽𝑖 ≠ 0 ∀𝑖 = 1,2,3, … 𝑘
𝑅 2 /𝑞
𝐸= ~ 𝐹𝑞,(𝑁−𝑘−1)
1 − 𝑅 2 /(𝑁 − 𝑘 − 1)
Otro estadístico alternativo es:
𝑆𝐶𝐸/𝑞
𝐸= ~ 𝐹𝑞,(𝑁−𝑘−1)
𝑆𝐶𝑅/(𝑁 − 𝑘 − 1)
Donde q es el número de restricciones a contrastar
1−𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 > 𝐹𝑞,(𝑁−𝑘−1)
Planteo general de una Prueba de Hipótesis
𝐻0 ) 𝑅𝛽 = 𝑟
𝐻1 ) 𝑅𝛽 ≠ 𝑟
o R : es una matriz que se construye con los coeficientes de los 𝛽 en la H0
o r : es un vector que se compone con los números a los que se iguala la H0
Ejemplo:
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + 𝑢𝑖
𝐻0 ) 𝛽1 = 5 𝑦 2𝛽2 = 𝛽3
𝐻1 ) 𝛽1 ≠ 5 𝑦/𝑜 2𝛽2 ≠ 𝛽3
7) Prueba de hipótesis de cualquier restricción lineal
𝐻0 ) 𝑅𝛽 = 𝑟
𝐻1 ) 𝑅𝛽 ≠ 𝑟
Bajo H0 y suponiendo normalidad del error se pueden plantear los siguientes estadísticos
𝐸 = 𝑅 𝛽 − 𝑟 ′ 𝜎ො 2 𝑅 𝑋′𝑋 −1
𝑅′ −1
𝑅 𝛽 − 𝑟 /𝑞 ~ 𝐹𝑞,(𝑁−𝑘−1)
𝑆𝐶𝑅𝑅 − 𝑆𝐶𝑅𝑆𝑅 /𝑞
𝐸= ~ 𝐹𝑞,(𝑁−𝑘−1)
𝑆𝐶𝑅𝑆𝑅 /(𝑁 − 𝑘 − 1)
Donde 𝑆𝐶𝑅𝑅 es la suma de cuadrados residuales del modelo restricto y 𝑆𝐶𝑅𝑆𝑅 es la suma de cuadrados
residuales del modelo sin restricciones.
1−𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 > 𝐹𝑞,(𝑁−𝑘−1)
En el caso de que estos estadísticos se empleen para testear una sola restricción se cumple que 𝐹 = 𝑡 2
También se puede emplear el estadístico de Wald
2 (1−𝛼)
𝑊 = 𝑅 𝛽 − 𝑟 ′ 𝜎ො 2 𝑅 𝑋′𝑋 −1
𝑅′ −1
𝑅 𝛽 − 𝑟 ~𝜒𝑞
2 (1−𝛼)
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑊 > 𝜒𝑞
Intervalo para 𝜷
𝛼 𝛼
1− 1−
𝛽𝑗 − 𝑡 2
𝑁−𝐾−1
𝑉 𝛽𝑗 ; 𝛽𝑗 + 𝑡 2
𝑁−𝐾−1
𝑉 𝛽𝑗
Comentarios: El intervalo de confianza está centrado en 𝛽𝑗 . La amplitud del intervalo crece al aumentar la varianza del
estimador, al disminuir el tamaño de la muestra y al disminuir el nivel de significación.
Utilidad: se puede emplear para hacer pruebas de hipótesis sobre el parámetro. Por ejemplo, para una prueba de significación,
si cero pertenece al intervalo, entonces no rechazo H0 , pero si el cero no pertenece al intervalo, entonces rechazo H0.
Predicción de Y para una observación:
Partimos de un modelo estimado de series de tiempo:
𝑦𝑖 = 𝑋𝛽መ + 𝑢ො 𝑖 ∀𝑖 = 1,2, … , 𝑁
Queremos predecir el valor de “y” para la observación h
Para desarrollar la predicción es necesario suponer que el modelo estimado con datos desde la observación 1
a N es válido para para la observación h (estabilidad del modelo, los 𝛽 se mantienen constantes).
Los datos de la observación h son 𝐶 ′ = 1 𝑋1ℎ 𝑋2ℎ … 𝑋𝑘ℎ
entonces:
𝑦ොℎ = 𝐶′𝛽መ
መ = 𝐶′𝑉[𝛽]𝐶
𝑉[𝑦ොℎ ] = 𝑉[𝐶′𝛽] መ
𝑒ℎ = 𝑦ℎ −𝑦ොℎ
Sustituyendo
Por consiguiente el error de predicción incluye al error del modelo y al error de estimación de 𝛽.
Propiedades:
c) Bajo el supuesto de normalidad de las perturbaciones el error de predicción tiene distribución Normal:
𝑒ℎ ~𝑁 0, 𝜎 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶
Dado que:
𝑒ℎ
~𝑡𝑁−𝑘−1
ℎ)
𝑉(𝑒
Entonces:
1−𝛼/2 𝑒ℎ 1−𝛼/2
𝑃 −𝑡𝑁−𝑘−1 ≤ ≤ 𝑡𝑁−𝑘−1 = 1 − 𝛼
ℎ)
𝑉(𝑒
1−𝛼/2 1−𝛼/2
𝐶′𝛽 − 𝑡𝑁−𝑘−1 𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶 ; 𝐶′𝛽 + 𝑡𝑁−𝑘−1 𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶
Predicción para la media
Sin embargo el error de predicción solo hace referencia al error en la estimación de 𝛽 (ya no incluye al término de
perturbación):
𝑒ǁ ℎ = 𝐸(𝑦ℎ ) − 𝐸(𝑦ොℎ )
Entonces,
Y el intervalo de confianza:
1−𝛼/2 1−𝛼/2
𝐶′𝛽 − 𝑡𝑁−𝑘−1 𝜎ො 2 𝐶′(𝑋 ′ 𝑋)−1 𝐶 ; 𝐶′𝛽 + 𝑡𝑁−𝑘−1 𝜎ො 2 𝐶′(𝑋 ′ 𝑋)−1 𝐶