Clase 5 - MRLCK
Clase 5 - MRLCK
Clase 5 - MRLCK
Clase 5: MRLCK
𝑦1 1 𝑥21 … 𝑥𝑘1 𝛽1 𝑢1
𝑦2 1 𝑥22 … 𝑥𝑘2 𝛽2 𝑢
= ፧ ፧ + 2
፧ ፧ ፧ ፧ ፧
𝑦𝑛 1 𝑥2𝑛 … 𝑥𝑘𝑛 𝛽𝑘 𝑢𝑛
1. Modelo de Regresión Lineal Clásico
en K variables
• Definimos 𝒙𝑖 = 1 𝑥2𝑖 … 𝑥𝑘𝑖 , como el vector fila de observaciones del
individuo i.
𝛽1
𝛽
• Sea 𝜷 = 2 el vector columna de 𝛃′s
፧
𝛽𝑘
k incluye la constante
2. Supuestos del MRLCK
2. Exogeneidad
1. Linealidad en 3. Rango
estricta de los
parámetros Completo
regresores
4. Perturbaciones 5. No 6. Normalidad de
esféricas aleatoriedad los errores
2. Supuestos del MRLCK
Supuesto 1: Linealidad en parámetros
𝐸[𝑢1 |𝒙] 0
𝐸[𝑢2 |𝒙]
𝐸𝝁𝒙 = = 0 = 𝟎, 𝑖 = 1 … 𝑛
⋮ ⋮
𝐸[𝑢𝑛 |𝒙] 0
𝐸 𝒚 𝒙 = 𝐸 𝒙𝜷 + 𝒖 𝒙 = 𝐸 𝒙𝜷 𝒙 + 𝐸 𝒖 𝒙 = 𝒙𝜷
2. Supuestos del MRLCK
Supuesto 3: Rango completo
Asume que ninguna de las variables en el modelo es una combinación lineal exacta
de las otras.
𝑉𝑎𝑟 𝒖 𝒙 = 𝝈2 𝑰𝒏𝒙𝒏
• La matriz de varianzas y covarianzas del término de perturbación, asumiendo
homocedasticidad y no autocorrelación se expresa de la siguiente manera:
𝝈2 ⋯ 0 𝐸[𝑢12 |𝑥] ⋯ 0
𝑉𝑎𝑟 𝝁 𝒙 = ⋮ ⋱ ⋮ = ⋮ ⋱ ⋮
0 ⋯ 𝝈2 0 ⋯ 𝐸[𝑢𝑛2 |𝑥]
2. Supuestos del MRLCK
Supuesto 5: Regresores no estocásticos
• Asumir que los 𝒙 son fijos quiere decir que, en repetidas muestras de 𝒙, los
valores obtenidos 𝑥1 , 𝑥2 … 𝑥𝑘 van a ser siempre los mismos; es decir, dejan de ser
aleatorios
𝐸 𝒖 =0
𝑉𝑎𝑟 𝒖 = 𝜎 2
𝐶𝑜𝑣 𝑢𝑖 , 𝑢𝑗 = 0
2. Supuestos del MRLCK
Supuesto 6: Normalidad de los errores
𝒖 | 𝒙 ∼ 𝑁(0, 𝝈2 ) 𝑖 = 1 … 𝑛
ෝ = 𝒙𝜷
𝒚
• Definimos el vector de residuos (con dimensión nx1) como:
ෝ =𝒚−𝒚
𝒖
ෝ = 𝒚 − 𝒙𝜷
𝑆𝐶𝑅 = 𝒖 ෝ ′ෝ
𝒖
𝑆𝐶𝑅 = 𝒚 − 𝒙𝜷 ′ 𝒚 − 𝒙𝜷
𝑆𝐶𝑅 = 𝒚′ − 𝜷 ′ 𝒙′ ′ 𝒚 − 𝒙𝜷 ya que (𝒙𝜷)
𝑆𝐶𝑅 = 𝒚′ 𝒚 − 𝒚′ 𝒙𝜷 −𝜷 ′ 𝒙′ 𝒚 + 𝜷
′ 𝒙′𝒙𝜷
3. Estimación por Mínimos Cuadrados
Ordinarios (MCO)
• La suma de residuos al cuadrado (SCR):
ෝ ′ෝ
𝑆𝐶𝑅 = 𝒖 𝒖
′ 𝒚 − 𝒙𝜷
𝑆𝐶𝑅 = 𝒚 − 𝒙𝜷
′
′ 𝒙′ 𝒚 − 𝒙𝜷
𝑆𝐶𝑅 = 𝒚′ − 𝜷 ya que 𝒙𝜷
′ 𝒙′
=𝜷
−𝜷
𝑆𝐶𝑅 = 𝒚′ 𝒚 − 𝒚′ 𝒙𝜷 ′ 𝒙′ 𝒚 + 𝜷
′ 𝒙′𝒙𝜷
y𝜷
• Notar que: 𝒚′ 𝒙𝜷 ′ 𝒙′ 𝒚 son expresiones 1x1, y al ser una la transpuesta de la
otra, son exactamente iguales.
3. Estimación por Mínimos Cuadrados
Ordinarios (MCO)
• Derivamos las condiciones de primer orden mediante derivadas parcial respecto
que sean iguales a cero.
a𝜷
−𝜷
𝑆𝐶𝑅 = 𝒚′ 𝒚 − 𝒚′ 𝒙𝜷 ′ 𝒙′ 𝒚 + 𝜷
′ 𝒙′ 𝒙𝜷
′ 𝒙′ 𝒚 + 𝜷
𝑆𝐶𝑅 = 𝒚′ 𝒚 − 2𝜷 ′ 𝒙′ 𝒙𝜷
Expresiones
equivalentes
+𝜷
𝑆𝐶𝑅 = 𝒚′ 𝒚 − 𝟐𝒚′ 𝒙𝜷 ′ 𝒙′𝒙𝜷
𝜕𝑆𝐶𝑅
=𝟎
= −2𝒙′ 𝒚 + 2𝒙′ 𝒙𝜷
𝜕𝜷
3. Estimación por Mínimos Cuadrados
Ordinarios (MCO)
2𝒙′ 𝒚 = 2𝒙′ 𝒙𝜷
𝒙′ 𝒙 −𝟏 𝒙′ 𝒚
= 𝒙′ 𝒙
−𝟏 𝒙′ 𝒙𝜷
= 𝒙′ 𝒙
𝜷 −1 𝒙′ 𝒚
0 + 𝛽
2. 𝑦ത = 𝛽 1 𝑥1 + 𝛽
𝑘 𝑥𝑘 → Matricialmente expresado como 𝑦ത = 𝑥ҧ 𝛽መ
3. 𝑦ത = 𝑦ොഥ
• Simetría 𝑀 = 𝑀′
• Idempotencia 𝑀 = 𝑀𝑀
• Ortogonal a x: 𝑀′ 𝑋 = 𝑀𝑋 = 0
• La traza de M es n-k
• El Rango de M es n-k
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
1. Media de 𝜷:
= 𝜷 + 𝒙′ 𝒙
𝜷 −𝟏 𝒙′ 𝒖
=𝜷
𝑬 𝜷
2. Varianza de 𝜷
𝑉𝑎𝑟 𝜷 −𝐸 𝜷
= [(𝜷 −𝐸 𝜷
)(𝜷 )′]
= 𝜎 2 𝑥 ′𝑥
𝑉𝑎𝑟 𝜷 −1
= 𝒙′ 𝒙
𝜷 −1 𝒙′ 𝒙𝜷 + 𝒖
= 𝒙′ 𝒙
𝜷 −1 ′
𝒙 𝒙𝜷 + 𝒙′ 𝒙 −1 ′
𝒙𝑢
= 𝜷 + 𝒙′ 𝒙
𝜷 −1 𝒙′ 𝑢
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
Propiedad 1: Insesgadez del Estimador de MCO
Definición: Un estimador 𝜃መ para 𝜃 es insesgado si se cumple que 𝐸 𝜃መ = 𝜃
Demostración:
= 𝒙′ 𝒙 −1 𝒙′ 𝒚
𝜷
= 𝒙′ 𝒙
𝜷 −1 𝒙′ 𝒙𝜷 + 𝝁
= 𝒙′ 𝒙
𝜷 −1 ′
𝒙 𝒙𝜷 + 𝒙′ 𝒙 −1 ′
𝒙𝝁
= 𝜷 + 𝒙′ 𝒙
𝜷 −1 𝒙′ 𝒖
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
Propiedad 1: Insesgadez del Estimador de MCO
= 𝐸[𝜷 + 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝒖]
= 𝜷 + 𝐸[ 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝒖]
= 𝜷 + 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝐸[𝒖]
=𝜷
𝑬[𝜷] Se cumple con que el
es
estimador de 𝜷
insesgado
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO
• Definición: Un estimador 𝛽መ para 𝛽 es eficiente porque presenta la menor
varianza.
• Demostración:
′
=𝐸
𝑉𝑎𝑟 𝜷 −𝑬 𝜷
𝜷 −𝑬 𝜷
𝜷
′
=𝐸
𝑉𝑎𝑟 𝜷 −𝜷 𝜷
𝜷 −𝜷
= 𝜷 + 𝒙′ 𝒙 −1 𝒙′ 𝝁
• Usamos:𝜷
= 𝐸 𝜷 + 𝒙′ 𝒙 −1 𝒙′ 𝝁 − 𝜷 𝜷 + 𝒙′ 𝒙 −1 𝒙′ u − 𝜷
𝑉𝑎𝑟 𝜷 ′
𝑉𝑎𝑟 𝜷 = 𝐸 𝒙′ 𝒙 −1 𝒙′ 𝝁 𝒙′ 𝒙 −1 𝒙′ u ′
𝑉𝑎𝑟 𝜷 = 𝐸 𝒙′ 𝒙 −1 𝒙′ 𝝁𝝁′ 𝒙 𝒙′ 𝒙 −𝟏 ]
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO
= 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝒙′ 𝐸[𝒖𝒖′ ]𝒙 𝒙′ 𝒙 −𝟏
= 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 ′ 𝟐
𝒙 𝝈 𝑰𝒙 𝒙′ 𝒙 −𝟏
= 𝝈𝟐 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 Matriz de varianzas y
covarianzas de 𝜷 que
tiene dimensión kxk
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO
• Recordamos que en el modelo multivariado o con k variables,
𝐸 𝑢′ 𝑢 = 𝜎 2 𝑛 − 𝑘
usando
• Ello se demuestra a partir de la propiedad numérica del estimador 𝜷
la matriz generadora de residuos.
𝑢′ 𝑢
• Encontramos que el valor estimado de ෝ𝜎 2 = y que este es insesgado.
𝑛−𝑘
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
Propiedad 3: Teorema de Gaus-Marcov
• Bajo todos los supuestos, el estimador MCO es eficiente en la clase de
estimadores lineales insesgados. Es decir, para cualquier estimador insesgado
෩ que es lineal en 𝒚:
𝜷
෩ ≥ 𝑉𝑎𝑟𝑂𝐿𝑆 (𝜷|𝒙)
𝑉𝑎𝑟 𝜷
Ahora vamos a demostrar que 𝐸 𝑒 ′ 𝑒 = 𝜎 2 (𝑛 − 𝑘), donde el resultado del caso bivariado es
especial porque consideramos k=2.
Si consideramos
𝐸 𝑒 ′ 𝑒 = 𝐸 𝑢′ 𝑀𝑢 = 𝐸 𝑡𝑟 𝑢′ 𝑀𝑢 = 𝐸 𝑡𝑟 𝑢𝑢′ 𝑀 = 𝑡𝑟 𝐸 𝑢𝑢′ 𝑀 = 𝜎 2 𝑡𝑟 𝑀 = 𝜎 2 (𝑛 − 𝑘)
Si definimos:
𝑢′ 𝑢
𝜎ො 2 =
𝑛−𝑘