Universidad Nacional de San Agustín de Arequipa: Facultad de Economía

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Universidad Nacional de San Agustín de Arequipa

Facultad de Economía
Escuela Profesional de Economía
Departamento Académico de Economía

Asignatura
Econometría 1

Guía de práctica
Medidas de ajuste en regresión múltiple

Carlos Pedro Vera Ninacondor

Arequipa–Perú
2020
Contenido

1. Medidas de ajuste en regresión múltiple


1.1. Varianza de la regresión
1.2. Error estándar de la regresión (ESR)
1.3. Coeficiente de determinación (R cuadrado)
1.4. R cuadrado ajustado
1.5. Caso resuelto
1.5.1. Datos
1.5.2. Cálculo de la varianza de la regresión
1.5.3. Cálculo del error estándar de la regresión (ESR)
1.5.4. Cálculo del coeficiente de determinación (R cuadrado)
1.5.5. Cálculo del R cuadrado ajustado

Bibliografía

2
1. Medidas de ajuste en regresión múltiple
“Tres estadísticos que se utilizan habitualmente en la regresión múltiple son el error
estándar de la regresión, el 𝑅 2 de la regresión, y el 𝑅 2 ajustado (asimismo conocido como
𝑅̅ 2 ). Los tres estadísticos miden la bondad de la estimación MCO de la recta de regresión
múltiple, es decir, en qué medida la recta describe, o <<se ajusta>> a los datos” (Stock y
Watson, 2012, p. 139).
1.1. Varianza de la regresión
La varianza de la regresión es un estimador de la varianza del término de error 𝑢𝑖 (Stock y
Watson, 2012, p. 139). Para calcular la varianza de la regresión se utiliza la siguiente fórmula
𝑛
1 2
𝑠𝑢̂2 = × ∑(𝑢̂𝑖 − 𝑢̂ )
𝑛−𝑘−1
𝑖=1

Como la media muestral de los residuos es cero ( 𝑢̂ = 0), entonces remplazando


𝑛
1
𝑠𝑢̂2 = × ∑(𝑢̂𝑖 − 0)2
𝑛−𝑘−1
𝑖=1
𝑛
1
𝑠𝑢̂2 = × ∑ 𝑢̂𝑖2
𝑛−𝑘−1
𝑖=1
1
𝑠𝑢̂2 = × 𝑆𝑅
𝑛−𝑘−1
Donde
𝑠𝑢̂2 es la varianza de la regresión.
𝑛 es el número de observaciones en la muestra.
𝑘 es el número de coeficientes estimados sin incluir la constante (intercepto).
𝑢̂𝑖 es el residuo MCO.
𝑆𝑅 es la suma de los cuadrados de los residuos 𝑢̂𝑖 (suma residual)
1.2. Error estándar de la regresión (ESR)
“El error estándar de la regresión (ESR) estima la desviación típica del término de error 𝑢𝑖 .
Por tanto, el ESR es una medida de la dispersión de la distribución de 𝑌 alrededor de la recta
de regresión” (Stock y Watson, 2012, p. 139).

3
El error estándar de la regresión es la raíz cuadrada positiva de la varianza de la regresión,
cuya fórmula es la siguiente

𝑛
1 2
𝑠𝑢̂ = √ × ∑(𝑢̂𝑖 − 𝑢̂ )
𝑛−𝑘−1
𝑖=1

Como la media muestral de los residuos es cero ( 𝑢̂ = 0), entonces remplazando

𝑛
1
𝑠𝑢̂ = √ × ∑(𝑢̂𝑖 − 0)2
𝑛−𝑘−1
𝑖=1

𝑛
1
𝑠𝑢̂ = √ × ∑ 𝑢̂𝑖2
𝑛−𝑘−1
𝑖=1

1
𝑠𝑢̂ = √ × 𝑆𝑅
𝑛−𝑘−1

Donde
𝑠𝑢̂ es el error estándar de la regresión.
𝑛 es el número de observaciones en la muestra.
𝑘 es el número de coeficientes estimados sin incluir la constante (intercepto).
𝑢̂𝑖 es el residuo MCO.
𝑆𝑅 es la suma de los cuadrados de los residuos 𝑢̂𝑖 (suma residual).
1.3. Coeficiente de determinación (R cuadrado)
“El 𝑅 2 de la regresión es la proporción de la varianza muestral de 𝑌𝑖 que está explicada (o
predicha) por los regresores” (Stock y Watson, 2012, p. 139).
𝑆𝐸
𝑅2 =
𝑆𝑇
Donde
𝑆𝐸 es la suma de las desviaciones al cuadrado de los valores de predicción de 𝑌𝑖 , 𝑌̂𝑖 ,
respecto de su media (suma explicada).
𝑛 𝑛
2 2
𝑆𝐸 = ∑ (𝑌̂𝑖 − 𝑌̂𝑖 ) = ∑(𝑌̂𝑖 − 𝑌̅)
𝑖=1 𝑖=1

4
𝑆𝑇 es la suma de los cuadrados de las desviaciones de 𝑌𝑖 respecto de su media (suma
total).
𝑛

𝑆𝑇 = ∑(𝑌𝑖 − 𝑌̅)2
𝑖=1

“De manera equivalente, el 𝑅 2 es 1 menos la proporción de la varianza de 𝑌𝑖 no explicada


por las variables explicativas” (Stock y Watson, 2012, p. 139).
𝑆𝑅
𝑅2 = 1 −
𝑆𝑇
Donde
𝑆𝑅 es la suma de los cuadrados de los residuos (suma residual).
𝑛 𝑛 𝑛
2
𝑆𝑅 = ∑(𝑢̂𝑖 − 𝑢̂𝑖 ) = ∑(𝑢̂𝑖 − 0) = ∑(𝑢̂𝑖 )2
2

𝑖=1 𝑖=1 𝑖=1

𝑆𝑇 es la suma de los cuadrados de las desviaciones de 𝑌𝑖 respecto de su media (suma


total).
𝑛

𝑆𝑇 = ∑(𝑌𝑖 − 𝑌̅)2
𝑖=1
2
“En regresión múltiple, el 𝑅 aumenta cada vez que se añade un regresor, a menos que el
coeficiente estimado del regresor adicional sea exactamente cero” (Stock y Watson, 2012,
p. 139).
El 𝑅 2 toma valores entre 0 y 1. Un 𝑅 2 cercano a 1 indica que el regresor es un buen predictor
de 𝑌𝑖 , mientras que un 𝑅 2 cercano a 0 indica que el regresor no es un muy buen predictor
de 𝑌𝑖 .
1.4. R cuadrado ajustado
“Debido a que 𝑅 2 aumenta cuando se añade una variable, un aumento de 𝑅 2 no significa
que la adición de una variable mejore realmente el ajuste del modelo. En este sentido, 𝑅 2
proporciona una estimación exagerada acerca de la bondad con la que la regresión se ajusta
a los datos. Una forma de corregir esto es deflactar o reducir el 𝑅 2 mediante algún factor,
y esto es lo que hace el 𝑅 2 ajustado, o bien 𝑅̅ 2 .

5
El 𝑅 2 ajustado, o 𝑅̅ 2 , es una versión modificada de 𝑅 2 que no necesariamente aumenta al
añadirse un nuevo regresor” (Stock yWatson, 2012, p. 140). ). Para calcular el 𝑅 2 ajustado
se utiliza la siguiente fórmula
𝑛−1 𝑆𝑅 𝑠𝑢̂2
𝑅̅ 2 = 1 − ( × )=1− 2
𝑛 − 𝑘 − 1 𝑆𝑇 𝑠𝑌
Donde
𝑅̅ 2 es el 𝑅 2 ajustado.
𝑛 es el número de observaciones en la muestra.
𝑘 es el número de coeficientes estimados sin incluir la constante (intercepto).
𝑆𝑅 es la suma de los cuadrados de los residuos (suma residual).
𝑛 𝑛 𝑛
2
𝑆𝑅 = ∑(𝑢̂𝑖 − 𝑢̂𝑖 ) = ∑(𝑢̂𝑖 − 0) = ∑(𝑢̂𝑖 )2
2

𝑖=1 𝑖=1 𝑖=1

𝑆𝑇 es la suma de los cuadrados de las desviaciones de 𝑌𝑖 respecto de su media (suma


total).
𝑛

𝑆𝑇 = ∑(𝑌𝑖 − 𝑌̅)2
𝑖=1

𝑠𝑢̂2 es la varianza muestral de los residuos MCO (varianza de la regresión).


𝑠𝑌2 es la varianza muestral de 𝑌.
1.5. Caso resuelto
1.5.1. Datos
Utilizar la información presentada en la Tabla 3, en la Tabla 4 y en la Tabla 5.
1.5.2. Cálculo de la varianza de la regresión
Para calcular la varianza de la regresión (𝑠𝑢̂2 ) se utiliza la fórmula dada en el punto 1.1 y
cálculos en la Tabla 4.
Fórmula
𝑛
1
𝑠𝑢̂2 = × ∑ 𝑢̂𝑖2
𝑛−𝑘−1
𝑖=1

6
Remplazando
1
𝑠𝑢̂2 = × 283,455677282 = 8,857989915
35 − 2 − 1
1.5.3. Cálculo del error estándar de la regresión (ESR)
Para calcular el error estándar de la regresión (𝑠𝑢̂ ), que es la raíz cuadrada positiva de la
varianza de la regresión, se utiliza la fórmula presentada en el punto 1.6.3.
Fórmula

𝑛
1
𝑠𝑢̂ = √ × ∑ 𝑢̂𝑖2
𝑛−𝑘−1
𝑖=1

Remplazando

1
𝑠𝑢̂ = √ × 283,455677282 = 2,976237544
35 − 2 − 1

1.5.4. Cálculo del coeficiente de determinación (R cuadrado)


Primera forma
Para calcular el coeficiente de determinación (𝑅 2 ) se sigue los siguientes pasos:
Primero, se calcula la media aritmética de los valores de predicción de la variable
dependiente (𝑌̂𝑖 ), lo que se presenta en la Tabla 3.
𝑛
1 1
𝑌̂ = 𝑌̅ = × ∑ 𝑌̂𝑖 = × 421 = 12,028571429
𝑛 35
𝑖=1

Segundo, se calcula la suma explicada (SE), que es la suma de los cuadrados de las
desviaciones de los valores de predicción 𝑌̂𝑖 respecto de su media, lo que se presenta en la
Tabla 5.
𝑛
2
∑(𝑌̂𝑖 − 𝑌̅) = 139,515751030
𝑖=1

Tercero, se calcula la media aritmética de la variable dependiente (𝑌𝑖 ) lo que se presenta


en la Tabla 3.
𝑛
1 1
𝑌̅ = × ∑ 𝑌𝑖 = × 421 = 12,028571429
𝑛 35
𝑖=1

7
Cuarto, se calcula la suma total (ST), que es la suma de los cuadrados de las desviaciones de
la variable dependiente 𝑌𝑖 respecto de su media, lo que se presenta en la Tabla 5.
𝑛

∑(𝑌𝑖 − 𝑌̅)2 = 422,971428571


𝑖=1

Quinto, se calcula el coeficiente de determinación (𝑅 2 ) con la fórmula dada en el punto 1.3.


Fórmula
𝑆𝐸
𝑅2 =
𝑆𝑇
Remplazando
139,515751030
𝑅2 = = 0,329846750
422,971428571
Segunda forma
Para calcular el coeficiente de determinación (𝑅 2 ) se sigue los siguientes pasos:
Primero, se calcula la suma residual (SR), que es la suma de los cuadrados de los residuos
𝑢̂𝑖 , lo que se presenta en la Tabla 4.
𝑛 𝑛 𝑛
2
∑(𝑢̂𝑖 − 𝑢̂𝑖 ) = ∑(𝑢̂𝑖 − 0)2 = ∑ 𝑢̂𝑖 2 = 283,455677282
𝑖=1 𝑖=1 𝑖=1

Segundo, se calcula la media aritmética de la variable dependiente (𝑌𝑖 ) lo que se presenta


en la Tabla 3.
𝑛
1 1
𝑌̅ = × ∑ 𝑌𝑖 = × 421 = 12,028571429
𝑛 35
𝑖=1

Tercero, se calcula la suma total (ST), que es la suma de los cuadrados de las desviaciones
de la variable dependiente 𝑌𝑖 respecto de su media, lo que se presenta en la Tabla 5.
𝑛

∑(𝑌𝑖 − 𝑌̅)2 = 422,971428571


𝑖=1

Cuarto, se calcula el coeficiente de determinación (𝑅 2 ) con la fórmula dada en el punto 1.3.


Fórmula
𝑆𝑅
𝑅2 = 1 −
𝑆𝑇

8
Remplazando
283,455677282
𝑅2 = 1 − = 0,329846751
422,971428571
Interpretación del coeficiente de determinación (R cuadrado)
𝑅 2 = 0,329846751
Significa que el 32,9846751 % (100 × 0,329846751) de los cambios en la nota
lograda es explicado por las horas de estudio semanal y por las asignaturas aprobadas
en el semestre anterior del estudiante.
1.5.5. Cálculo del R cuadrado ajustado
Para calcular el R cuadrado ajustado (𝑅̅ 2 ) se sigue los siguientes pasos:
Primero, se calcula la suma residual (SR), que es la suma de los cuadrados de los residuos
𝑢̂𝑖 , lo que se presenta en la Tabla 4.
𝑛 𝑛 𝑛
2
∑(𝑢̂𝑖 − 𝑢̂𝑖 ) = ∑(𝑢̂𝑖 − 0) = ∑ 𝑢̂𝑖 2 = 283,455677282
2

𝑖=1 𝑖=1 𝑖=1

Segundo, se calcula la media aritmética de la variable dependiente (𝑌𝑖 ) lo que se presenta


en la Tabla 3.
𝑛
1 1
𝑌̅ = × ∑ 𝑌𝑖 = × 421 = 12,028571429
𝑛 35
𝑖=1

Tercero, se calcula la suma total (ST), que es la suma de los cuadrados de las desviaciones
de la variable dependiente 𝑌𝑖 respecto de su media, lo que se presenta en la Tabla 5.
𝑛

∑(𝑌𝑖 − 𝑌̅)2 = 422,971428571


𝑖=1

Cuarto, se calcula el R cuadrado ajustado (𝑅̅ 2 ) con la fórmula dada en el punto 1.4.
Fórmula
𝑛−1 𝑆𝑅
𝑅̅ 2 = 1 − ( × )
𝑛 − 𝑘 − 1 𝑆𝑇
Remplazando
35 − 1 283,455677282
𝑅2 = 1 − ( × ) = 0,287962172
35 − 2 − 1 422,971428571

9
Tabla 5. Suma explicada (SE) y suma total (ST)
2
𝑛𝑖 𝑌𝑖 𝑌̂𝑖 (𝑌𝑖 − 𝑌̅)2 (𝑌̂𝑖 − 𝑌̂ )
1 8 11,041045568 16,229387755 0,975207325
2 10 11,794851373 4,115102041 0,054625064
3 15 9,837175312 8,829387755 4,802216940
4 11 8,025822348 1,057959184 16,022000202
5 10 8,177693025 4,115102041 14,829264479
6 8 11,491110019 16,229387755 0,288864767
7 14 13,932136011 3,886530612 3,623558119
8 15 15,597165878 8,829387755 12,734866344
9 7 10,737304214 25,286530612 1,667371019
10 14 10,450205600 3,886530612 2,491238689
11 19 11,648528276 48,600816327 0,144432798
12 12 12,256010984 0,000816327 0,051728751
13 14 11,800398953 3,886530612 0,052062679
14 14 12,098592727 3,886530612 0,004902982
15 9 11,805946533 9,172244898 0,049561844
16 15 14,072911528 8,829387755 4,179326442
17 15 13,319105723 8,829387755 1,665478765
18 16 14,680394236 15,772244898 7,032164202
19 5 8,785175733 49,400816327 10,519615638
20 18 13,313558143 35,657959184 1,651190856
21 12 13,313558143 0,000816327 1,651190856
22 10 13,470976400 4,115102041 2,080532102
23 7 9,533433958 25,286530612 6,225710997
24 11 13,470976400 1,057959184 2,080532102
25 9 11,794851373 9,172244898 0,054625064
26 8 9,983498409 16,229387755 4,182323655
27 16 14,680394236 15,772244898 7,032164202
28 12 12,256010984 0,000816327 0,051728751
29 12 15,602713458 0,000816327 12,774491247
30 14 11,794851373 3,886530612 0,054625064
31 5 8,931498830 49,400816327 9,591858681
32 14 11,659623436 3,886530612 0,136122621
33 15 14,680394236 8,829387755 7,032164202
34 15 13,769170174 8,829387755 3,029683993
35 12 11,192916245 0,000816327 0,698319586
35 35
2
∑(𝑌𝑖 − 𝑌̅ )2 ∑ (𝑌̂𝑖 − 𝑌̂)
𝑛 = 35 𝑌̅ = 12,028571429 𝑌̂ = 12,028571429 𝑖=1 𝑖=1
422,971428571 139,515751030
Fuente: Tabla 3.
Elaboración: Autoría propia.

10
Bibliografía

Gujarati, D. N., y Porter, D. C. (2010). Econometría. México, D. F., México: McGRAW-HILL/

INTERAMERICANA EDITORES, S. A. de C. V.

Stock, J. H., y Watson, M. M. (2012). Introducción a la Econometría. Madrid, España:

PEARSON EDUCACIÓN, S. A.

11

También podría gustarte