Regresión y Correlación

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 65

REGRESIÓN Y CORRELACIÓN

Existen dos técnicas estadísticas que sirven para analizar la relación entre dos o más
variables, la relación puede ser del tipo funcional, si esta relación es entre una variable
cuantitativa y otra u otras variables también cuantitativas entonces, el análisis se llama
regresión, que a su vez puede ser lineal o no lineal, simple o múltiple; en cambio si el
análisis es para determinar el grado de asociación entre dos o más variables entonces, el
análisis se llama correlación.
1. CORRELACIÓN
El análisis de correlación es el procedimiento mediante el cual se determina el grado de
asociación entre dos o más variables, en ese sentido la correlación es una medida de la
relación (covariación) lineal entre dos variables cuantitativas continuas (x, y) y se
mide con el llamado coeficiente de correlación de Pearson. Si la medida de la relación es
entre variables cualitativas medidas en escala ordinal el coeficiente se llama de
Spearman, la correlación indica la fuerza y la dirección o naturaleza de una relación
lineal. La manera más sencilla de saber si dos variables están correlacionadas es
determinar si co-varíanza (variación conjuntamente). Es importante hacer notar que
esta covariación no implica necesariamente causalidad, pues la correlación puede ser
fortuita, como en el caso clásico de la correlación entre el número de helados vendidos y
los incendios ocurridos, debido al efecto de una tercera variable, que es la temperatura
ambiental.
REGRESIÓN Y CORRELACIÓN
 La correlación se refiere a que si existe un vínculo entre dos o más variables.
Una de las herramientas que nos permite inferir si existe dicho vínculo es
justamente el análisis de correlación. Este procedimiento tiene por objetivo
indicar si existe relación entre dos variables, así como la naturaleza de dicha
relación, y la fuerza de dicha relación. Para poder realizar un análisis de
correlación confiable, lo primero que se necesita es realizar muchas
observaciones de dos variables en forma pareada. Un ejemplo sería visitar
muchos supermercados y revisar tanto el precio de cierta fruta como el precio
de un litro de jugo, otro ejemplo es relacionar la edad de los niños con el peso,
así como su estatura. La colección de datos que se obtenga para aquellas
observaciones puede expresarse en forma de una matriz (o tabla), que puede
someterse a análisis utilizando software de estadístico
REGRESIÓN Y CORRELACIÓN
 La correlación es en esencia una medida normalizada de asociación o covariación lineal
entre dos variables. Esta medida o índice de correlación r puede variar entre -1 y +1, ambos
extremos indicando correlaciones perfectas, negativa y positiva respectivamente. Un valor de r =
0 indica que no existe relación lineal entre las dos variables. Una correlación positiva indica que
ambas variables varían en el mismo sentido, es decir son directamente proporcionales. Una
correlación negativa significa que ambas variables varían en sentidos opuestos, son
inversamente proporcionales. Lo interesante del índice de correlación es que r es en sí mismo
una medida del tamaño del efecto, que suele interpretarse de la siguiente manera:
 No existe correlación si r = 0
 correlación despreciable o casi nula si: r < |0.1|
 correlación baja si : |0.1| < r ≤ |0.3|
 correlación mediana o regular si: |0.3| < r ≤ |0.7|
 correlación fuerte o alta si: 0.7 < r ≤|0.8|
 correlación muy fuerte o muy alta si: 0.8 < r ≤|0.9|
 correlación casi perfecta si: r → 1.0
 correlación perfecta si r = 1.0
 Por otro lado, la correlación se refiere a que si existe un vínculo entre dos o más variables. Una
de las herramientas que nos permite inferir si existe dicho vínculo es justamente el análisis de
correlación. Este procedimiento tiene por objetivo indicar si existe relación entre dos variables,
así como la naturaleza de dicha relación, y la fuerza de dicha relación. Para poder realizar un
análisis de correlación confiable, lo primero que se necesita es realizar muchas observaciones
de dos variables en forma pareada.
REGRESIÓN Y CORRELACIÓN
COEFICIENTE DE CORRELACIÓN DE PEARSON
𝝆 = coeficiente de correlación poblacional
𝑪𝒐𝒗(𝒙,𝒚)
𝝆= 𝝈𝒙 𝝈𝒚
; -1 ≤ 𝝆 ≤ 𝟏

𝐸 𝑋, 𝑌 − 𝐸 𝑋 𝐸(𝑌)
𝜌=
𝐸 𝑋2 − 𝐸 𝑋 2 [𝐸 𝑌 2 − 𝐸(𝑌)2 ]

r = Coeficiente de correlación muestral, -1 ≤ 𝑟 ≤ 1


𝑪𝒐𝒗(𝒙,𝒚)
r= ; 𝒐 𝒓= 𝑹𝟐 con signo de b, donde R2 es el coeficiente de determinación
𝑺𝒙 𝑺𝒚

𝑋𝑌 −𝑛 𝑋 𝑌
𝑟=
[ 𝑋 2 −𝑛 𝑋 2 ][ 𝑌 2 −𝑛 𝑌 2 ]

𝑆𝑥𝑦
r=
𝑆𝑥𝑥 𝑆𝑦𝑦

Cov(x,y) = E(XY) – E(X)E(Y)


Sx = 𝑉(𝑋) → V(X) = E(X2) – E(X)2
Sy = 𝑉(𝑌) → V(Y) = E(Y2) – E(Y)2
𝑛 2 𝑛 2
𝑆𝑥𝑥 = 𝑖=1 (𝑋𝑖 − 𝑋 ) = 𝑖=1 𝑋𝑖 - n𝑋 2
𝑛 2 𝑛 2
𝑆𝑦𝑦 = 𝑖=1 (𝑌𝑖 − 𝑌 ) = 𝑖=1 𝑌𝑖 - n𝑌 2
𝑛 𝑛
𝑆𝑥𝑦 = 𝑖=1 [ 𝑋𝑖 − 𝑋 𝑌𝑖 −𝑌 ]= 𝑖=1 𝑋𝑖 𝑌𝑖 − 𝑛𝑋 𝑌

COEFICIENTE DE CORRELACIÓN DE SPEARMAN


𝒏 𝟐
𝟔 𝒊=𝟏 𝒅𝒊
r=1- 𝒏𝟑 −𝒏
; -1 ≤ r ≤ 1
Donde di = R(Xi) – R(Yi); n = número de pares de observaciones (X, Y)
REGRESIÓN Y CORRELACIÓN
Ejemplo 1.
La siguiente muestra contiene el precio y la cantidad de artículos ofertados por un
empresario, el precio está dado en soles y la cantidad en unidades.
Precio: 25, 20, 35, 40, 60, 55, 45, 15, 20, 30, 40, 50, 70, 45, 50
Cantidad. 80, 60, 95, 110, 160, 140, 120, 40, 55, 90, 115, 120, 180, 95, 110
Solución.
X: Precio del artículo
Y: oferta del artículo
n = 15; 𝑋 = 600; 𝑌 = 1570; 𝑋𝑌 = 71000; 𝑋 2 = 27550; 𝑌 2 = 184600
E(X) = 600/15 = 40 soles; E(Y) = 1570/15 = 104.667 unidades; E(XY) = 71000/15 =
4733.333; E(X2) = 27550/15 = 1836.667; E(Y2) = 184600/15 = 12306.667
V(X) = 1836.667 – (40)2 = 236.667; Sx = 15.384
V(Y) = 12306.667 – (104.667)2 = 1351.5556: Sy = 36.7635
Cov(X,Y) = 4733.333 – 40x104.667 = 546.667
546.667 8200
r = (15.384)(36.7635 ) = 0.967; r = 3550 𝑥20273 .333
= 8200/8483.533 = 0.967
Esto indica que el precio y la cantidad de unidades son directamente proporcionales, es
decir, a medida que aumenta el precio la cantidad de unidades ofertadas también
aumenta y viceversa, en cuanto la fuerza de la asociación es bastante alta, es decir casi
perfecta.
REGRESIÓN Y CORRELACIÓN
PRUEBA PARA 𝝆
La distribución de r es simétrica cuando 𝜌 = 0, es asimétrica cuando 𝜌 ≠ 0. 𝑃ara una
población bivariable normal, la distribución de r se aproxima a una normal cuando n
tiende a infinito. Cuando 𝜌 = 0, hay una transformación por la cual los valores
transformados de r son distribuidos como una t con n-2 grados de libertad, cuyo
estadístico es como sigue.
𝑟 𝑛 −2
t=
1−𝑟 2
Este estadístico sirve solo para usar Ho: 𝜌 = 0
Ejemplo. Usar los datos del ejemplo anterior.

1) Ho: 𝜌 = 0

H1: 𝜌 ≠ 0
2) α = 0.05
3) El estadístico es una t con 15-2 = 13 grados de libertad
4) los puntos críticos son: ± 2.16, si te es mayor que 2.16 o menor que -2.16 se rechazará
Ho
0.967 15−3
5) te = = 13.6848
1−(0.967)2
6) como 13.6848 es mayor a 2.16 se rechaza Ho, en consecuencia, el coeficiente de
correlación es bastante diferente de cero.
REGRESIÓN Y CORRELACIÓN
Cuando se quiere probar que 𝜌 tiene un valor distinto de cero y cuando se quiere
construir un intervalo de confianza para estimar 𝜌, se usa lo que se llama la
transformación z, es decir, se puede hacer una transformación de la distribución de r en
una distribución aproximadamente normal con la siguiente expresión.
1 1+𝑟
Zr = ln⁡
( )
2 1−𝑟
Este Zr tiene una distribución aproximadamente normal con E(Zr) = Z𝜌 y el error estándar
1 1 1+𝜌
estimado es 𝜎𝑧 = y Z𝜌 = 𝑙𝑛
𝑛−3 2 1−𝜌
𝑧 𝑟 −𝑧𝜌
Para el valor experimental se usa la siguiente expresión Z = 𝜎𝑧
→N(0,1)
Ejemplo usar los datos del ejemplo anterior

1) Ho: 𝜌 = 0.90
H1: 𝜌 ≠ 0.90
2) α = 0.05
3) El estadístico z tiene distribución normal N(0,1)
4) los puntos críticos son: ± 1.96, si ze es mayor que 1.96 o menor que -1.96 se rechazará
Ho
2.043878628 −1.47221949 0.571659138
5) ze = = = 1.98
1/ 15−3 0.288675
1 1+0.967 1 1+0.9 1
Zr = 2 ln⁡
(1−0.967 ) = 2.043878628; Z𝜌 = 2 ln⁡
(1−0.9) = 1.47221949; 𝜎𝑧 = 15−3
=1/ 12 =
0.288675
6) Como 1.98 es mayor que 1.96 se rechaza Ho, en consecuencia, el coeficiente de
correlación es diferente de 0.90, más específicamente mayor que 0.90
REGRESIÓN Y CORRELACIÓN
 INTERVALOS CONFIDENCIALES PARA 𝝆
 Los intervalos confidenciales para estimar 𝑍𝜌 con un 95% de seguridad es como sigue:

 P[2.043878628 – 1.96(0.288675) < 𝑍𝜌 < 2.043878628 + 1.96(0.288675)] = 0.95


 P[2.043878628 – 0.5658) < 𝑍𝜌 < 2.043878628 + 0.5658)] = 0.95
 P[1.478) <Z𝜌 < 2.6097] = 0.95

 Luego se hace el proceso inverso para calcular los límites confidenciales


 P(0.9011 < 𝝆 < 0.9892) = 0.95
𝐴−1
 Para obtener los límites confidenciales se usa la expresión r = 𝐴+1 donde A = antiln(2Zr)

 A =Antiln(2x1.478) = antiln(2.956) = 19.22093405


19.22093405−1 18.22093405
r = 19.22093405+1 = 20.22093405 = 0.9010926 = 0.9011

 A = A =Antiln(2x2.6097) = antiln(5.2194) = 184.8232568


184.8232568−1 183.8232568
r = 184.8232568+1 = 185.8232568 = 0.989237 = 0.9892
REGRESIÓN Y CORRELACIÓN
 Ejemplo 2
 En un estudio de la relación entre la edad y los resultados del electroencefalograma /EEG), se recopilaron
datos de 20 personas con edades entre 20 y 60 años. La siguiente Tabla muestra las edades y un valor de
rendimiento del EEG particular para cada una de esas 20 personas. Los investigadores pretenden saber si
es posible concluir que este rendimiento del EEG particular tiene relación inversa con la edad.
 Solución.
 X: Edad en años
 Y: Valor resultante del encefalograma (EEG)

 E(X) = 780/20 = 39 años; E(Y) = 1450/20 = 72.5 de EEG,


 E(X2) = 33628/20 = 1681.4; E(Y2) = 109314/20 = 5465.7 ; E(X,Y) = 53707/20 = 2685.35
 V(X) = 1681.4 – (39)2 = 160.4; Sx = 12.6649 años
 V(Y) = 5465.7 – (72.5)2 = 209.45; Sy = 14.4724 EEG
 Cov(X,Y) = 2685.35 – (39)(72.5) = -142.15
 R = -142.15/(12.6649)(14.4724) = -0.77554 es la r de Pearson.
6 2348
 R=1- = 1 – 1.7654 = -0.7654 es la r de Spearman,
8000−20

 En ambos casos el r es negativo por lo tanto hay una relación inversa, eso indica que cuando aumenta la
edad el EEG disminuye, en cuanto a fuerza de la relación es alta o buena.

REGRESIÓN Y CORRELACIÓN
 xx
N° Edad (X) EEG(Y) X2 Y2 XY R(X) R(Y) d d2
1 20 98 400 9604 1960 1 19 -18 324
2 21 75 441 5625 1575 2 15 -13 169
3 22 95 484 9025 2090 3 17 -14 196
4 24 100 576 10000 2400 4 20 -16 256
5 27 97 729 9409 2619 5 18 -13 169
6 30 65 900 4225 1950 6 7 -1 1
7 31 64 961 4096 1984 7 6 1 1
8 33 70 1089 4900 2310 8 12 -4 16
9 35 85 1225 7225 2975 9 16 -7 49
10 38 74 1444 5476 2812 10 14 -4 16
11 40 68 1600 4624 2720 11 10 1 1
12 42 66 1764 4356 2772 12 8 4 16
13 44 71 1936 5041 3124 13 13 0 0
14 46 62 2116 3844 2852 14 4 10 100
15 48 69 2304 4761 3312 15 11 4 16
16 51 54 2601 2916 2754 16 2 14 196
17 53 63 2809 3969 3339 17 5 12 144
18 54 52 2916 2704 2808 18 1 17 289
19 58 67 3364 4489 3886 19 9 10 100
20 63 55 3969 3025 3465 20 3 17 289
T 780 1450 33628 109314 53707 2348
REGRESIÓN Y CORRELACIÓN
Ejemplo 3
Los siguientes datos corresponden a una muestra aleatoria de 12 estudiantes para
quienes un juez asignó un puntaje ordinal en base a la hostilidad que manifiestan hacia
su profesor y a sus compañeros de clase, siendo 1 una menor hostilidad y 12 la mayor
hostilidad, determine el nivel de relación que hay entre estas dos variables usando el
coeficiente de correlación de Spearman.
Host. Prof. 2 8 12 3 1 6 7 10 4 9 11 5
Host. Comp. 6 5 10 7 3 4 9 8 1 11 12 2
Solución
N° X Y R(X) R(Y) d d2
1 2 6 2 6 -4 16
2 8 5 8 5 3 9
3 12 10 12 10 2 4
4 3 7 3 7 -4 16
5 1 3 1 3 -2 4
6 6 4 6 4 2 4
7 7 9 7 9 -2 4
8 10 8 10 8 2 4
9 4 1 4 1 3 9
10 9 11 9 11 -2 4
11 11 12 11 12 -1 1
12 5 2 5 2 3 9
T 84
6(84)
R=1- 12(144 −1)
= 1 – 0.2937 = 0.7063
Se nota que hay una alta correlación directa entre las hostilidades hacia el profesor y a
V.A. BIDIMENSIONALES
 Función de Cuantía Conjunta: P(X,Y), o función de masa conjunta es una función definida
para variables aleatorias discretas, para lo cual debe cumplir dos condiciones:
 a) P(X,Y) ≥ 0; b) ∀𝑥 ∀𝑦 𝑃 𝑋, 𝑌 = 1
 Función de Densidad Conjunta: f(X,Y), es una función definida para variables aleatorias
continuas, para lo cual debe cumplir dos condiciones:
𝐿𝑠 𝑥 𝐿𝑠 𝑦
 a) f(X,Y) ≥ 0; b) ‫𝑋 𝑓 𝑦 𝑖𝐿׬ 𝑥 𝑖𝐿׬‬, 𝑌 𝑑𝑥𝑑𝑦 = 1
𝑏 𝑑
 P(a< 𝑥 < 𝑏, 𝑐 < 𝑦 < 𝑑 = ‫𝑋 𝑓 𝑐׬ 𝑎׬‬, 𝑌 𝑑𝑥𝑑𝑦
 Función de Distribución F(X,Y)
 F(Xo,Yo) = P(X ≤ 𝑋𝑜, 𝑌 ≤ 𝑌𝑜
𝑋𝑜 𝑌𝑜
 P(X ≤ 𝑋𝑜, 𝑌 ≤ 𝑌𝑜 = 𝐿𝑖 𝑥 𝐿𝑖 𝑦 𝑃 𝑋, 𝑌 caso discreto
𝑋𝑜 𝑌𝑜
 P(X ≤ 𝑋𝑜, 𝑌 ≤ 𝑌𝑜 = ‫𝑋 𝑓 𝑦 𝑖𝐿׬ 𝑥 𝑖𝐿׬‬, 𝑌 𝑑𝑥𝑑𝑦 caso continuo

 Nota.
 Tiene las mismas propiedades de una función de distribución unidimensional.
𝑑2 𝐹 𝑋,𝑌
 = f(X,Y)
𝑑𝑥𝑑𝑦
V.A. BIDIMENSIONALES
 Funciones Marginales.
 V.A. Discretas. V.A. Continuas
𝑳𝒔 𝒚
 P(X) = ∀𝒚 𝑷 𝑿, 𝒀 f(X) = ‫𝑿 𝒇 𝒚 𝒊𝑳׬‬, 𝒀 𝒅𝒚
𝑳𝒔 𝒙
 P(Y) = ∀𝒙 𝑷 𝑿, 𝒀 f(Y) = ‫𝑿 𝒇 𝒙 𝒊𝑳׬‬, 𝒀 𝒅𝒙
 Funciones Condicionales
𝑷 𝑿,𝒀 𝑷 𝑿,𝒀 𝑬 𝑿,𝒀
 P(X/Y) = ; P(Y/X) = E(X/Y) = caso discreto
𝑷 𝒀 𝑷 𝑿 𝑬 𝒀
𝒇 𝑿,𝒀 𝒇 𝑿,𝒀 𝑬 𝑿,𝒀
 f(X/Y) = ; f(Y/X) = E(Y/X) = caso continuo
𝒇 𝒀 𝒇 𝑿 𝑬 𝑿
 Probabilidades Condicionales
𝑷 𝑿,𝒀 𝑷 𝑿,𝒀
 P(X/Y) = ; P(Y/X) = para ambos casos
𝑷 𝒀 𝑷 𝑿
𝑪𝒐𝒗 𝑿,𝒀
 V(X±Y) = V(X) + V(Y) ±𝟐 𝑪𝒐𝒗 𝑿, 𝒀 𝒓= r muestral (Pearson)
𝑺𝒙 𝑺𝒚
 Cov(X,Y) = E(X,Y) – E(X)E(Y);
 E(X,Y) = ∀𝒙 ∀𝒚 𝑿𝒀𝑷 𝑿, 𝒀 caso discreto
𝑳𝒔 𝒙 𝑳𝒔 𝒚
 E(X,Y) = ‫𝑿 𝒇𝒀𝑿 𝒚 𝒊𝑳׬ 𝒙 𝒊𝑳׬‬, 𝒀 𝒅𝒙𝒅𝒚 caso continuo
 Sí las v.a. son independientes entonces:
 E(X,Y) = E(X)E(Y), también f(x,y) = f(x)f(y); P(x,y) = P(x)P(y); y Cov(x,y) = 0
REGRESIÓN Y CORRELACIÓN
Ejemplo 4
El siguiente cuadro representa la distribución de probabilidades conjunta de las
variables X e Y, que indican el número de paralizaciones durante un día de trabajo de las
2 máquinas que tiene una fábrica.

X 1 2 3 4
Y
1 0,10 0,10 0,05 0,05
2 0,05 0,10 0,05 0,10
3 0,05 0,05 0,20 0,10
Hallar: a) V(x + y) y b) el coeficiente de correlación de Pearson.
Solución.
a)
X P(x) XP(x) X2P(x)
1 0,20 0,20 0,20
2 0,25 0,50 1,00
3 0,30 0,90 2,70
4 0,25 1,00 4,00
Total 1,00 2,60 7,90

E(x) = 2,60
V(x) = 7,90 – (2,6)2 = 1,14
REGRESIÓN Y CORRELACIÓN
Y P(y) YP(y) Y2P(y)
1 0,30 0,30 0,30
2 0,30 0,60 1,20
3 0,40 1,20 3,60
Total 1,00 2,10 5,10

E(y) = 2,10
V(x) = 5,10 – (2,1)2 = 0,69
XY P(x, y) XYP(x, y)
1 0,10 0,10
2 0,15 0,30
3 0,10 0,30
4 0,15 0,60
6 0,10 0,60
8 0,10 0,80
9 0,20 1,80
12 0,10 1,20
Total 1,00 5,70

E(x, y) = 5,70
Cov(x, y) = 5,70 – (2,6)(2,1) = 0,24
REGRESIÓN Y CORRELACIÓN
Sea z = x + y, entonces:
Z P(z) ZP(z) Z2P(z)
2 0,10 0,20 0,40
3 0,15 0,45 1,35
4 0,20 0,80 3,20
5 0,15 0,75 3,75
6 0,30 1,80 10,80
7 0,10 0,70 4,90
Total 1,00 4,70 24,40
E(z) = 4,70
V(z) = 24,40 – (4,7)2 = 2,31
V(x + y) = 1,14 + 0,69 + 2(0,24) = 2,31

b) 0,24
r  0,2706
(1,14)(0,69 )
En este caso existe una correlación positiva entre las variables, es decir a medida que
aumenta las paralizaciones de una de las máquinas las paralizaciones de la otra
también aumentan, en tanto que la fuerza de correlación es regular.
REGRESIÓN Y CORRELACIÓN
Ejemplo 5.
Un fabricante de muebles está interesado en el número de muebles que le serán entregados
durante los meses de enero (X) y febrero (Y), por estadísticas sabe que el cuadro de distribución
de probabilidades conjunta está dada según el siguiente cuadro.

X 0 1 2 3 4 5

Y
0 0,00 0,01 0,03 0,05 0,07 0,09
1 0,01 0,02 0,04 0,05 0,06 0,08
2 0,01 0,03 0,05 0,05 0,05 0,06
3 0,01 0,02 0,04 0,06 0,06 0,05

a) Compruebe la relación V(x + y) = V(x) + V(y) + 2cov(x; y)


b) Obtenga el coeficiente de variación para cada variable y compárelos.
c) Obtenga el coeficiente de correlación.
Solución:

X P(x) XP(x) X2P(x)


0 0,03 0,00 0,00
1 0,08 0,08 0,08
2 0,16 0,32 0,64
3 0,21 0,63 1,89
4 0,24 0,96 3,84
5 0,28 1,40 7,00
Total 1,00 3,39 13,45

E(x) = 3,39
REGRESIÓN Y CORRELACIÓN
V(x) = 13,45 – (3,39)2 = 1,9579

Sx = 1,39925

Y P(y) YP(y) Y2P(y)


0 0,25 0,00 0,00
1 0,26 0,26 0,26
2 0,25 0,50 1,00
3 0,24 0,72 2,16
Total 1,00 1,48 3,42

E(y) = 1,48

V(y) = 3,42 – (1,48)2 = 1,2296

Sy = 1,1088733

XY P(x, y) XYP(x, y)
0 0,28 0,00
1 0,02 0,02
2 0,07 0,14
3 0,07 0,21
4 0,11 0,44
5 0,08 0,40
6 0,09 0,54
8 0,05 0,40
9 0,06 0,54
10 0,06 0,60
12 0,06 0,72
15 0,05 0,752
Total 1,00 4,76

E(x; y) = 4,76
REGRESIÓN Y CORRELACIÓN
Cov(x; y) = 4,76 – (3,39)(1,48) = -0,2572

V(x+y) = 1,9579 + 1,2296 + 2(-0,2572) = 2,6731

Si, x + y = z

z P(z) zP(z) z2P(z)


0 0,00 0,00 0,00
1 0,02 0,02 0,02
2 0,06 0,12 0,24
3 0,13 0,39 1,17
4 0,19 0,76 3,04
5 0,24 1,20 6,00
6 0,19 1,14 6,84
7 0,12 0,84 5,88
8 0,05 0,40 3,20
Total 1,00 4,87 26,39

E(z) = 4,87 = 3,39 + 1,48

V(z) = 26,39 – (4,87)2 = 2,6731

b) CV(x) = 1,39925 / 3,39 = 41,276%

CV(y) = 1,1088733 / 1,48 = 74,924%

Se puede apreciar que la variable X es más homogénea respecto a su promedio que la


variable Y.

c) r   0,2572
 0,16577
(1,39925)(1,1088733)

En este caso las variables son inversamente proporcionales, asimismo la correlación es un


tanto baja.
Ejemplo 6.
REGRESIÓN Y CORRELACIÓN
Sea X e Y, dos v.a. continuas, donde X es el empuje e Y la razón de la mezcla, que son 2
características del funcionamiento de un motor a reacción, cuya función de densidad
está dada por:

 2( x  y  2 xy )  0  x  1, 0  y  1
f ( x, y )  
0 en otro caso

(Ejemplo propuesto por Paul Meyer en su libro Probabilidades y Aplicaciones


Estadísticas, Pág. 130)

Obtenga P(x>1/2 / y>1/2), V(X+Y) y el coeficiente de correlación.

Solución:

P( x  1 / 2, y  1 / 2) = 3 / 16
P( x  1 / 2 / y  1 / 2)  )  3/8
P( y  1 / 2) 1/ 2

1 1
P( x  1 / 2, y  1 / 2)    (2 x  2 y  4 xy )dxdy
1/ 2 1/ 2

1 1 1 1 1 1
= 2  xdx  dy  2  dx  y dy  4  xdx  y dy
1/ 2 1/ 2 1/ 2 1/ 2 1/ 2 1/ 2

= 3/16
REGRESIÓN Y CORRELACIÓN
1 1 1
f ( x)  2 x  dy  2 ydy  4 x  ydy  1  0  x  1, 0 en otro caso.
0 0 0

1 1 1
f ( y)  2 xdx  2 y  dx  4 y  xdx  1  0  y  1, 0 en otro caso
0 0 0

1 1 1 1 1 1 𝟏
𝟏
P( y  1/ 2)  2 xdx  dy  2 dx  ydy  4 xdx  ydy  1/ 2 = ‫𝟏׬‬/𝟐 𝒅𝒚 = y/𝟏/𝟐 = 1 – ½ = 1/2
0 1/ 2 0 1/ 2 0 1/ 2

1
E ( x)   xdx  1 / 2
0

1
E ( y )   ydy  1 / 2
0

1
E ( x )   x 2dx  1 / 3
2

1
E ( y )   y 2dy  1 / 3
2

0
REGRESIÓN Y CORRELACIÓN
 V(x) = 1/3 – 1/4 = 1/12

 V(y) = 1/3 – 1/4 = 1/12

1 1 1 1 1 1
 𝐸 𝑥, 𝑦 = 2 ‫׬‬0 𝑥 2𝑑𝑥 ‫׬‬0 𝑦𝑑𝑦 + 2 ‫׬‬0 𝑥𝑑𝑥 ‫׬‬0 𝑦 2𝑑𝑦 − 4 ‫׬‬0 𝑥 2𝑑𝑥 ‫׬‬0 𝑦 2𝑑𝑦 = 2/9

 Cov(x; y) = 2/9 –(1/2)(1/2) = -1/36

 V(X+Y) = 1/12 + 1/12 – 2(1/36) = 4/36 = 1/9

−1/36
 𝑟= = −1/3 = -0.333, esto implica que las variables son inversamente proporcionales, pero
1/12
la fuerza de la relación es regular
REGRESIÓN Y CORRELACIÓN
Ejemplo 7

Se tiene la función de densidad conjunta de 2 v.a. continuas, cuya expresión es


la siguiente:

(3 / 28)( xy  y 2 )  0  x  2, 0  y  2
f ( x, y )  
0 en otro caso

Hallar P(x<1 / y>1) y el coeficiente de correlación e indique si las variables


son independientes.

Solución:

P( x  1, y  1) = 37 / 112
P( x  1 / y  1)   37 / 92
P( y  1) 92 / 112

1 2 1 2 1 2
3 3 3
P( x  1, y  1)    ( xy  y )dxdy  28 
xdx  ydy   dx  y dy
2 2

28 0 1 0 1
28 0 1

= 37/112

2 2
3 3 2 2 3 2 2
P( y  1)    ( xy  y )dxdy   xdx  y dy 
2
 dx  y dy
2

28 28 0 1 28 0 1
0 1

= 23/28 = 92/112
2 2 2
3 3 3 = 3x/14 + 2/7
f ( x)   ( xy  y )dy  x  ydy 
28 
2
y 2 dy
28 0
28 0 0

f(x) = 3x/14 + 2/7  0 < x < 2


REGRESIÓN Y CORRELACIÓN
2 2
3 2
E ( x)   x 2dx   xdx  8 / 7
14 0 70

2 2
3 2
E ( x )   x3dx   x 2dx  34 / 21
2

14 0 70

V(x) = 34/21 – (8/7)2 = 46/147

Sx = 0,5594
2 2 2
3 3 3y 2 2)
f ( y)   ( xy  y )dx  y  xdx 
2
 dx = (3/14)(y + y
28 0 28 0 28 0

f(y) = (3/14)(y + y2) 0<x<2


REGRESIÓN Y CORRELACIÓN
3 2 2 3 2 3
14 0
E ( y)  y dy   y dy  10 / 7
14 0

2 2
3 3
E( y )     y 4 dy  78 / 35
2 3
y dy
14 0 14 0

V(y) = 78/35 – (10/7)2 = 46/245

Sy = 0,43331

2 2 2 2
= 3  x 2 dx  y 2 dy  3  xdx  y 3 dy
2 2
3
E ( x, y )   
28 0 0
xy ( xy  y 2 )dxdy 28 0 0 28 0 0

= 34/21

Cov(x; y) = 34/21 – (8/7)(10/7) = -2/147 = -0, 0,0136

r = -0,0136/(0,5594)(0,43331) = - 0,056

En este caso, también la correlación es bastante baja pero negativa.


Finalmente se puede concluir que las variables no son independientes.
REGRESIÓN Y CORRELACIÓN
2. REGRESIÓN.
 Es una técnica estadística que consiste en analizar la dependencia entre dos o
más variables, observando si las variaciones de una o más variable provocan o no
alguna variación en la magnitud de la otra variable, esa relación de dependencia
viene expresada en una función matemática que para valores dados de una o más
variables independientes da el valor esperado de la variable dependiente ligada a
esa o esas variables.
 Esta técnica fue estudiada por Sir Francis Galton y complementada por Sir Carl
Pearson, quienes estudiaron la relación entre las estaturas de los padres con las
estaturas de sus hijos y llegaron a la conclusión que las estaturas de los hijos
regresaban al promedio de estaturas.
 En otras palabras la regresión, es una técnica que permite expresar el
comportamiento general de una VARIABLE cuantitativa (denominada variable
dependiente o respuesta, y que generalmente es representada por Y) a partir de
los valores procedentes de otra u otras variables (denominadas variables
independientes, de predicción o regresoras: X, X1 , X2 , etc.) a través de una
relación funcional matemática. Esta relación puede utilizarse para calcular o predecir
los valores de la variable dependiente en función de las variables independientes.
REGRESIÓN Y CORRELACIÓN
 La relación de causalidad entre estas variables es unidireccional. Es decir, las variables
exógenas o independientes pueden influir en la endógena o dependiente, pero no a la inversa.
 REGRESIÓN SIMPLE. Es cuando la relación funcional es entre solo dos variables (X,Y),
donde X es la variable independiente e Y es la variable dependiente.
 REGRESIÓN MÚLTIPLE. Es cuando la relación funcional es entre una variable cuantitativa
llama da dependiente y otras dos o más variables independientes también cuantitativas.
 El análisis también puede ser lineal o no lineal.
 REGRESIÓN LINEAL. Es cuando la relación funcional puede ser expresada como la
ecuación de una recta, o cuando el exponente de las variables o de los parámetros es igual
uno positivo, la linealidad puede ser entre los parámetros o entre las variables o en ambos
casos.
 Ejemplo. Y = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜀
 Hay una relación lineal entre variables y entre parámetros. El Teorema de Gauss-Markov
indica que la linealidad del modelo es en los parámetros.
 REGRESIÓN NO LINEAL. Es cuando la relación entre las variables o parámetros no puede
ser expresada como la ecuación de una recta.
 Ejemplo. Y = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝑋 2 + 𝜀
 Hay una relación no lineal entre las variables
REGRESIÓN Y CORRELACIÓN
 REGRESIÓN LINEAL SIMPLE
 En un modelo de regresión lineal simple se trata de explicar la relación que existe entre la variable respuesta Y y
una única variable explicativa X. El modelo o relación funcional está dado por la ecuación de una recta; es decir:
 Y = f(X)
 Y = 𝛽0 + 𝛽1 𝑋 + 𝜀
 Y = 𝛼 + 𝛽𝑋 + 𝜀
 Donde:
 Y = Es la variable dependiente o variable respuesta, también llamada endógena. Es una variable aleatoria.
X = Es la variable independiente, explicativa, o exógena. Es una variable matemática, en algunos casos puede
también ser variable aleatoria.
𝛼 𝑜 𝛽𝑜 = Es el parámetro que indica el valor de la variable Y cuando la variable X toma el valor cero, en la gráfica es
la interceptación de la recta con el eje de las ordenadas.
 𝛽 = Es la pendiente de la recta o coeficiente de regresión, indica cómo cambia Y al incrementar X en una unidad.
 La pendiente o el coeficiente de regresión nos da información sobre el comportamiento de la variable Y frente a la
variable X, de manera que:
a) Si 𝛽 = 0, entonces para cualquier valor de X la variable Y es una constante (es decir, no cambia).
 b) Si 𝛽 > 0, indica que, al aumentar el valor de X, también aumenta el valor de Y.
 c) Si 𝛽 < 0, indica que, al aumentar el valor de X, el valor de Y disminuye.
REGRESIÓN Y CORRELACIÓN
 𝜺 = Es una variable aleatoria, que incluye un conjunto de factores, cada uno de los cuales puede influir en
la variable respuesta, pero sólo en pequeña magnitud, a la que llamaremos error o residuo.
 De acuerdo a esta composición la variable Y, tiene dos componentes una determinística, que es 𝛼 +
𝛽𝑋 y otra aleatoria o estocástica que es 𝜺
 SUPUESTOS
 Para hacer un análisis de regresión es necesario cumplir con ciertos supuestos dado en el teorema de
Gauss-Markov, los mismo son los siguientes:
 1.- El modelo es lineal, y la linealidad es en los parámetros.
 2.- Los valores de X son fijos o fijados por el investigador.
 3.- Los errores tienen distribución normal con media cero.
 4.- Los errores tienen varianza constante – homocedasticidad.
 5.- No existe autocorrelación entre los errores, por lo que son independientes.
 6.- La covarianza entre la variable X y los errores es cero.
 7.- No existe multicolinealidad entre las variables independientes.
 8.- El número de observaciones debe ser mayor al número de parámetros.
 9.- Los valores de X deben ser variables ( diferentes valores).
REGRESIÓN Y CORRELACIÓN
 ESTIMACIÓN DE LOS PARÁMETROS
 La estimación de los parámetros se realiza usando el método de los mínimos
cuadrados, porque son estimadores MELI (Mejores estimadores lineales insesgados)
 El procedimiento para hacer un análisis de regresión es determinar dos variables,
con una supuesta relación de causalidad, los cuales serán clasificada como variable
dependiente(Y) y como variable independiente (X), por lo tanto, se debe tener un
dato para cada variable en cada unidad elemental en consecuencia tendremos un
conjunto de pares ordenados (X,Y), que generalmente tiene un tamaño n, por ser
una muestra, en otras palabras, se tendrá n puntos y que al ser graficados forman lo
que se llama la nube de puntos, los pares serán: (X1,Y1), (X2,Y2), (X3,Y3),….., (Xn,Yn)
 La ecuación poblacional será:
 Y = 𝛼 + 𝛽𝑋 + 𝜀
 Y la ecuación muestral será
 Y = a + bX + e
 La ecuación estimada será
 𝑌෠ = a + bx
 En consecuencia, se tendrá
 e= Y - 𝑌෠
REGRESIÓN Y CORRELACIÓN
 Estas diferencias se elevan al cuadrado para cada punto luego se
suman
𝑛 2 𝑛 ෠ 2 𝑛 2
 𝑒
𝑖=1 𝑖 = 𝑖=1 𝑌𝑖 − 𝑌𝑖 = 𝑖=1 𝑌𝑖 − 𝑎 − 𝑏𝑋𝑖
 A esta suma de errores cuadráticos se minimiza, derivando respecto a
cada uno de los estimadores de los parámetros que son a y b.
𝑑 𝑛 2 𝑛
 𝑌 − 𝑎 − 𝑏𝑋 = 2 𝑖=1 𝑌𝑖 − 𝑎 − 𝑏𝑋𝑖 −1 = 0
𝑑𝑎 𝑖=1 𝑖 𝑖
𝑛
 𝑖=1 𝑌𝑖 − 𝑎 − 𝑏𝑋𝑖 = 0 → 𝑌 = na + b 𝑋 ……. (1)
𝑑 𝑛 2 𝑛
 𝑌 − 𝑎 − 𝑏𝑋 = 2 𝑖=1 𝑌𝑖 − 𝑎 − 𝑏𝑋𝑖 −1 𝑋𝑖 = 0
𝑑𝑏 𝑖=1 𝑖 𝑖
𝑛 2 2 ……(2)
 𝑋
𝑖=1 𝑖 𝑖 𝑌 − 𝑎𝑋 𝑖 − 𝑏𝑋 𝑖 = 0 → 𝑋𝑌 = a 𝑋 + b 𝑋
 De (1) y (2) se tiene
 a = 𝑌 - b𝑋
𝑛 𝑋𝑌− 𝑋 𝑌 𝑋𝑌− 𝑛𝑋𝑌 𝐶𝑜𝑣 𝑋,𝑌 𝑆𝑥𝑦
 b=
𝑋2−
2 =
𝑋2− 𝑛 𝑋 2
= =
𝑛 𝑋 𝑉 𝑋 𝑆𝑥𝑥
NUBE DE PUNTOS
NUBE DE PUNTOS
NUBE DE PUNTOS
NUBE DE PUNTOS
REGRESIÓN Y CORRELACIÓN
Ejemplo 1.
La siguiente muestra contiene el precio y la cantidad de artículos ofertados por un
empresario, el precio está dado en soles y la cantidad en unidades.
Precio: 25, 20, 35, 40, 60, 55, 45, 15, 20, 30, 40, 50, 70, 45, 50
Cantidad. 80, 60, 95, 110, 160, 140, 120, 40, 55, 90, 115, 120, 180, 95, 110

Muestra Nº Precio(X) Cantidad (Y) XY X2 Y2 ෠


𝑌 ෠ )2
(Y- 𝑌
1. 25 80 2000 625 6400 70.02 99.625
2. 20 60 1200 400 3600 58.47 2.342
3. 35 95 3325 1225 9025 93.12 3.544
4. 40 110 4400 1600 12100 104.67 28.444
5. 60 160 9600 3600 25600 150.86 83.469
6. 55 140 7700 3025 19600 139.31 0.470
7. 45 120 5400 2025 14400 116.22 14.320
8. 15 40 600 225 1600 46.92 47.889
9. 20 55 1100 400 3025 58.47 12.037
10. 30 90 2700 900 8100 81.57 71.097
11. 40 115 4600 1600 13225 104.67 106.778
12. 50 120 6000 2500 14400 127.77 60.299
13. 70 180 12600 4900 32400 173.96 36.452
14. 45 95 4275 2025 9025 116.22 450.117
15. 50 110 5500 2500 12100 127.77 315.604
Total 600 1570 71000 27550 184600 1570.02 1332.417
REGRESIÓN Y CORRELACIÓN
Nube de Puntos
200

180

160

140

120
Cantidad

100

80

60

40

20

0
0 10 20 30 40 50 60 70 80
Precio en soles
REGRESIÓN Y CORRELACIÓN
15𝑥71000 −600 𝑥1570
b= 15𝑥27550 −(600 )2
= 123000/53250 = 2.30986 = 2.31
a = 104.667 – 2.31x40 = 12.2723
෠ = 12.27 + 2.31X
𝑌
Ejemplo. Si el precio es de 80 soles la demanda será de
෠ = 12.27 + 2.31(80) = 197 artículos
𝑌

COEFICIENTE DE DETERMINACIÓN: R2
Es una medida que sirve para determinar el grado de ajuste de los puntos observados
con la ecuación de regresión estimada, se puede expresar en términos porcentuales
multiplicando el valor obtenido por cien, entonces indicará el porcentaje de puntos que
son colineales con la recta de regresión estimada y el resto corresponde al error, es decir
a los puntos no colineales.
2
𝑆𝑥𝑦 𝑆𝐶𝑅 𝐶𝑜𝑣 (𝑥,𝑦 )2
R2 = = = ; 0 ≤ 𝑅2 ≤ 1
𝑆𝑥𝑥 𝑆𝑦𝑦 𝑆𝐶𝑇 𝑉 𝑋 𝑉(𝑌)

r: el coeficiente de correlación de Pearson, es la raíz cuadrada de R2, con signo de la


pendiente b; r = 𝑅2
𝑋𝑌
Cov(x,y) = E(XY) – E(X)E(Y) = - 𝑋𝑌
𝑛
REGRESIÓN Y CORRELACIÓN
Ejemplo 2. Usar los datos del ejemplo anterior para calcular R2
71000 600 1570
Cov(x,y) = 15
–( 15
)( 15
) = 4733.333 – (40)(1570/15) = 546.666
𝑋 = 600/15 = 40 soles; 𝑌 = 1570/15 = 104.667 unidades
V(x) = (27550/15) – 402 = 236.667
Sx = 15.384 soles
V(y) = (184600/15) – 104.6672 = 1351.555
Sy = 36.7635 unidades
(546 .666 )2
R2 = = 0.934→ hay un ajuste del 93.4%, en otras palabras, el 93.4% de
(236 .667 )(1351 .555 )
la variación de las unidades ofertadas se debe a los precios y el 6.6% de variación se
debe a otros factores no contemplados.
Otra forma de obtener el R2 es como sigue:
𝑛 2
𝑖=1 (𝑌𝑖 − 𝑌 ) =
𝑛 ෠ ෠ 2
𝑖=1 (𝑌𝑖 − 𝑌𝑖 + 𝑌𝑖 − 𝑌 ) =
𝑛 ෠ 2
𝑖=1 (𝑌𝑖 − 𝑌𝑖 ) +
𝑛 ෠
𝑖=1(𝑌𝑖 − 𝑌 )
2

+2 𝑛 ෠ ෠
𝑖 =1(𝑌𝑖 − 𝑌𝑖 )(𝑌𝑖 − 𝑌 )
𝑛
𝑖=1 (𝑌𝑖 − 𝑌 )2 = 𝑛 ෠ 2
𝑖=1 (𝑌𝑖 − 𝑌𝑖 ) + 𝑛 ෠
𝑖=1 (𝑌𝑖 − 𝑌 )
2

Suma de cuadrados = suma de cuadrados + suma de cuadrados


del total del error de la regresión
SCT = SCE + SCR
R2 = SCR/SCT
REGRESIÓN Y CORRELACIÓN

𝑦 = 𝑎 + 𝑏𝑥
(X,Y)
𝑦 = 61 + 1.48𝑥
y

y-𝑦
y-𝑦

𝑌 𝑦-𝑦
∆𝑌
∆𝑋

∆𝑌
b=
a ∆𝑋

x X
REGRESIÓN Y CORRELACIÓN
Ejemplo 3. Usar los mismos datos del ejemplo anterior para calcula el coeficiente de
determinación
𝑛 𝑛 2
SCT = 𝑆𝑦𝑦 = 𝑖=1(𝑌𝑖 − 𝑌 )2 = 𝑖=1 𝑌𝑖 - n𝑌 2 = 184600 – 15(1570/15)2 = 20273.3333
V(Y) = 20273.333/15 = 1351.555; SCE = 1332.417
SCR = SCT – SCE = 20273.333 – 1332.417 = 18940.916
2
SCR = 𝑆𝑋𝑌 / 𝑆𝑥𝑥 = b2𝑆𝑥𝑥 = (8200)2/3550 = 18940.845, comparado con el anterior es una
buena aproximación. QQ
b = 𝑆𝑥𝑦 /𝑆𝑥𝑥 = 8200/3550 = 2.31
𝑛 𝑛
𝑆𝑥𝑦 = 𝑖=1[ 𝑋𝑖 − 𝑋 𝑌𝑖 − 𝑌 ] = 𝑖=1 𝑋𝑖 𝑌𝑖 − 𝑛𝑋 𝑌
𝑆𝑥𝑦 = 71000 – 15(40)(1570/15) = 71000 – 62800 = 8200 → Cov(x,y) = 8200/15 = 546.6667
𝑆𝑥𝑥 = 𝑛𝑖=1(𝑋𝑖 − 𝑋)2 = 𝑛𝑖=1 𝑋𝑖2 - n𝑋 2 = 27550 – 15(40)2 = 3550 → V(X) = 3550/15 =
236.6667
R2 = SCR/SCT = 18940.916/20273.333 = 0.934
2
𝑆𝑥𝑦
R2 =𝑆 = (8200)2/(3550)(20273.333) = 0.934
𝑥𝑥 𝑆𝑦𝑦

(𝑪𝒐𝒗(𝒙,𝒚)𝟐 (𝟓𝟒𝟔.𝟔𝟔𝟔𝟕)𝟐
R2 = 𝑽 𝑿 𝑽(𝒀)
= (𝟐𝟑𝟔.𝟔𝟔𝟔𝟕)(𝟏𝟑𝟓𝟏.𝟓𝟓𝟓𝟔) = 0.934
Como se puede apreciar se obtiene el mismo valor
REGRESIÓN Y CORRELACIÓN
Ejemplo 4.
Una empresa de reparto de encomiendas a domicilio estudia la relación entre la
distancia de las entregas (X) y el tiempo empleado (Y), con el fin de pronosticar el tiempo
de entrega de acuerdo a la distancia de entrega, para lo cual observó 10 entregas, los
resultado son los siguientes, con los cuales estime la recta de regresión para pronosticar
el tiempo de entrega de una encomienda que dista 20 km, asimismo obtenga el
coeficiente de determinación y el coeficiente de correlación de Pearson y de Spearman.
X (km) 28 14 12 31 30 19 24 15 16 11
Y(min) 60 23 12 75 70 40 55 24 25 16
Solución.
N° X (km) Y (min) XY X2 Y2 R(Xi) R(Yi) di 𝒅𝟐𝒊
1 28 60 1680 784 3600 8 8 0 0
2 14 23 322 196 529 3 3 0 0
3 12 12 144 144 144 2 1 1 1
4 31 75 2325 961 5625 10 10 0 0
5 30 70 2100 900 4900 9 9 0 0
6 19 40 760 361 1600 6 6 0 0
7 24 55 1320 576 3025 7 7 0 0
8 15 24 360 225 576 4 4 0 0
9 16 25 400 256 625 5 5 0 0
10 11 16 176 121 256 1 2 -1 1
T 200 400 9587 4524 20880 - - - 2
REGRESIÓN Y CORRELACIÓN
𝑿 = 200/10 = 20 km; 𝑌 = 400/10 = 40 min
Sxx = 4524 – 10x(20)2 = 524
Syy = 20880 – 10x(40)2 = 4880
Sxy = 9587 – 10x20x40 = 1587
b = 1587/524 = 3.02863
a = 40 – 3.02863x20 = - 20.5725
𝑌෠ = -20.5725 + 3.02863X
Para X = 20 km; = 𝑌෠ = -20.5725 + 3.02863x20 = 40 min.
2
𝑆𝑥𝑦 (1587 )2
R2 = 𝑆𝑥𝑥 𝑆𝑦𝑦
= (524)(4880 ) = 0.9849
r de Pearson
r = 0.9849
r = 0.9924
r de Spearman
6𝑥2
r = 1 - 10 3 −10 = 1 – 12/990 = 1 – 0.00202 = 0.99394
REGRESIÓN
 Ejemplo 5.
 El siguiente conjunto de datos corresponde a las ventas realizadas de un producto por un distribuidor, durante 12 años:
estime la cantidad de productos que se venderían en el año 2025, obtenga el coeficiente de determinación e interprételo.

 Año X Ventas(Y) XY X2 Y2 M(X) = 0.0, M(Y) = 4316/13 = 332 unidades


2009 -6 227 -1362 36 51529
𝑿𝟐

2010 -5 275 -1375 25 75625
V(X) = = 182/13 = 14, Sx = 3.74166
𝒏

 2011 -4 238 -952 16 56644 V(Y) = 1496740/13 – (332)2 = 4909.846154;


 2012 -3 244 -732 9 59536 Sy = 70.07
2013 -2 322 -644 4 103684 𝑿𝒀
 b= = 2992/182 = 16.43956; a = 𝒀 = 332 prod.
2014 -1 274 -274 1 75076 𝑿𝟐

 2015 0 358 0.0 0 128164 ෡ = 332 + 16.43956X


𝒀
 2016 1 384 384 1 147456 ෡ = 332 + 16.43956x10 = 496 productos
Si X = 10 → 𝒀
2017 2 395 790 4 156025 𝑿𝒀
 Cov(X,Y) = = 2992/13 = 230.1538
2018 3 387 1161 9 149769 𝒏

 2019 4 420 1680 16 176400 R2 = (230.1538)2/[(14)(4909.84154)] = 0.77


 2020 5 436 2180 25 190096 r = 0.87785
2021 6 356 2136 36 126736

Suma 0 4316 2992 182 1496740
REGRESIÓN
 Ejemplo 6. los siguientes datos corresponden al número de alumnos matriculados en una institución
educativa, durante 12 años. Estime la cantidad de alumnos que se matricularán el año 2025, el
coeficiente de determinación y de correlación.
 Año N° de (X) XY X2 Y2 M(X) = 0, M(Y) = 7476/12 = 623 alumnos
Matr. (Y)
 V(X) = 572/12 = 47.6667, Sx = 6.9041
2010 545 -11 -5995 121 297025
 V(Y) = 4675778/12 – (623)2 = 1519.1667,
2011 576 -9 5184 81 331776
 Sy = 38.9765
2012 584 -7 4088 49 341056
 b = 3126/572 = 5.465, a = 623
2013 605 -5 -3025 25 366025
 ෡ = 623 + 5.465X
𝒀
2014 613 -3 -1839 9 375769
 ෡ = 623 + 5.465(19)
para el año 2025, X = 19 → 𝒀
2015 610 -1 -610 1 372100
 ෡ = 727 alumnos
𝒀
2016 640 1 640 1 409600

2017 652 3 1956 9 425104
Cov(X,Y) = 3126/12 = 260.5
 2018 648 5 3240 25 419904 R2 = (260.5)2/(47.6667x1519.1667) = 0.937
 2019 663 7 4641 49 439569 r = 0.968
 2020 675 9 6075 81 455625
 ෡=
𝒀
2021623 +665
5.465X11 7315 121 442225
𝒀෡𝒀෡𝒀
 Total ෡ 7476 0 3126 572 4675778
REGRESIÓN Y CORRELACIÓN
VARIANZA DE LA REGRESIÓN

𝒏 𝟐 𝑛 ෠ 2
𝟐 𝒊=𝟏 𝒆𝒊 𝑖=1 (𝑌 𝑖 −𝑌 𝑖 )
𝝈 = =
𝒏−𝟐 𝒏−𝟐

Datos del ejemplo 1

𝟏𝟑𝟑𝟐.𝟒𝟏𝟕
𝝈𝟐 = 𝟏𝟓−𝟐
= 102.4936
𝑺𝟐
𝒙𝒚
𝑺𝒚𝒚 −
𝑺𝒙𝒙
𝝈𝟐 =
𝒏−𝟐
(𝟖𝟐𝟎𝟎)𝟐
𝟐𝟎𝟐𝟕𝟑.𝟑𝟑𝟑−
𝝈𝟐 = 𝟐𝟓𝟓𝟎
= 102.499
𝟏𝟓−𝟐
𝝈 = 10.124
Los estimadores a y b de α y β son estimadores MELI, por lo tanto son insesgados; es
decir, E(a) = α y E(b) = β, también los estimadores de sus varianzas deben ser insesgados
𝒏 𝟐
𝝈𝟐 𝒊=𝟏 𝑿𝒊
𝜎𝑎2 =
𝑛 𝑆𝑥𝑥
𝝈𝟐
𝜎𝑏2 =
𝑆𝑥𝑥
(102 .499)(27550 )
𝜎𝑎2 = = 53.03 → 𝜎𝑎 = 7.282
15(3550 )

𝜎𝑏2 = 102.499/3550 = 0.028873 → 𝜎𝑏 = 0.16992


REGRESIÓN Y CORRELACIÓN
Datos del ejemplo 4
Ejemplo. Datos del ejemplo 4
N° X (km) Y (min) ෡
𝒀 ෡)
(Y-𝒀 (𝒀 − 𝒀)𝟐

1 28 60 64.23 -4.23 17.8929

2 14 23 21.83 1.17 1.3689

3 12 12 15.77 -3.77 14.2129

4 31 75 73.31 1.69 2.8561

5 30 70 70.29 -0.29 0.0841

6 19 40 36.97 3.03 9.1809

7 24 55 52.11 2.89 8.3521

8 15 24 24.86 -0.86 0.7396

9 16 25 27.89 -2.89 8.3521

10 11 16 12.74 3.26 10..6276

T 200 400 400.0 73.6672


REGRESIÓN Y CORRELACIÓN
𝟕𝟑.𝟔𝟔𝟕𝟐
𝝈𝟐 = = 9.2084
𝟏𝟎−𝟐
𝑺𝟐𝒙𝒚
𝑺𝒚𝒚 −
𝟐 𝑺𝒙𝒙
𝝈 = 𝒏−𝟐
(𝟏𝟓𝟖𝟕)𝟐
𝟒𝟖𝟖𝟎−
𝝈𝟐 = 𝟏𝟎−𝟐
𝟓𝟐𝟒
= 9.1963
𝝈 = 3.0325
𝝈𝟐 𝒏𝒊=𝟏 𝑿𝟐𝒊
𝜎𝑎2 =
𝑛𝑆𝑥𝑥
𝝈𝟐
𝜎𝑏2 =
𝑆𝑥𝑥
(9.2084)(4524)
𝜎𝑎2 = = 9.75 → 𝜎𝑎 = 2.8196
10(524)
𝜎𝑏2 = 9.2084/524 = 0.01757 → 𝜎𝑏 = 0.13256
REGRESIÓN Y CORRELACIÓN
INFERENCIA ACERCA DE LOS PARÁMETROS
PRUEBA t
Para probar la significancia de los parámetros dentro del modelo se hacen las pruebas
respectivas para cada uno, en este caso se usará la prueba t por ser n = 15 < 30
Ejemplo. Probar
Si los parámetros α y β son significativos en el modelo estimado.
Solución.

a) Ho: α = 0, Ho: β = 0

H1: α ≠ 0, Ho: β ≠ 0

b) Nivel de significancia α = 0.05

c) El estadístico está dado por


𝑎−α 𝑏 −β
para α es t = 𝜎𝑎
; para β es t = 𝜎𝑏

los t tienen t-2 grados de libertad, en el ejemplo 1 la t tiene 13 grados de libertad


REGRESIÓN Y CORRELACIÓN
d) Puntos críticos.

RR = 0.025 RR = 0.025
Región de no rechazo de Ho

-2.16 2.16
12.27 2.31
e) para α, el te es te = = 1.685; para β, el te es te = 0.16992 = 13.595
7.282

f) Como 1.685 cae dentro de la región de no rechazo de Ho, entonces no hay evidencia
suficiente para rechazarlo, en consecuencia, el parámetro α no es significativo en el
modelo. En cambio, 13.595 cae fuera de la región de no rechazo, es decir cae en la región
de rechazo, por lo tanto, se rechaza Ho y en consecuencia el parámetro β si es
significativo en el modelo.
REGRESIÓN Y CORRELACIÓN
PRUEBA F

Cuando se quiere probar si el modelo estimado es significativo, se utiliza el análisis de


varianza, cuyo procedimiento es como sigue:
a) Ho: el modelo no representa al conjunto de puntos
H1: el modelo representa al conjunto de puntos
b) 𝛼 = 0.05 (Nivel de significancia)
c) El estadístico de una F con uno y n-2 grados de libertad, en el ejemplo es con uno y 13
grados de libertad
d) el punto crítico con un 𝛼 = 0.05 y una F con 1 y 13 grados de libertad es Fo = 4.67

RNR = 0.95

RR = 0.05
Región de no rechazo de Ho

0 4.67
REGRESIÓN Y CORRELACIÓN
e) Cuadro del ANVA
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión 1 SCR CMR = SCR CMR/CME

Error n-2 SCE CME = SCE/(n-2) --

Total n-1 SCT -- --

Del ejemplo
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión 1 18940.916 18940.916 184.8

Error 13 1332.417 102.4936 --

Total 14 20273.333 -- --

f) como 184,8 es mayor que 4.67 se rechaza Ho, en consecuencia, el modelo es


altamente significativo.
REGRESIÓN Y CORRELACIÓN
ESTIMACIÓN INTERVÁLICA
ESTIMACIÓN INTERVÁLICA PARA 𝜶 𝒚 β
P[a- tα/2𝜎𝑎 ≤ 𝛼 ≤ b + tα/2𝜎𝑎 ] = 1 – α

P[b - tα/2𝜎𝑏 ≤ β ≤ b + tα/2𝜎𝑏 ] = 1 – α

Ejemplo.
P[12.27 – 2.16(7.282) ≤ 𝛼 ≤ 12.27 + 2.16(7.282)] = 0.95
P[12.27 – 15.73 ≤ 𝛼 ≤ 12.27 + 15.73] = 0.95
P[-3.46 ≤ 𝛼 ≤ 28] = 0.95
P[2.31 – 2.16(0.16992) ≤ β ≤ 2.31 + 2.16(0.16992)] = 0.95
P[2.31 – 0.367 ≤ β ≤ 2.31 + 0.367] = 0.95
P[1.943 ≤ β ≤ 2.677] = 0.95
REGRESIÓN Y CORRELACIÓN
ESTIMACIÓN INTERVÁLICA PARA (𝛼 + 𝛽𝑋)
Para obtener una estimación interválica para cualquier punto de la recta de regresión,
Xo es necesario tener la desviación estándar del predictor ep, la cual es la siguiente
expresión.
1 (𝑋𝑜 −𝑋)
V(𝑒𝑝 ) = 𝜎𝑝2 = 𝜎 2 [𝑛 + 𝑆𝑥𝑥
]
1 (𝑋𝑜 −𝑋 )
𝜎𝑝 = 𝜎 𝑛
+ 𝑆𝑥𝑥

P[𝑌෠𝑜 - tα/2𝜎𝑝 ≤ Yo ≤ 𝑌෠𝑜 + tα/2𝜎𝑝 ] = 1 – α

Ejemplo. Obtenga una estimación interválica con un 95% de seguridad para la oferta de
un artículo cuyo precio es de 50 soles (ejemplo 1).
Solución.
Estimación puntual
𝑌෠𝑜 = 12.27 + 2.31(50) = 127.77 ~ 128 artículos
REGRESIÓN Y CORRELACIÓN
Estimación interválica
1 (50−40)
𝜎𝑝 = 10.124 + = 2.67
15 3550

P[127.77 – 2.16(2.67) ≤ Yo ≤ 127.77 + 2.16(2.67)] = 0.95


P[127.77 – 5.77 ≤ Yo ≤ 127.77 + 5.77] = 0.95
P[122 ≤ Yo ≤ 134] (estimación interválica con un 95% de seguridad)
Al precio de 50 soles la oferta con un 95% de seguridad debe estar entre 122 artículos
como mínimo y un máximo de 134 artículos.
P[127.77 – 3.012(2.67) ≤ Yo ≤ 127.77 + 3.012(2.67)] = 0.99
P[127.77 – 8.04 ≤ Yo ≤ 127.77 + 8.04] = 0.99
P[118 ≤ Yo ≤ 136] (estimación interválica con un 99% de seguridad
REGRESIÓN Y CORRELACIÓN
REGRESIÓN LINEAL MÚLTIPLE
En un modelo de regresión múltiple la variable dependiente Y es una función de dos o
más variables independientes, un modelo de k variables independientes se puede
expresar como sigue:
f(x) = f(X1, X2, X3, …XK)
Un modelo de regresión múltiple con k variables es como sigue
Y = 𝛽𝑂 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝛽3 𝑋3 + ⋯ + 𝛽𝐾 𝑋𝐾 + 𝜀
Modelo muestral
y = 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3 + ⋯ + 𝑏𝐾 𝑋𝐾 + 𝑒
𝑦 = 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3 + ⋯ + 𝑏𝐾 𝑋𝐾
En forma matricial la ecuación es como sigue
Y = Xβ + 𝜀
Modelo muestral
Y = X𝛽 + e
𝑦 = X𝛽
e=Y-𝑦
REGRESIÓN Y CORRELACIÓN
𝑛 2
𝑖=1 𝑒𝑖 = 𝑛
𝑖=1 (𝑌𝑖
෠𝑖 )2
−𝑌
X’Y = X’X𝛽
𝛽 = (𝑋 ′ 𝑋)−1 X’Y
Donde: la matriz X es una matriz nx(k+1)
1 𝑋11 𝑋21 𝑋31 … . . 𝑋𝑘1
1 𝑋12 𝑋22 𝑋32 … . . 𝑋𝑘2
1 𝑋13 𝑋23 𝑋33 … . . 𝑋𝑘3
…………………………..
1 𝑋1𝑛 𝑋2𝑛 𝑋3𝑛 … . . 𝑋𝑘𝑛

Las matrices columnas son los siguientes:


𝑌1 𝛽𝑜 𝑒1
𝑌2 𝛽1 𝑒2
𝑌 𝛽 𝑒3
Para Y = 3 Para 𝛽 = 2 para e = .
. .
. . .
𝑌𝑛 𝛽𝑘 𝑒𝑘
Modelo para una regresión con dos variables independientes se tiene
Y = 𝛽𝑂 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜀
REGRESIÓN Y CORRELACIÓN
Modelo muestral
y = 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑒
𝑦 = 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2
1 𝑋11 𝑋21
1 𝑋12 𝑋22 𝑛 𝑋1 𝑋2 𝑦
X = 1 𝑋13 𝑋23 X’X = 𝑋1 𝑋12 𝑋1 𝑋2 X’Y = 𝑥1 𝑦
…………… 𝑋2 𝑋1 𝑋2 𝑋22 𝑥2 𝑦
1 𝑋1𝑛 𝑋2𝑛

𝑌1 𝑒1
𝑌2 𝑒2
𝛽𝑂
𝑌 𝑒3
Para Y = 3 Para 𝛽 = 𝛽1 para e = .
.
. 𝛽2 .
𝑌𝑛 𝑒𝑛
REGRESIÓN Y CORRELACIÓN
Ejemplo. Se tiene el consumo por familia de un producto por mes, así como
el precio del producto en soles con que compra la familia y el ingreso
mensual en miles de soles de dichas familias, con los cuales estime el
modelo de regresión correspondiente.

Familia consumo(Y) Precio(X1) Ingreso familiar(X2)


1.- 5 4 3
2.- 8 3 5
3.- 9 3 5
4.- 7 3 4
5.- 6 3 6
6.- 13 2 6
7.- 10 3 5
8.- 4 4 4
9.- 3 4 2
10.- 11 2 7
11.- 8 3 6
12.- 12 2 7
Total 96 86 60
REGRESIÓN Y CORRELACIÓN
Y2 𝑋12 𝑋22 X1Y X2Y X1X2
25 16 9 20 15 12
64 9 25 24 40 15
81 9 25 27 45 15
49 9 16 21 28 12
36 9 36 18 36 18
169 4 36 26 78 12
100 9 25 30 50 15
16 16 16 16 16 16
9 16 4 12 6 8
121 4 49 22 77 14
64 9 36 24 48 18
144 4 49 24 84 14
878 114 326 264 523 169
REGRESIÓN Y CORRELACIÓN
1 4 3
1 3 5
1 3 5
1 3 4
1 3 6
12 36 60
1 2 6
X= X’X = 36 114 169 𝑌 = 96/12 = 8; 𝑋1 = 36/12 = 3
1 3 5
60 169 326
1 4 4
1 4 2
1 2 7
1 3 6
1 2 7

𝑋2 = 60/12 = 5
∆ = 12(114x326 – 1692) – 36(36x326 – 60x169) + 60(36x169 – 60x114)
= 103236 - 57456 – 45360 = 420
8603 − 1596 − 756 𝑦 96
1
(𝑋 ′ 𝑋)−1 = −1596 312 132 X’Y = 𝑥1 𝑦 = 264
420
−756 132 72 𝑥2 𝑦 523

8603 − 1596 − 756 96 9156


′ −1 1 1
(𝑋 𝑋) 𝑋′𝑌 = −1596 312 132 264 = −1812
420 420
−756 132 72 523 −72
𝛽𝑂 21.8
𝛽1 = −4.314
𝛽2 −0.171
෠ = 21.8 – 4.314X1 – 0.171X2
𝑌
REGRESIÓN Y CORRELACIÓN
96 36 60
1
∆𝛽𝑜 = 264 114 169 = 9156/420 = 21.8
420
523 169 326
12 96 60
1
∆𝛽1 = 36 264 169 = -1812/420 = -4.3143
420
60 523 326
12 36 96
1
∆𝛽2 = 36 114 264 = -72/420 = -0.1714
420
60 169 523
෡ 𝑋′𝑌
SCE = Y’Y - 𝛽′

96

𝛽′𝑋′𝑌 = [21.8, -4.314, -0.171] 264 = 864.2
523
SCE = 878 – 864.2 = 13.8
SCT = 878 – 12(8)2 = 110 = Syy
෡ 𝑋′𝑌 - n𝑌 2 = 864.2 – 12(8)2 = 96.2
SCR = 𝛽′
SCR = SCT – SCE = 110 – 13.8 = 96.2
R2 = SCR/SCT = 96.2/110 = 0.8745 → 87.45% de ajuste
R = r = 0.8745 = 0.935 alta correlación positiva
𝜎 2 = SCE/(n-3) = 13.8/9 = 1.533
REGRESIÓN Y CORRELACIÓN
PRUEBA F PARA EL MODELO

a) Ho: el modelo no representa al conjunto de puntos, ninguna covariable influye en la


variable respuesta(consumo)

H1: el modelo representa al conjunto de puntos o al menos una de las covariables


influye en la variable respuesta (consumo)

b) 𝛼 = 0.05 (Nivel de significancia)

c) El estadístico de una F con dos y n-3 grados de libertad, en el ejemplo es con dos y 9
grados de libertad

d) el punto crítico con un 𝛼 = 0.05 y una F con 2 y 9 grados de libertad es Fo = 4.26

RNR = 0.95

RR = 0.05
Región de no rechazo de Ho

0 4.26
REGRESIÓN Y CORRELACIÓN
e) Cuadro del ANVA
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión K-1 SCR CMR = SCR CMR/CME

Error n-k SCE CME = SCE/(n-2) --

Total n-1 SCT -- --

K = Nº de parámetros
Del ejemplo
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión 2 96.2 48.1 31.376

Error 9 13.8 1.533 --

Total 11 110.0 -- --

f) como 31.376 es mayor que 4.26 se rechaza Ho, en consecuencia, el modelo es


altamente significativo.
REGRESIÓN Y CORRELACIÓN

Prof. Fernando Arce Z.


GRACIAS

También podría gustarte