0% encontró este documento útil (0 votos)
9 vistas6 páginas

Repaso Libro ISLP (Recuperado Automáticamente)

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 6

¿qué tan precisa es la media de la muestra μˆ como una estimación

de μ? el promedio de μˆ en muchos conjuntos de datos estará muy


cerca de μ, pero que una sola estimación μˆ puede ser una
subestimación sustancial o una sobreestimación de μ. ¿Cuán lejos
estará esa única estimación de respondemos a esta pregunta
calculando el error estándar de μˆ, escrito
como SE(ˆμ)? Tenemos error
estándar:

el error estándar nos indica la cantidad promedio que esta


estimación μˆ difiere del valor real de μ. La ecuación 3.7 también nos
dice cómo esta desviación se reduce con n: cuantas más
observaciones tengamos, menor será el error estándar de μˆ. De
manera similar. Para calcular los errores estándar asociados con βˆ0 y
βˆ1, usamos las siguientes fórmulas:

Donde σ2 = Var(e) . Para que estas fórmulas sean estrictamente


válidas, necesitamos asumir que los errores ei para cada observación
tienen una varianza común σ2 y no están correlacionados. SE(βˆ1) es
más pequeño cuando los xi están más dispersos. También vemos que
SE(βˆ0) sería lo mismo que SE(ˆμ) si x ̄ fuera cero (en cuyo caso βˆ0
sería igual a y ̄).

Esta estimación de σ se conoce como error estándar residual , error


estándar residual RSE = √ RSS/(n−k). Los errores estándar se
pueden utilizar para calcular los intervalos de confidencial . Un
intervalo de confdencia con un 95 % de probabilidad, el rango
contendrá el valor desconocido verdadero del parámetro.

Un intervalo de confdencia del 95% tiene la siguiente propiedad: si


tomamos muestras repetidas y construimos el intervalo de confdencia
para cada muestra, el 95% de los intervalos contendrán el valor
desconocido verdadero del parámetro. Para la regresión lineal, el
intervalo de confianza del 95 % para β1 toma aproximadamente la
forma:
contendrá el valor verdadero de β1. De manera similar, un intervalo
de confdencia para β0 aproximadamente toma la forma

Los errores estándar también se pueden


utilizar para realizar pruebas de hipótesis
sobre los coeficientes de la prueba de hipótesis. La prueba de
hipótesis más común consiste en probar la hipótesis nula de

versus la alternative
hipótesis

Mathematically, this corresponds to testing

β1 = 0 entonces el modelo (3.5) se reduce a Y = β0 +


", y X no está asociado con Y. Para probar la hipótesis nula,
necesitamos determinar si βˆ1, nuestra estimación para β1, está lo
suficientemente lejos de cero como para que podamos estar seguros
de que β1 es distinto de cero. ¿Hasta dónde es suficiente? Esto, por
supuesto, depende de la precisión de βˆ1, es decir, depende de
SE(βˆ1). Si SE(βˆ1) es pequeño, entonces incluso valores
relativamente pequeños de βˆ1 pueden proporcionar una fuerte
evidencia de que β1 ≠ 0 y, por lo tanto, que existe una relación entre
X e Y. Por el contrario, si SE(βˆ1) es grande, entonces βˆ1 debe ser
grande en valor absoluto para que rechacemos la hipótesis nula. En la
práctica, calculamos un estadístico t, un estadístico t dado por:

Si realmente no hay relación entre X e Y,


entonces esperamos que (3.14) tenga una distribución t con n − 2
grados de libertad. La distribución t tiene forma de campana y para
valores de n mayores que aproximadamente 30 es bastante similar a
la distribución normal estándar. Es una cuestión sencilla calcular la
probabilidad de observar cualquier número igual a |t| o mayor en
valor absoluto, suponiendo β1 = 0. A esta probabilidad la llamamos
valor p. Interpretamos, un valor p pequeño indica que es poco
probable observar una asociación tan sustancial entre el predictor y la
respuesta debido al azar, en ausencia de una asociación real entre el
predictor y la respuesta. Por lo tanto, si vemos un valor p pequeño,
podemos inferir que hay una asociación entre el predictor y la
respuesta. Rechazamos la hipótesis nula, es decir, declaramos que
existe una relación entre X e Y, si el valor p es lo suficientemente
pequeño. Los valores de corte típicos de p para rechazar la hipótesis
nula son 5% o 1%, aunque este tema se explorará con mucho más
detalle en el Capítulo 13. Cuando n = 30, corresponden a estadísticos
t (3,14) de alrededor de 2 y 2,75, respectivamente.

Evaluación de la precisión del modelo

Una vez que hemos rechazado la hipótesis nula (3.12) en favor de la


hipótesis alternativa (3.13), es natural querer cuantificar hasta qué
punto el modelo se ajusta a los datos. La calidad de una regresión
lineal ft se evalúa típicamente utilizando dos cantidades relacionadas:
el error estándar residual (RSE) y el estadístico R2

Residual Standard Error

Recordemos del modelo (3.5) que asociado a cada observación hay


un término de error". Debido a la presencia de estos términos de
error, incluso si conociéramos la verdadera recta de regresión (es
decir, incluso si β0 y β1 fueran conocidas), no podríamos predecir
perfectamente Y a partir de X. El RSE es una estimación de la
desviación estándar de e. A grandes rasgos, es la cantidad media en
que la respuesta se desviará de la verdadera línea de regresión. Se
calcula mediante la
fórmula

Nótese que RSS se definió en la Sección 3.1.1, y viene dado por la


fórmula
En el caso de los datos publicitarios, vemos en el resultado de la
regresión lineal de la tabla 3.2 que el RSE es de 3,26. En otras
palabras, las ventas reales en cada mercado se desvían de la
verdadera línea de regresión en aproximadamente 3.260 unidades, en
promedio. Otra forma de pensar en esto es que incluso si el modelo
fuera correcto y los valores verdaderos de los coeficientes
desconocidos β0 y β1 se conocieran con exactitud, cualquier
predicción de ventas sobre la base de la publicidad televisiva seguiría
siendo de unas 3.260 unidades de media. Por supuesto, si 3.260
unidades es o no un error de predicción aceptable depende del
contexto del problema. En el conjunto de datos publicitarios, el valor
medio de las ventas en todos los mercados es de aproximadamente
14.000 unidades, por lo que el error porcentual es 3.260/14.000 = 23
%.

El RSE se considera una medida de la falta de ajuste del modelo (3.5)


a los datos. Si las predicciones obtenidas utilizando el modelo están
muy cerca de los verdaderos valores de los resultados, es decir, si yˆi
≈ yi para i = 1..., n, entonces (3.15) será pequeño, y podemos
concluir que el modelo se adapta muy bien a los datos. Por otro lado,
si yˆi está muy lejos de yi para una o más observaciones, entonces el
RSE puede ser bastante grande, lo que indica que el modelo no se
ajusta bien a los datos.

R2 Statistic

El RSE proporciona una medida absoluta de la falta de ajuste del


modelo (3.5) a los datos. Pero como se mide en las unidades de Y , no
siempre es claro lo que constituye un buen RSE. El estadístico R2
proporciona una medida alternativa de ajuste. Toma la forma de una
proporción, la proporción de varianza explicada, por lo que siempre
toma un valor entre 0 y 1, y es independiente de la escala de Y . Para
calcular R2, usamos la fórmula

donde TSS = ∑(yi – y¯)^2 es la suma


total de cuadrados, y RSS es la suma total definida de cuadrados .
TSS mide la varianza total en la respuesta Y , y se puede considerar
como la cantidad de variabilidad inherente a la respuesta antes de
que se realice la regresión. Por el contrario, RSS mide la cantidad de
variabilidad que queda sin explicar después de realizar la regresión.
Por lo tanto, TSS − RSS mide la cantidad de variabilidad en la
respuesta que se explica (o elimina) mediante la realización de la
regresión, y R2 mide la proporción de variabilidad en Y que se puede
explicar usando X. Un estadístico R2 cercano a 1 indica que una gran
proporción de la variabilidad de la respuesta se explica por la
regresión. Un número cercano a 0 indica que la regresión no explica
gran parte de la variabilidad de la respuesta; Esto puede ocurrir
porque el modelo lineal es incorrecto, o la varianza del error σ2 es
alta, o ambos. En la tabla 3.2, el R2 fue de 0,61, por lo que poco
menos de dos tercios de la variabilidad en las ventas se explica por
una regresión lineal en la televisión.

es también una medida de la relación lineal entre X e Y . Esto sugiere


que podríamos usar r = Cor(X, Y) en lugar de R2 para evaluar el
ajuste del modelo lineal. De hecho, R2 = r2. En otras palabras, la
correlación al cuadrado y el estadístico R2 son idénticos. El concepto
de correlación entre los predictores y la respuesta no se extiende
automáticamente a este entorno, ya que la correlación cuantifica la
asociación entre un solo par de variables en lugar de entre un número
mayor de variables. Veremos que R2 cumple este papel.

Multiple Linear Regression

La regresión lineal simple es un enfoque útil para predecir una


respuesta sobre la base de una sola variable predictora. Sin embargo,
en la práctica a menudo tenemos más de un predictor. ¿Cómo
podemos ampliar nuestro análisis de los datos publicitarios para dar
cabida a estos dos predictores adicionales? Una opción es ejecutar
tres regresiones lineales simples separadas, cada una de las cuales
utiliza un medio publicitario diferente como predictor. Por ejemplo,
podemos hacer una regresión lineal simple para predecir las ventas
en función de la cantidad gastada en anuncios de radio. Los
resultados se muestran en la Tabla 3.3 (tabla superior). Encontramos
que un aumento de $1,000 en el gasto en publicidad en radio está
asociado con un aumento en las ventas de alrededor de 203
unidades. La Tabla 3.3 (tabla inferior) contiene los coeficientes de
mínimos cuadrados para una regresión lineal simple de las ventas al
presupuesto publicitario de los periódicos. Un aumento de $1,000 en
el presupuesto de publicidad en periódicos se asocia con un aumento
en las ventas de aproximadamente 55 unidades.

donde Xj representa el j-ésimo predictor y βj cuantifica la asociación


entre esa variable y la respuesta. Interpretamos βj como el efecto
promedio en Y de un aumento de una unidad en Xj , manteniendo
todos los demás predictores constante. En el ejemplo publicitario,
(3.19) se convierte en

Estimating the Regression Coefcients

También podría gustarte