Descargue como DOCX, PDF, TXT o lea en línea desde Scribd
Descargar como docx, pdf o txt
Está en la página 1/ 6
¿qué tan precisa es la media de la muestra μˆ como una estimación
de μ? el promedio de μˆ en muchos conjuntos de datos estará muy
cerca de μ, pero que una sola estimación μˆ puede ser una subestimación sustancial o una sobreestimación de μ. ¿Cuán lejos estará esa única estimación de respondemos a esta pregunta calculando el error estándar de μˆ, escrito como SE(ˆμ)? Tenemos error estándar:
el error estándar nos indica la cantidad promedio que esta
estimación μˆ difiere del valor real de μ. La ecuación 3.7 también nos dice cómo esta desviación se reduce con n: cuantas más observaciones tengamos, menor será el error estándar de μˆ. De manera similar. Para calcular los errores estándar asociados con βˆ0 y βˆ1, usamos las siguientes fórmulas:
Donde σ2 = Var(e) . Para que estas fórmulas sean estrictamente
válidas, necesitamos asumir que los errores ei para cada observación tienen una varianza común σ2 y no están correlacionados. SE(βˆ1) es más pequeño cuando los xi están más dispersos. También vemos que SE(βˆ0) sería lo mismo que SE(ˆμ) si x ̄ fuera cero (en cuyo caso βˆ0 sería igual a y ̄).
Esta estimación de σ se conoce como error estándar residual , error
estándar residual RSE = √ RSS/(n−k). Los errores estándar se pueden utilizar para calcular los intervalos de confidencial . Un intervalo de confdencia con un 95 % de probabilidad, el rango contendrá el valor desconocido verdadero del parámetro.
Un intervalo de confdencia del 95% tiene la siguiente propiedad: si
tomamos muestras repetidas y construimos el intervalo de confdencia para cada muestra, el 95% de los intervalos contendrán el valor desconocido verdadero del parámetro. Para la regresión lineal, el intervalo de confianza del 95 % para β1 toma aproximadamente la forma: contendrá el valor verdadero de β1. De manera similar, un intervalo de confdencia para β0 aproximadamente toma la forma
Los errores estándar también se pueden
utilizar para realizar pruebas de hipótesis sobre los coeficientes de la prueba de hipótesis. La prueba de hipótesis más común consiste en probar la hipótesis nula de
versus la alternative hipótesis
Mathematically, this corresponds to testing
β1 = 0 entonces el modelo (3.5) se reduce a Y = β0 +
", y X no está asociado con Y. Para probar la hipótesis nula, necesitamos determinar si βˆ1, nuestra estimación para β1, está lo suficientemente lejos de cero como para que podamos estar seguros de que β1 es distinto de cero. ¿Hasta dónde es suficiente? Esto, por supuesto, depende de la precisión de βˆ1, es decir, depende de SE(βˆ1). Si SE(βˆ1) es pequeño, entonces incluso valores relativamente pequeños de βˆ1 pueden proporcionar una fuerte evidencia de que β1 ≠ 0 y, por lo tanto, que existe una relación entre X e Y. Por el contrario, si SE(βˆ1) es grande, entonces βˆ1 debe ser grande en valor absoluto para que rechacemos la hipótesis nula. En la práctica, calculamos un estadístico t, un estadístico t dado por:
Si realmente no hay relación entre X e Y,
entonces esperamos que (3.14) tenga una distribución t con n − 2 grados de libertad. La distribución t tiene forma de campana y para valores de n mayores que aproximadamente 30 es bastante similar a la distribución normal estándar. Es una cuestión sencilla calcular la probabilidad de observar cualquier número igual a |t| o mayor en valor absoluto, suponiendo β1 = 0. A esta probabilidad la llamamos valor p. Interpretamos, un valor p pequeño indica que es poco probable observar una asociación tan sustancial entre el predictor y la respuesta debido al azar, en ausencia de una asociación real entre el predictor y la respuesta. Por lo tanto, si vemos un valor p pequeño, podemos inferir que hay una asociación entre el predictor y la respuesta. Rechazamos la hipótesis nula, es decir, declaramos que existe una relación entre X e Y, si el valor p es lo suficientemente pequeño. Los valores de corte típicos de p para rechazar la hipótesis nula son 5% o 1%, aunque este tema se explorará con mucho más detalle en el Capítulo 13. Cuando n = 30, corresponden a estadísticos t (3,14) de alrededor de 2 y 2,75, respectivamente.
Evaluación de la precisión del modelo
Una vez que hemos rechazado la hipótesis nula (3.12) en favor de la
hipótesis alternativa (3.13), es natural querer cuantificar hasta qué punto el modelo se ajusta a los datos. La calidad de una regresión lineal ft se evalúa típicamente utilizando dos cantidades relacionadas: el error estándar residual (RSE) y el estadístico R2
Residual Standard Error
Recordemos del modelo (3.5) que asociado a cada observación hay
un término de error". Debido a la presencia de estos términos de error, incluso si conociéramos la verdadera recta de regresión (es decir, incluso si β0 y β1 fueran conocidas), no podríamos predecir perfectamente Y a partir de X. El RSE es una estimación de la desviación estándar de e. A grandes rasgos, es la cantidad media en que la respuesta se desviará de la verdadera línea de regresión. Se calcula mediante la fórmula
Nótese que RSS se definió en la Sección 3.1.1, y viene dado por la
fórmula En el caso de los datos publicitarios, vemos en el resultado de la regresión lineal de la tabla 3.2 que el RSE es de 3,26. En otras palabras, las ventas reales en cada mercado se desvían de la verdadera línea de regresión en aproximadamente 3.260 unidades, en promedio. Otra forma de pensar en esto es que incluso si el modelo fuera correcto y los valores verdaderos de los coeficientes desconocidos β0 y β1 se conocieran con exactitud, cualquier predicción de ventas sobre la base de la publicidad televisiva seguiría siendo de unas 3.260 unidades de media. Por supuesto, si 3.260 unidades es o no un error de predicción aceptable depende del contexto del problema. En el conjunto de datos publicitarios, el valor medio de las ventas en todos los mercados es de aproximadamente 14.000 unidades, por lo que el error porcentual es 3.260/14.000 = 23 %.
El RSE se considera una medida de la falta de ajuste del modelo (3.5)
a los datos. Si las predicciones obtenidas utilizando el modelo están muy cerca de los verdaderos valores de los resultados, es decir, si yˆi ≈ yi para i = 1..., n, entonces (3.15) será pequeño, y podemos concluir que el modelo se adapta muy bien a los datos. Por otro lado, si yˆi está muy lejos de yi para una o más observaciones, entonces el RSE puede ser bastante grande, lo que indica que el modelo no se ajusta bien a los datos.
R2 Statistic
El RSE proporciona una medida absoluta de la falta de ajuste del
modelo (3.5) a los datos. Pero como se mide en las unidades de Y , no siempre es claro lo que constituye un buen RSE. El estadístico R2 proporciona una medida alternativa de ajuste. Toma la forma de una proporción, la proporción de varianza explicada, por lo que siempre toma un valor entre 0 y 1, y es independiente de la escala de Y . Para calcular R2, usamos la fórmula
donde TSS = ∑(yi – y¯)^2 es la suma
total de cuadrados, y RSS es la suma total definida de cuadrados . TSS mide la varianza total en la respuesta Y , y se puede considerar como la cantidad de variabilidad inherente a la respuesta antes de que se realice la regresión. Por el contrario, RSS mide la cantidad de variabilidad que queda sin explicar después de realizar la regresión. Por lo tanto, TSS − RSS mide la cantidad de variabilidad en la respuesta que se explica (o elimina) mediante la realización de la regresión, y R2 mide la proporción de variabilidad en Y que se puede explicar usando X. Un estadístico R2 cercano a 1 indica que una gran proporción de la variabilidad de la respuesta se explica por la regresión. Un número cercano a 0 indica que la regresión no explica gran parte de la variabilidad de la respuesta; Esto puede ocurrir porque el modelo lineal es incorrecto, o la varianza del error σ2 es alta, o ambos. En la tabla 3.2, el R2 fue de 0,61, por lo que poco menos de dos tercios de la variabilidad en las ventas se explica por una regresión lineal en la televisión.
es también una medida de la relación lineal entre X e Y . Esto sugiere
que podríamos usar r = Cor(X, Y) en lugar de R2 para evaluar el ajuste del modelo lineal. De hecho, R2 = r2. En otras palabras, la correlación al cuadrado y el estadístico R2 son idénticos. El concepto de correlación entre los predictores y la respuesta no se extiende automáticamente a este entorno, ya que la correlación cuantifica la asociación entre un solo par de variables en lugar de entre un número mayor de variables. Veremos que R2 cumple este papel.
Multiple Linear Regression
La regresión lineal simple es un enfoque útil para predecir una
respuesta sobre la base de una sola variable predictora. Sin embargo, en la práctica a menudo tenemos más de un predictor. ¿Cómo podemos ampliar nuestro análisis de los datos publicitarios para dar cabida a estos dos predictores adicionales? Una opción es ejecutar tres regresiones lineales simples separadas, cada una de las cuales utiliza un medio publicitario diferente como predictor. Por ejemplo, podemos hacer una regresión lineal simple para predecir las ventas en función de la cantidad gastada en anuncios de radio. Los resultados se muestran en la Tabla 3.3 (tabla superior). Encontramos que un aumento de $1,000 en el gasto en publicidad en radio está asociado con un aumento en las ventas de alrededor de 203 unidades. La Tabla 3.3 (tabla inferior) contiene los coeficientes de mínimos cuadrados para una regresión lineal simple de las ventas al presupuesto publicitario de los periódicos. Un aumento de $1,000 en el presupuesto de publicidad en periódicos se asocia con un aumento en las ventas de aproximadamente 55 unidades.
donde Xj representa el j-ésimo predictor y βj cuantifica la asociación
entre esa variable y la respuesta. Interpretamos βj como el efecto promedio en Y de un aumento de una unidad en Xj , manteniendo todos los demás predictores constante. En el ejemplo publicitario, (3.19) se convierte en