Tema 7 Econometria

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 3

Tema 7: Contraste de hipótesis en el modelo básico de regresión lineal

CONTRASTE DE HIPOTESIS
1. Principios generales del contraste de hipótesis
El contraste de HIPÓTESIS permite realizar inferencias acerca de parámetros poblacionales utilizando datos provenientes de una
muestra. Para realizar contrastes de hipótesis en estadística, en general hay que realizar los siguientes pasos:
1) Establecer una hipótesis nula y una hipótesis alternativa relativas a los parámetros de la población
2) Construir un estadístico para contrastar las hipótesis formuladas
3) Definir una regla de decisión para determinar si la hipótesis nula debe ser, o no, rechazada en función del valor que tome el
estadístico construido

Formulación de la hipótesis nula y de la hipótesis alternativa


Hipótesis nula:
Por ejemplo => H0 : βj = 0
Hipótesis alternativa:
Por ejemplo => H1 : βj ≠ 0

Construcción del estadístico


Para realizar el contraste se trata de buscar un estadístico que tenga una distribución conocida. La distribución del estadístico
dependerá en buena medida de los supuestos que se establezcan en el modelo.
Si en la especificación del modelo se asume el supuesto de NORMALIDAD, entonces la distribución del estadístico apropiado será
la DISTRIBUCIÓN NORMAL o alquna de las distribuciones asociada a la misma como son la CHI-CUADRADO, LA t de Student o la F
de Snedecor

Reglas de decisión para el contraste


Consiste en establecer unos límites que dividen el espacio muestral en dos regiones: región de aceptación y región crítica. Si el
estadístico calculado con los datos muestrales cae en la región crítica se RECHAZA LA HIPÓTESIS NULA.
Entonces, para la realización de un contraste hay que fijar los límites que separan la región de aceptación y la región de rechazo.
El tamaño de la región crítica se mide por el riesgo de rechazar la hipótesis nula cuando es cierta. A la cota máxima asociada a
este riesgo se le denomina nivel de significación.
Nivel de confianza = 1 – α
Nivel de significación = α
Los niveles de significación más usuales en el contraste de hipótesis son: α = 0,05 ; α = 0,01
Para el nivel de significación que se determine, se puede encontrar en TABLAS ESTADÍSTICAS (hay que tener en cuenta los grados
de libertad en cada caso de estadístico).
Si valor calculado ≤ valor tablas : no se rechaza Ho (se acepta)
Si valor calculado > valor tablas : se rechaza Ho (se acepta H1)

CONTRASTES DE SIGNIFICACIÓN ESTADÍSTICA


1. Contraste de parámetros individuales:
- Contraste de signos
- Contraste t de Student
2. Contraste conjunto de significación del modelo:
- Contraste F de Snedecor
- Contraste de R2
Tablas de consulta:
- t-Student
- F-Snedecor

CONTRASTE DE PARÁMETROS INDIVIDUALES


Contraste de signos:
Un primer contraste elemental para todo parámetro es que su signo corresponda con el que cabe esperar a priori por los
acontecimientos teóricos sobre relaciones entre variables.
Contraste t-Student:
Para conocer si un parámetro es estadísticamente significativo se utiliza el CONTRASTE T-STUDENT para n-k grados de libertad. Una
regla de carácter aproximado para definir la significación estadística de un parámetro (y consecuentemente de una variable)
cuando, a niveles de confianza próximos al 95 por 100, el estimador tiene un valor que
supere dos veces su desviación típica | bj | ≥ 2 S(bj) (se rechaza la hipótesis básica de
nulidad) t-student ≥ 2

CONTRASTE CONJUNTO DE SIGNIFICACIÓN DEL MODELO


Contraste F de Snedecor:
Contraste que permite decidir sobre la significación conjunta de todos los parámetros del modelo.
La hipótesis básica de nulidad de todos los parámetros (excepto del término independiente), es decir, que no existe influencia de
las variables explicativas incluidas en el modelo, con un nivel de confianza del 95 por 100, la F de Snedecor con (k-1, n-k) grados de
libertad ha de ser inferior a un valor que en aplicaciones econométricas se sitúa en valores próximos a 4.
Es frecuente que los modelos superen ampliamente estos valores, ya que estamos contrastando la H0 de todos los parámetros
(excepto del término independiente) y su rechazo no implica que todos los parámetros sean estadísticamente significativos sino,
simplemente, que al menos un βi no puede considerarse nulo al nivel de confianza elegido.

Contraste de R2:
El coeficiente de determinación R2 se define como la proporción de la variación de la variable endógena (Y) que queda explicada
por las variables exógenas (X) incluidas en el modelo y esto se mide a través de los errores del modelo:

En casos habituales de econometría empírica, de variables sin transformaciones previas, con datos temporales correspondientes a
un reducido número de período (entre 15 y 30) podríamos decir que valores del coeficiente de determinación inferiores a 0,8 son
poco estimulantes (aunque sean estadísticamente significativos) por lo que el investigador deberá exigir, en general, valores
superiores a 0,9 e incluso a 0,95 que pueden corresponderse con errores de predicción inferiores al 5 por 100.
- Medidas de bondad del ajuste: desarrollo del análisis del coeficiente de determinación r2 y su interpretación
Este análisis se basa en la descomposición de la varianza de la variable endógena a la que denominaremos VARIANZA TOTAL.
Cuando se aplica el método de MCO y existe término independiente en el modelo podemos establecer que:
VARIANZA TOTAL = VARIANZA “EXPLICADA” + VARIANZA RESIDUAL
En modo abreviado => SCT = SCE + SCR

Si definimos el Coeficiente de Determinación como el cociente entre la varianza explicada S2Ÿ y la total S2Y dicho coeficiente
oscilará entre 0 y 1.

Teniendo en cuenta que el valor de este coeficiente tendera a aumentar a medida que se incorporan variables explicativas, es
frecuente, calcular el Coeficiente corregido por los grados de libertad del modelo.

Demostración:
INTERPRETACIÓN DEL RESULTADO DE LA REGRESIÓN
1) Contrastes de validez del modelo

INTERVALO DE CONFIANZA DE LOS PARÁMETROS


Para (1-α) nivel de confianza
Los intervalos de confianza de los parámetros proporcionan un rango de valores de βj o lo que es lo mismo, unos márgenes de
variación de los parámetros.Habitualmente se calculan para un 95 % de nivel de confianza por lo que (1-α) = 0,95 (o bien decimos
que el nivel de significatividad α= 0,05).
Para calcular los intervalos de confianza de los parámetros necesitamos conocer:
- El valor del estimador (parámetro estimado)
- El valor de la t de student en tablas para α/2 y teniendo en cuenta (n-k)
- Desviación Estándar del estimador

En esta expresión ε es nuestro α (nivel significatividad)


También se puede expresar como

Para un nivel de confianza ε deseado y gracias a los valores de la tabla T-Student, podremos determinar en qué intervalo se moverá
el valor real del parámetro que hemos estimado.

También podría gustarte