0% encontró este documento útil (0 votos)
7 vistas4 páginas

Econometría Básica

Descripción y fórmulas de los conceptos de una salida de Eviews

Cargado por

jcordallagares
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
7 vistas4 páginas

Econometría Básica

Descripción y fórmulas de los conceptos de una salida de Eviews

Cargado por

jcordallagares
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 4

ECONOMETRÍA

1. Std. Error (Error estándar)


• El error estándar mide la dispersión de las estimaciones del coeficiente de la regresión respecto
a su valor verdadero. En términos simples, indica cuánto se desvían las estimaciones del
coeficiente al realizar múltiples muestras. s.e.(B) = √(Var(b))
- Var(b) es la varianza del coeficiente estimado b.
- Var(b) = σ² / (Σ(xᵢ - x̄)²)
- σ²: es la varianza del error del modelo.
- xᵢ: es el valor de la variable independiente para la observación i.
- x̄: es la media de la variable independiente.
• Un valor pequeño del error estándar es deseable, ya que implica que las estimaciones son más
precisas.
• Relación: el error estándar está relacionado con la t-Statistic.
2. t-Statistic (Estadístico t)
• Es la relación entre el coeficiente estimado y su error estándar: t = (b - β) / s.e.(b)
- b: es el coeficiente estimado del modelo de regresión.
- β: es el valor hipotético del coeficiente que se quiere probar (generalmente 0).
- s.e.(b): es el error estándar del coeficiente estimado.
• Se utiliza para probar la hipótesis nula de que el coeficiente es igual a 0 (no hay efecto).
Cuanto mayor sea el valor absoluto de t, más evidencia hay contra la hipótesis nula.
• En general, valores absolutos mayores a 1.96 (para un nivel de significancia del 5%) indican
que el coeficiente es estadísticamente significativo.
• Relación: está directamente relacionado con el valor de Prob.
3. Prob (p-valor)
• Es la probabilidad de obtener un valor de t-Statistic tan extremo como el observado si la
hipótesis nula es verdadera. Mide la significancia estadística de los coeficientes.
• Un p-valor pequeño (típicamente < 0.05) indica que podemos rechazar la hipótesis nula,
sugiriendo que el coeficiente es significativamente diferente de 0.
• Relación: un p-valor bajo suele acompañar a un t-Statistic elevado.
4. R² (Coeficiente de determinación): R² = SSR / SST.
- SSR: es la suma de cuadrados de la regresión, que representa la varianza explicada por el
modelo de regresión.
- SST: es la suma de cuadrados total, que representa la varianza total de la variable
dependiente.
- Otra forma de entender la fórmula es: R² = 1 - (SSE / SST)
- SSE: es la suma de cuadrados del error, que representa la varianza no explicada por el
modelo de regresión
• Mide la proporción de la variabilidad de la variable dependiente que es explicada por las
variables independientes.
• El valor de R² varía entre 0 y 1. Un valor cercano a 1 indica que el modelo explica gran parte
de la variabilidad de los datos.
• Sin embargo, un R² elevado no garantiza que el modelo sea apropiado; puede mejorar con la
inclusión de más variables, incluso irrelevantes.
5. R² ajustado (Adjusted R²): R² ajustado = 1 - [(1 - R²) * (n - 1) / (n - k - 1)].
- R²: Es el coeficiente de determinación "normal".
- n: Es el número de observaciones en el conjunto de datos.
- k: Es el número de variables independientes en el modelo de regresión.
• Es una versión ajustada de R², que penaliza la inclusión de variables adicionales que no
mejoran el modelo de forma significativa.
• Un valor elevado de R² ajustado es deseable. Este estadístico es más útil que el R² simple
cuando se comparan modelos con distinto número de variables explicativas.
6. S.E. of regression (Error estándar de la regresión): S.E. of regression = √(SSE / (n - k - 1)).
- SSE: es la suma de cuadrados del error, que representa la varianza no explicada por el
modelo de regresión.
- n: es el número de observaciones en el conjunto de datos.
- k: es el número de variables independientes en el modelo de regresión.
• Mide la desviación estándar de los residuos, es decir, cuánto se desvían las observaciones
reales de los valores predichos por el modelo.
• Un valor bajo indica que el modelo tiene buenas predicciones y ajusta bien a los datos.
7. Sum Squared Resid (Suma de residuos al cuadrado): SSE = Σ(yᵢ - ŷᵢ)² )].
- yᵢ: es el valor real de la variable dependiente para la observación i.
- ŷᵢ: es el valor predicho de la variable dependiente para la observación i, según el modelo
de regresión.
• Representa la suma de los cuadrados de las diferencias entre los valores observados y los
predichos por el modelo.
• Un valor bajo indica que las predicciones del modelo están cerca de los valores observados,
lo que es positivo.
8. Log likelihood (Log-verosimilitud): Log-verosimilitud = Σ log(f(yᵢ; θ)).
- f(yᵢ; θ): es la función de densidad de probabilidad del modelo para la observación i-ésima,
dada la estimación de los parámetros θ.
- yᵢ: es el valor observado de la variable dependiente para la observación i-ésima.
- θ: es el vector de parámetros del modelo.
- Σ: representa la suma sobre todas las observaciones.
• Es una medida de la bondad del ajuste de un modelo basado en la verosimilitud. Cuanto mayor
sea la log-verosimilitud, mejor es el ajuste del modelo.
• Valores más altos indican un mejor ajuste.
En un modelo de regresión lineal, la log-verosimilitud se basa en la distribución normal. La
fórmula para la log-verosimilitud en este caso es:
• Log-verosimilitud = - (n/2) * log(2π) - (n/2) * log(σ²) - (1/(2σ²)) * Σ(yᵢ - ŷᵢ)².
- n: es el número de observaciones.
- σ²: es la varianza del error del modelo.
- yᵢ: es el valor real de la variable dependiente para la observación i-ésima.
- ŷᵢ: es el valor predicho de la variable dependiente para la observación i-ésima.
9. F-statistic o F de Fisher: F = (SSR / k) / (SSE / (n - k - 1)).
- SSR: es la suma de cuadrados de la regresión, que representa la varianza explicada por el
modelo de regresión.
- SSE: es la suma de cuadrados del error, que representa la varianza no explicada por el
modelo de regresión.
- k: es el número de variables independientes en el modelo de regresión.
- n: es el número de observaciones en el conjunto de datos.
• Mide si las variables independientes en conjunto explican de forma significativa la
variabilidad de la variable dependiente.
• Un valor alto de la F-statistic, acompañado de un p-valor pequeño, indica que el modelo es
significativo y que al menos una de las variables independientes tiene un efecto sobre la
variable dependiente.
10. Prob(F-statistic): Para obtener el p-valor del estadístico F, necesitas:
1. El valor del estadístico F calculado.
2. Los grados de libertad del numerador (k) y del denominador (n-k-1).
Con estos datos, puedes utilizar una tabla de distribución F o un software estadístico (como R, Python
o SPSS) para encontrar el p-valor. El p-valor representa la probabilidad de obtener un estadístico F
tan extremo o más extremo que el calculado, si la hipótesis nula es verdadera.
• Es el p-valor asociado a la F-statistic. Indica si el modelo globalmente es estadísticamente
significativo.
• Un p-valor bajo (por ejemplo, < 0.05) implica que el modelo en su conjunto es significativo.
11. Mean dependent var (Media de la variable dependiente) = Σyᵢ / n.
- Σyᵢ: es la suma de todos los valores de la variable dependiente.
- n: es el número de observaciones.
• Es simplemente la media de la variable dependiente (la que se intenta predecir o explicar).
Sirve como referencia descriptiva, pero no afecta directamente la calidad del ajuste del modelo.
12. S.D. dependent var (Desviación estándar de la variable dependiente) = √[Σ(yᵢ - ȳ)² / (n - 1)].
- yᵢ: es el valor de la variable dependiente para la observación i.
- ȳ: es la media de la variable dependiente.
- n: es el número de observaciones.
- Σ: representa la suma sobre todas las observaciones.
• Mide la variabilidad de la variable dependiente. Al igual que la media, es más un parámetro
descriptivo que una medida del ajuste del modelo.
13. Akaike Information Criterion (AIC): AIC = 2k - 2ln(L).
- k: es el número de parámetros en el modelo.
- L: es la verosimilitud máxima del modelo.
• Definición: El AIC es un criterio utilizado para la selección de modelos que penaliza la
complejidad del modelo. Se basa en la verosimilitud del modelo y ajusta por el número de
parámetros.
• Valores Deseables: Valores más bajos indican un mejor balance entre el ajuste del modelo y
la complejidad. Un AIC menor sugiere un modelo que proporciona un buen ajuste sin
sobreajustar.
• Relación: Está directamente relacionado con el Log Likelihood y el número de parámetros en
el modelo. El AIC penaliza modelos más complejos (más parámetros) para evitar el
sobreajuste.
14. Schwarz Criterion (BIC) o Bayesian Information Criterion: BIC = ln(n)k - 2ln(L).
- n: es el número de observaciones en el conjunto de datos.
- k: es el número de parámetros en el modelo.
- L: es la verosimilitud máxima del modelo.
• Definición: El BIC es similar al AIC, pero penaliza la complejidad del modelo más
severamente. Se basa en la verosimilitud del modelo y ajusta por el número de parámetros,
con una penalización que aumenta con el tamaño de la muestra.
• Valores Deseables: Valores más bajos indican un mejor equilibrio entre el ajuste del modelo
y la complejidad. El BIC favorece modelos más simples cuando la muestra es grande.
• Relación: Al igual que el AIC, está relacionado con el Log Likelihood y el número de
parámetros, pero penaliza más fuertemente la complejidad.
15. Hannan-Quinn Criterion (HQC): HQC = 2k * ln(ln(n)) - 2ln(L).
- n: es el número de observaciones en el conjunto de datos.
- k: es el número de parámetros en el modelo.
- L: es la verosimilitud máxima del modelo.
• Definición: El HQC es otro criterio para la selección de modelos que proporciona una
penalización intermedia entre el AIC y el BIC.
• Valores Deseables: Valores más bajos indican un modelo que tiene un buen equilibrio entre el
ajuste y la complejidad, con una penalización intermedia.
• Relación: Comparte similitudes con el AIC y el BIC, pero con una penalización diferente para
el número de parámetros, lo que lo hace útil para diferentes contextos de modelado.
16. Durbin-Watson Statistic: DW = Σ(eᵢ - eᵢ₋₁)² / Σ(eᵢ)² ).
- eᵢ: es el residuo para la observación i-ésima.
- eᵢ₋₁: es el residuo para la observación (i-1)-ésima.
- Σ: representa la suma sobre todas las observaciones.
• Definición: El estadístico Durbin-Watson mide la autocorrelación de primer orden en los
residuos de un modelo de regresión. Varía entre 0 y 4.
• Valores Deseables: Un valor cercano a 2 indica que no hay autocorrelación. Valores cercanos
a 0 indican autocorrelación positiva, mientras que valores cercanos a 4 indican autocorrelación
negativa.
• Relación: Se usa para diagnosticar problemas de autocorrelación en los residuos, lo que puede
afectar la validez de las inferencias basadas en el modelo.

También podría gustarte