Presentacion de Multicolinealidad 2019

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 36

SUPUESTOS DEL MODELO CLASICO DE

REGRESION LINEAL
a.- Normalidad de los residuos

b.- Multicolinealidad

c.- Heteroscedasticidad

d.- Autocorrelación

e.- Correcta especificación del modelo

f.- Endogenidad
MULTICOLINEALIDAD

a.- Naturaleza
b.- ¿Es realmente un problema?
c.- Consecuencias teóricas y practicas
d.- Como detectarla
e.- Medidas correctivas
MULTICOLINEALIDAD
 
Concepto: Relación lineal exacta ó aproximada entre
algunas ó todas las variables explicativas de un modelo
de regresión.

Si las variables no están correlacionadas se les llama


“variables ortogonales”.
MULTICOLINEALIDAD
 
Multicolinealidad exacta

Entre las variables económicas este caso no es probable


MULTICOLINEALIDAD

 Multicolinealidad aproximada
MULTICOLINEALIDAD

a.- Si la multicolinealidad es exacta los coeficientes de


regresión de las variables X son indeterminados y sus
errores estándar son infinitos.

b.- Si la multicolinealidad es aproximada, los coeficientes de


regresión, aunque sean determinados, poseen grandes
errores estándar, lo que significa que los coeficientes no
pueden ser estimados con gran precisión o exactitud.
MULTICOLINEALIDAD

Fuentes de multicolinealidad:
Según Montgomery y Peck, la multicolinealidad puede deberse
entre otros a los siguientes factores:
a.- Al método de recolección de información empleado
b.- A restricciones en el modelo o en la población objeto de
muestreo.
c.- Especificación del modelo.
d.- A la sobredeterminación del modelo.
MULTICOLINEALIDAD

En el estudio del problema de la multicolinealidad se debe tener


en cuenta los siguientes aspectos:

1.- Es cierto que aun en el caso de multicolinealidad los


estimadores MCO son insesgados. Pero el insesgamiento es
una propiedad multimuestral o de muestreo repetido. Pero esto
no dice nada acerca de las propiedades de los estimadores en
una muestra dada.
MULTICOLINEALIDAD

2.- Es cierto que la colinealidad no destruye la propiedad de


varianza mínima: en la clase de los estimadores lineales
insesgados los estimadores MCO tienen varianza mínima: es
decir, son eficientes. Pero esto no significa que la varianza de un
estimador MCO necesariamente será pequeña en cualquier
muestra dada.
MULTICOLINEALIDAD

3.- La multicolinealidad es esencialmente un problema muestral, por lo


que debemos entender que aun si las variables no están linealmente
relacionadas en la población, pueden estarlo en la muestra particular
disponible: cuando se postula la función de regresión teórica, se
considera que todas las variables X incluidas en el modelo tienen una
influencia separada o independiente sobre la dependiente Y. Pero
puede suceder que en cualquier muestra dada, utilizada para probar
la relación, algunas o todas las variables X sean altamente colineales
y no sea posible aislar su influencia individual sobre Y.
MULTICOLINEALIDAD

Consecuencias practicas de la multicolinealidad aproximada:


a.- Aun cuando los estimadores MCO son MELI, estos presentan
varianzas y covarianzas grandes que hacen difícil la estimación
precisa.

b.- Los intervalos de confianza tienden a ser mas amplios, lo que


propicia, con mucha mas facilidad, el no rechazo de la hipótesis
nula.
MULTICOLINEALIDAD
 Consecuencias practicas de la multicolinealidad aproximada:
c.- La razón T de uno o más coeficientes tiende a ser
estadísticamente no significativa.
d.- Aun cuando la razón T de uno o más coeficientes sea
estadísticamente no significativa, la medida global de bondad de
ajuste, puede ser muy alta.
e.- Los estimadores MCO y sus errores estándar son sensibles a
pequeños cambios en la información.
MULTICOLINEALIADAD
 Detecciónde la multicolinealidad aproximada
1.- Mediante gráficos de dispersión. Estos pueden ser
muy engañosos.

2.- alto y pocas T estadísticamente significativas.


Diagnostico razonable pero demasiado fuerte dado que
considera que la multicolinealidad es dañina únicamente
cuando la totalidad de las influencias de las X sobre Y no
se puedan separar.
MULTICOLINEALIADAD
 Detección de la multicolinealidad aproximada
3.- Altas correlaciones entre parejas de regresores.
Haciendo uso de los coeficiente de correlación de orden
cero, ósea, los coeficientes de correlación parciales simples
Ej.: ¡Superior al 80% ! se considera un problema grave.
4.- Examen de las correlaciones parciales netos, Ej.: , al
respecto Farrar & Glauber sugieren que si es elevado, pero
los parciales netos son relativamente bajos, esto podría
indicar que las X están altamente intercorrelacionadas y por
lo menos una de ellas es superflua.
MULTICOLINEALIADAD
 Detección de la multicolinealidad aproximada

5.- Estimar regresiones auxiliares de cada una de las sobre


las demás, Ej.,
MULTICOLINEALIDAD
 
Obtener su y probar las hipótesis:
H0: no es colineal con las demás X
H1: si es colineal con las demás X
Para probar dicha hipótesis se utilizara el estadístico de
prueba F de la formula 50.2.
Si la se dice que es colineal con las demás X.
Dilema: ¿Se debe o no se debe eliminar del modelo?
MULTICOLINEALIADAD
 Detección de la multicolinealidad aproximada

6.- ¿Que tan grande debe ser el para preocuparnos por la


multicolinealidad?
La regla practica de Lawrence R. Klien, sugiere que la
multicolinealidad puede ser considerada un problema grave,
solo cuando .
MULTICOLINEALIADAD
 Detección de la multicolinealidad aproximada
7.- Factores de tolerancia y de inflador de varianza
a.- Factor inflador de varianza: FIV.

Regla práctica: Cuando FIV>10, se puede considerar


que se tiene un problema grave de multicolinealidad.
MULTICOLINEALIADAD
 Detección de la multicolinealidad aproximada
7.- Factores de tolerancia y de inflador de varianza
b.- Factores de tolerancia o TOL.:

O también
Regla: entre mas cerca este TOL de cero mas grave es el
problema de multicolinealidad entre las variables X.
Multicolinealidad
 Detección de la multicolinealidad aproximada
8.- Test de Farrar – Glauber
H0: Las variables Xi no son ortogonales (no son colineales)
Hi : Las variables Xi son ortogonales (son colineales)
Estadístico de prueba:

Donde: k es el número de variables explicativas


R es la matriz de correlaciones de orden cero y
n es el tamaño de la muestra
MULTICOLINEALIDAD

 Detección de la multicolinealidad aproximada


9.- Pruebas adicionales
a.- Que el determinante 0 (entre más se aproxime a cero
más grave es el problema)
b.- Que se pueda invertir ósea, que exista
c.- Que el determinante sea diferente de cero :
(entre más se aproxime a cero, más grave es el
problema)
MULTICOLINEALIADAD
 Detección de la multicolinealidad exacta
10.- Pruebas adicionales
a.- Que el determinante =0.
b.- Que no se pueda invertir ósea, .
c.- Que el determinante de la matriz de correlaciones sea
igual a cero: .
d.- Que no se pueda aplicar MCO.
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
1.- No hacer nada, con lo cual se asume que no podemos
medir los efectos que cada variable explicativa (X)
individualmente tiene sobre la explicada (Y).
Al respecto Blanchard, dice que la multicolinealidad es en
esencia un problema de deficiencia de datos, y en alguna
ocasiones no hay elección respecto a los datos que se
tienen disponibles para el análisis empírico.
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
2.- Utilizar información a priori, proveniente de estudios
empíricos donde el problema de la colinealidad no fue
tan grave o, de la teoría relevante que soporta el campo
de estudio.
Critica: La restricción impuesta puede ser cierta o puede
ser falsa introduciendo sesgos en las estimaciones..
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
3.- Como se considera que la multicolinealidad es un
problema de tamaño de muestra, se sugiere ampliar el
tamaño de la muestra (n).
Crítica: Si se esta trabajando con la muestra optima (n*)
se hace imposible adicionar datos so pena de incurrir en
el problema de adulterar los resultados mediante un
juicio de valor carente de soporte técnico.
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
4.- Combinar información de corte transversal y de series
temporales ( mezcla de datos).
Esta técnica puede crear problemas a la hora de
interpretar los resultados, porque por ejemplo supone
que la elasticidad obtenida con datos de corte
transversal es igual a la que se obtendría con la
estimación de datos de series de tiempo puro.
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
5.- Eliminación de unas variables y el sesgo de
especificación.
Al eliminar una o mas variables del modelo se podría
estar incurriendo en un sesgo de especificación o error
de especificación, el cual surge al especificar
incorrectamente el modelo teórico sometido a estudio.
MULTICOLINEALIDAD
 Medidas correctivas para la multicolinealidad
6.- Transformación de variables:

a.- Con datos de corte transversal o de sección cruzada se


recomienda utilizar cocientes, Ej.:
MULTICOLINEALIDAD
Medidas
  correctivas para la multicolinealidad

6.- Transformación de variables:


b.- Con datos de Series temporales se recomienda utilizar primeras diferencias,
Ej.:
MULTICOLINEALIDAD
 Medidas correctivas para la multicolinealidad

6.- Transformación de variables:


Tanto las transformaciones en razón como de primeras
diferencias presentan el inconveniente que las como las en la
mayoría de las veces están correlacionados. Además en la
transformación de primeras diferencias se pierde una
observación afectando por consiguiente los grados de libertad
que se verán reducidos en 1.
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
 

6.- Transformación de variables:


En el modelo transformado mediante razón el
termino error será Heteroscedastico, si el termino
error del modelo original es homoscedastico.
MULTICOLINEALIDAD
Medidas correctivas para la multicolinealidad
7.- Reducción de la colinealidad en las regresiones
polinomiales.

8.- Otros métodos.


a.- Análisis de factores.
b.- Componentes principales.
c.- Regresión en cresta.
MULTICOLINEALIDAD
  Conclusión
¿Es la multicolinealidad necesariamente mala?
a.- Si el único propósito del análisis del regresión es el
pronóstico, la multicolinealidad no es problema grave,
puesto que entre mas elevado sea el , mejores serán los
pronósticos ….
MULTICOLINEALIDAD
Conclusión
¿Es la multicolinealidad necesariamente mala?
b.- Si el objetivo del análisis no es solamente la
predicción sino también la estimación confiable de los
parámetros, la presencia de una alta multicolinealidad
puede ser un problema porque conduciría a grandes
errores estándar en los estimadores.
EJERCICIO

VER EJERCICIO 10.29 Y TABLA 10.13 EN LA PAGINA 369 DEL LIBRO


ECONOMETRIA 4ª EDICION DE DOMADOR N. GUJARATI O TABLA
10.14 EN LA QUINTA EDICION PAGINA 359
(nuevos automóviles de pasajeros vendidos en USA)

También podría gustarte