Demostraciones Econometria
Demostraciones Econometria
Demostraciones Econometria
Generalidades de la econometra
La econometra es una rama de la economa que consiste en la creacin de modelos para estimar
mtodos que permitan explicar fenmenos econmicos.
Hay cinco elementos fundamentales en un modelo:
Categora 1
Esttico
Uniecuacional
Lineal
Interdependiente
Categora 2
Dinmico
Multiecuacional
No lineal
Recursivo
representacin grfica. La lnea es el resultado del modelo, los puntos son los datos y el espacio
entre cada punto y la lnea son las perturbaciones estocsticas.
Para hallar la forma funcional de esta lnea es necesario aclarar cules son los . Primero se har
una explicacin para el modelo de dos y luego se generalizar para n .
i Yi 0 1 X i
Luego
N
la
N
01
i1
0 1
i1
funcin
objetivo
ser
Para minimizar, derivamos con respecto a 0 e igualamos a 0. El -2 pasa a dividir, de forma que se
elimina. Luego se reparte la sumatoria
N
S
2 (Yi 0 1X i ) 0
0
i 1
N
(Y
i
i 1
1X i ) 0
i 1
i 1
i 1
Yi 0 1X i 0
Queremos despejar 0 . Para ello, recordemos que la suma de una constante desde 1 hasta N es
multiplicar dicha constante por N. Dicho esto, tenemos:
N
Y Y
i 1
i 1
i 1
i 1
i 1
Yi 1 Yi N 0
Yi
i1
Y
i 1
Por ltimo, la definicin de media de una variable nos dice que sta se halla sumando todos los
valores y dividiendo por el nmero de datos. Entonces
0 Y 1 X
Ahora derivaremos respecto a 1 . Atencin a la regla de la cadena. El -2 pasa a dividir y
repartimos la sumatoria (distribuyendo la X)
N
S
2 (Yi 0 1X i )(Xi ) 0
1
i 1
N
(Y
i 1
1X i )(Xi ) 0
i 1
i 1
i 1
2
YiXi 0 Xi 1 Xi 0
2
YiX i (Y 1 X) Xi 1 Xi 0
i 1
i 1
i 1
i 1
i 1
i1
2
YiX i Y X i 1 X X i 1 Xi 0
i 1
Y X Y X (X X X
i 1
i 1
i 1
i 1
2
i
)0
Despejando 1
i1
N
i1
N
i1
i1
Y X i Yi X i
X Xi Xi
YiXi Y Xi
i 1
N
X
i1
i 1
N
X Xi
2
i
i1
i1
N
i i
X
i 1
2
i
i1
N
i1
i1
(Y Y)(X X)
i
i1
(X X)
i1
(Y Y)(X X)
i
i1
N1
N
(X X)
i1
i 1
N
i1
N
X Xi X Xi X Xi
Luego, factorizamos
YX Y X X Y X Y
N1
i1
i 1
i 1
Cov(Yi , X i )
1
Var(X i )
Pero estas frmulas son slo vlidas para el modelo de un solo regresor. Deberemos abordar un
enfoque matricial para generalizar esto para ms de un regresor.
Yi 0 1 X 1i 2 X 2i ... k X ki i
Despejando
i1
i1
Y x
Y - x
1
Y1
1 X 11 X 21
Y
2 2 1 X 12 X 22
...
...
... ... ...
N Nx1 YN Nx1 1 X 1N X 2N
1
Y1
0
Y
2 2 0
...
...
...
N Nx1 YN Nx1 1
1X 11
1X 12
...
1X 1N
... X k1
0
... X k2
1
...
... ...
... X kN Nx(k1) k (k1)x1
2 X 21 ... k X k1
2 X 22 ... k X k2
...
... ...
2 X 2N ... k X kN Nx1
12
(Y1 0 1X 11 2 X 21 ... k X k1 )2
2
2
2 (Y1 0 1X 12 2 X 22 ... k X k2 )
...
...
2
2
N Nx1 (Y1 0 1X 1N 2 X 2N ... k X kN ) Nx1
Procedo a derivar con respecto a cada e igualar a 0. La nica derivada distinta a las dems es la
de 0 . Las dems sern todas iguales, con la nica diferencia en la X que distribuyo
N
i 1
N
S
2 (Yi 0 1X 1i 2 X 2i ... k X ki ) 0
0
i 1
N
S
2 (Yi 0 1X 1i 2 X 2i ... k X ki ) 0
0
i 1
N
N
S
2 Yi 2 ( 0 1X 1i 2 X 2i ... k X ki ) 0
0
i 1
i 1
N
S
2 (Yi 0 1X 1i 2 X 2i ... k X ki )(X1i ) 0
1
i 1
N
S
2
2 (YiX 1i 0 X 1i 1X 1i 2 X 2iX 1i ... k X kiX 1i ) 0
1
i 1
N
N
S
2
2 YiX 1i 2 ( 0 X 1i 1X 1i 2 X 2iX 1i ... k X kiX 1i ) 0
1
i 1
i 1
XX. Cada fila representa la derivada respecto a cada parmetro (la tercera fila es para X2, la
cuarta es para X3, y as sucesivamente)
1
X
11
X Y X 21
...
X k1
1
X11
X X X21
...
Xk1
X 12
X 13
X 22
X 23
....
....
X k2
X k3
1
Y1
... X 1N
Y
2
... X 2N
...
.... ...
YN
...
X12
X13
...
X22
X23
...
X2N
....
....
....
...
Xk2
Xk3
....
N
X 1i
i
1
X X N
X 2i
i1
N ...
X ki
i1
X 1i
i 1
N
i 1
2
1
X1N
XkN
(k 1)xN
N
X 2i
i 1
N
X 1i X 2i
i 1
X 1i X 2i
X2
i 1
....
N
X 1i X ki
i 1
i 1
....
N
X 2i X ki
i 1
1
1
...
1
X11
X12
X21
X22
...
...
X1N X2N
Yi
Ni1
YX
i 1i
i 1
N
Yi X 2i
i1
...
N
Yi X ki
i1
(k1)x1
... Xk1
... Xk2
...XkN
Nx(k 1)
... ...
N
N
X1i
i1
N
X2i
i1
...
N
X
i1 ki
N
N
N
N
X ki
...
k X ki
i 1
0
1 1i
N
i 1
i 1
N i 1
... X 1i X ki 0
N
N
2
i 1
...
X
X
1
N
k 1i ki
0 1i 1 1i
i 1
i 1
i 1
... X 2i X ki ...
i 1
...
N
N
N
....
... k
2
(k
1)x1
N
X
X
...
0 ki
1 1i ki
k ki
.... X ki2
i 1
i 1
i 1
(k 1)x1
i 1
...
Lo nico que falta es multiplicar por los escalares. As, obtenemos que
S
2XY 2XX
Ahora,
S
2X Y 2X X 0
Despejemos
N
N
N
...
X1i
X2i
Xki
i1
i1
i1
N 2
N
N
X1
X1iX2i ... X1iXki
i1
i1
i1
N
N 2
N
... X2iXki
X1iX2i
X2
i1
i1
i1
....
....
....
...
N
N
N 2
X1iXki X2iXki ....
Xki
i1
i1
i1
2X X 2X Y
X X X Y
Para obtener sola, nos estorba XX. Como estas son matrices, no se pueden pasar a dividir. Por
eso, multiplicamos por su inversa (este es el equivalente a pasar a dividir en lgebra lineal). As
llegamos a
(X X) 1 X X (X X) 1 X Y
I (X X) 1 X Y
La matriz identidad multiplicada por cualquier matriz da como resultado dicha matriz. As
(XX)1 XY
Ahora demostraremos algunas propiedades derivadas de este resultado. Antes de esto, conviene
indicar que toda variable con ^ es estimada. Yi Es el valor estimado de Y. Adems, el residual se
define como la diferencia entre el valor estimado y el valor real de Y. Esto es i Yi Yi .
Yi
N
N
N
Ni1
0 1X 1i ... k X ki
i1
i1
YX
N i 1
i 1i
N
N
2
i 1
X X ... X X
0 1i
1 1i
k 1i ki
i 1
i 1
i 1
Y
X
i 2i
...
1
N
N
N
2
...
0 X ki 1X 1iX ki ... k X ki
N
i 1
i 1
i 1
(k1)x1
YiX ki
i 1
(k1)x1
Si tomamos la primera fila tenemos que
i1
i1
i1
i1
i1
X
i1
1 1i
X
i1
ki
Y
i1
0 1 X1 2 X2 ... k Xk Y
La expresin de la izquierda es el promedio de todas las variables exgenas. Esto es lo mismo que
el promedio de Y . De ah concluimos que Y Y
i1
i1
i1
i Yi Yi
Y Y
Si dividimos esta expresin por N, obtenemos
i1
i1
i1
XX XY
Esto es Y Y1
10
1
N
... YN 1xN 2 Yi i . De acuerdo a la definicin de Y X
...
i1
N Nx1
Y2
tenemos
N
i1
i 1
i1
i 1
residuales es 0. As:
Y
i1
0 0 0 0 0... 0 0
Coeficiente de determinacin R2
El coeficiente de determinacin R2 es una medida de bondad de ajuste lineal (es decir, busca
N
(Y Y )
i 1
N
(Y Y )
i 1
2
i1
i1
i1
i1
(Y Y )
i1
2
[(Yi Yi )2 2 i (Yi Yi ) i ]
i1
i1
i1
i1
i1
i1
i1
i1
i 1
i1
Por propiedades ya demostradas, podemos eliminar los dos trminos de la mitad, pues ambos son
iguales a 0
N
i1
i1
i1
(Yi Yi )2 (Yi Yi )2 i
(Y Y )
y despejemos R2
i 1
(Y Y )
i 1
N
(Yi Yi )2
i1
N
(Y Y )
i1
(Yi Yi )2
i1
N
i1
N
i1
i1
i1
i1
i1
R2 1
i1
i1
(Y Y ) (Y Y )
i
(Y Y ) (Y Y )
(Yi Yi )2
(Y Y )
i 1
(Y Y )
i1
N
(Y Y )
i1
(Y Y )
i1
M0 I
1
ii
N
1
1
i
...
1
1
1
ii 1 1 ... 11xN
...
1 1xN
11
1
1
ii
...
1 ... 1
1 ... 1
... ... ...
1 ... 1 NxN
1
1
1
N N ... N
1
1
1
1
...
ii N
N
N
N
... ... ...
...
1 1 ... 1
N
N
N NxN
1
0
1
I ii
...
N
0 ...
1 ...
... ...
0 ...
1
1
1 N N
1
1
M0 N 1 N
...
...
1
1
N
N
1
1
1
...
0
N
N
N
1
1
1
0
...
N
N
N
...
... ... ...
...
1
1
1 NxN 1
...
N
N NxN
N
1
...
N
1
...
N
...
...
1
... 1
N NxN
Esta es una matriz idempotente. Esto significa que al multiplicarse por s misma da la misma
matriz.
En la diagonal queda el 1-1/N al cuadrado porque se cruzan al hacer filas por columnas. El resto
de trminos es (1/N) x (1/N), que se repite N-1 veces (el -1 es porque el trmino que falta es el (11/N)2
En el resto de espacios va el (1-1/N) que se cruza dos veces con (-1/N) y los otros trminos son
(1/N) x (1/N), que se repite N-2 veces (el -2 es porque los trminos que faltan son los (-1/N) x (11/N)
12
1
1 1
1
1
1
1 N N ... N 1 N N ... N
1
1
1 1
1
1
...
...
M0M0
N
N N
N
N
N
...
...
... ...
...
...
...
...
1
1
1
1
1
1
... 1
... 1
N
N NxN N
N
N NxN
N
1 2 N1
2
1 N2
2
1 N 2
... (1 ) 2
(1 N) ( N2 ) N (1 N) N2
N
N
N
2
1 N2
1 2 N1
2
1 N 2
(1 ) ( 2 ) ... (1 ) 2
M0M0 N (1 N) N2
N
N
N
N
N
...
...
...
...
2 (1 1 ) N 2 2 (1 1 ) N 2 ... 2 (1 1 ) N 2
N
N
N
N
N
N
N2
N2
N2 NxN
2
1 N2
2 2
N
2
2 1
1
(1 ) 2 2 2 2
N
N
N N
N N
N
N
N N
1
N1
2 1
N
1
2 1
1
(1 )2 ( 2 ) 1 2 2 2 1 1
N
N N
N N
N
N
N N
1
1
1
1 N N ... N
1
1
1
...
M0M0
N
N
N
...
...
...
...
1
1
1
... 1
N
N
N NxN
Ahora haremos el producto de M0 y de Y
1
1
1
1 N N ... N Y1
1
1
1 Y
...
M0 Y
N
N ...
N
...
...
...
...
1
1
1
Y
... 1 N Nx1
N
N
N NxN
YN
1 Y2
Y1 (1 N) N ... N
Y1
YN
1
Y
(1
)...
2
M0 Y
N
N
N
...
Y1 Y2 ... YN (1 1 )
N
N
N
N Nx1
13
1 N
1 N Yi
i 1
N
1
Y
M0 Y 2 N Yi
i 1
...
N
1
YN Yi
N i1 Nx1
Y1 Y
Y2 Y
M0 Y
...
YN Y Nx1
N
M0 Y (Yi - Y)
i 1
(Y - Y)
i 1
(M0 Y)(M0 Y)
(Y - Y)
i 1
YM0M0 Y
(Y - Y)
i 1
YM0M0 Y
(Y - Y)
i 1
YM0 Y
(Y - Y )
i1
(Y - Y )
i 1
(M0 Y )(M0 Y )
Y M0 Y
Ahora, dada la definicin de R2, reemplazaremos estos trminos por los recin encontrados
N
R2
(Y Y )
i 1
N
(Y Y )
i 1
14
R2
Y M0 Y
YM0 Y
Finalmente, reemplacemos Y
Y X
Y M0 Y (X )M0 X
Y M Y XM X
0
XM0 X
R
YM0 Y
2
Ahora veremos algunas caractersticas de los diferentes componentes del modelo (X, Y, )
E( ) E(Y X)
E( ) E(Y) E(X)
E( ) X X
E( ) 0
La varianza la demostraremos hallando la matriz de varianzas y covarianzas, que est determinada
por E[ - E( )][ - E( )]'
Dado que Y X , E[Y X - E( )][Y X - E( )]'
Puesto que E( ) 0 , entonces E[Y X][Y X]' . Ambos parntesis son . Luego
E[[ ][ ]' ]
E[ ' ]
Definamos la covarianza:
15
E[ 1 E( 1 )]
E[ E( )]
2
2
E[ 3 E( 3 )] * E[ 1 E( 1 )] E[ 2
...
E[ N E( N )]
Cov( 1 2 ) Cov( 1 3 )
Var( 1 )
Cov( )
Var( 2 ) Cov( 2 3 )
1 2
Cov( 1 3 ) Cov( 2 3 )
Var( 3 )
...
...
...
0
0
Var( 3 )
...
...
...
0
0
0
2
0
0
...
0
...
...
...
...
...
...
...
1
0
2 * 0
...
0
0
1
0
...
0
...
...
...
...
...
E( 2 )] E[ 3 E( 3 )] ... E[ N E( N )]
... Cov( 1 N )
... Cov( 2 N )
... Cov( 3 N )
...
...
... Var( N )
0
0
...
Var( N )
0
0
0
...
2
0 ... 0
0 ... 0
1 ... 0
2I
16
Y ~ (X , 2I)
Demostracin 9: Media y Varianza de estimado
La media (el valor esperado) de estimado se debe estimar sabiendo que (X' X) 1 X' Y
E[ ]
Antes de hacer la varianza, hallemos otra forma de expresar estimado, que nos ser til despus.
De nuevo, partimos de la definicin de Y para luego hacer la distributiva
(X' X) 1 X' Y
(X' X) 1 X' (X )
(X' X) 1 X' X (X' X) 1 X'
17
(X' X) 1 X'
E[[(X' X)
(X' X)
2
(X'X)
2
Es decir,
~ ( , 2 (X' X)1 )
Demostracin 10: Teorema Gauss Markov
El teorema Gauss Markov nos indica que el estimador hallado por el mtodo de MCO es el Mejor
Estimador Lineal insesgado (MELI, o BLUE por sus siglas en ingls). Por mejor se entender que es
el de menor varianza.
Expresemos entonces un Estimador lineal insesgado ( virgulilla)
Un estimador lineal est dado por una expresin as: [(X' X) 1 X'C]Y
Distribuimos y reemplazamos Y.
18
~
(X' X)1 X' Y CY
~
(X' X)1 X' (X ) C(X )
~
(X' X)1 X' X (X' X)1 X' CX C
~
(X' X)1 X' CX C
Restemos virgulilla menos el poblacional, por conveniencia.
~
(X' X) 1 X' CX C
Ahora, como deseamos obtener un estimador lineal insesgado, el valor esperado debe ser igual al
poblacional.
~
(X' X) 1 X' CX C
~
E( ) E( (X' X) 1 X' CX C )
~
E( ) E( ) E((X' X) 1 X' ) E(CX ) E(C )
~
E( ) (X' X) 1 X' E( ) CXE( ) CE( )
~
E( ) CX
Para que este estimador sea insesgado, hay que imponer la siguiente restriccin: CX = 0. Por tanto,
XC = 0 tambin.
Ya con estas definiciones podemos demostrar lo inicial, esto es, que la varianza de virgulilla es
menor que la de gorro (la de MCO)
Hallemos la varianza de virgulilla
E[(X' X)
~
E[(X' X)
~
(X' X)
X' ' X(X' X)1 (X' X)1 X' ' C'C ' X(X' X)1 C ' C' ]
X' ' X(X' X)1 ] E[(X' X)1 X' ' C' ] E[C ' X(X' X)1 ] E[C ' C' ]
X'E[ ' ]X(X' X)1 (X' X)1 X'E[ ' ]C'CE[ ' ]X(X' X)1 CE[ ' ]C'
19
(X' X)
~
(X' X)
2
X' X(X' X)1 2 (X' X)1 X' C' 2CX(X' X)1 2CC'
(X' X)
2
2CC'
Para revisar que el estimador de MCO es mejor, la diferencia de varianzas entre virgulilla y
gorro debe ser positiva. Entonces
(X' X)
~
CC'
2
2 CC'- 2 (X' X) 1
Este resultado es positivo, puesto que una varianza es siempre positiva y una matriz por su
transpuesta es semidefinida positiva, con lo cual se demuestra el teorema de Gauss Markov
E[ 1 ]
E[ ]
2
E( ' ) E[ 1 ] E[ 2 ] E[ 3 ] ... E[ N ]E[ 3 ]
...
E[ N ]
E( ' ) E[ 12 ] E[ 22 ] E[ 23 ] ... E[ N2 ]
E( ' ) 2 2 2 ... 2
E( ' ) N 2
Ahora, vamos a calcular la matriz de residuales en funcin de la varianza. Remplazamos
estimado
Y X
Y X[(X' X)1 X' Y]
Y X(X' X)1 X' Y
Si sacamos factor comn Y a la derecha y remplazamos Y por X+, tenemos
20
21
(N K)
(N K)
1
(2 )
2 N/2
exp{
1
(Y x )'(Y x )}
2 2
1
(Y x )' (Y x )
2 2
N
N
1
ln ln1 ln(2 ) ln( 2 ) 2 (Y X )' (Y X )
2
2
2
N
N
1
ln ln(2 ) ln( 2 ) 2 (Y X )' (Y X )
2
2
2
ln ln1 ln(2 2 )N/2
22
ln
(X' X) 1 X' Y
ln
N
1
2
(Y X )' (Y X ) 0
2
2
2( 2 )2
ln (Y X )' (Y X ) - N 2
0
2
2( 2 ) 2
ln
(Y X )' (Y X ) - N 2 0
2
ln
(Y X )' (Y X ) N 2
2
(Y X )' (Y X )
N
Este estimador es sesgado, pero cumple con el criterio de consistencia (La varianza tiende a 0 a
medida que N tiende a infinito)
23
24
Definicin de
Valores esperados respectivos
Simplificacin
Remplazo por definicin
Valor esperado de
Definicin de M
Distributiva
Matriz por su inversa = Identidad
Se cancelan trminos semejantes
este
caso
N
nos
enfrentamos
un
problema
del
tipo
i1
i1
(Y X)' (Y X ) 2(r' ' R' ) (El dos est por facilidad matemtica)
Las condiciones de primer orden sern:
2X Y 2X X r - 2R' r 0
2(R r r) 0
De la primera condicin
X X r X Y R' r
25
r (X X) 1 X Y (X X) 1 R' r
r (X X) 1 R' r
Multiplicamos por R y obtenemos
R r R R(X X) 1 R' r
De 2 deducimos que
R r r
Es decir,
r R R(X X) 1 R' r
r R R(X X) 1 R' r
[R(X X) 1 R' ]-1 [r R ] r
Reemplazando:
semidefinida positiva.
Recordando que
Remplazo restringido
Sea = r R R(X' X)1 X' . Restriccin falsa
Si la restriccin es cierta, =0
Definicin de restringido
R=r si la restriccin es verdadera
Distributiva
Factor comn a la derecha
Sea M* [I (X' X) 1 R' [R(X' X) 1 R' ]1 R]
Hacemos la resta por conveniencia
E[[ r ][ r ]'
Distributiva
Valor esperado de
Reorganizacin
-1
-1
26
r (X' X) 1 X' (X' X) 1 R' [R(X' X) 1 R' ] 1 R(X' X) 1 X' (X' X) 1 R' [R(X' X) 1 R' ] 1
Factor comn
r [ I (X' X) 1 R' [R(X' X) 1 R' ] 1 R](X' X) 1 X' (X' X) 1 R' [R(X' X) 1 R' ] 1
Definicin de M*
r (X' X) 1 R' [R(X' X) 1 R' ] 1 M * (X' X) 1 X'
Por definicin
27
Definicin de
1
E[[ (X' X) R' [R(X' X) R' ] M * (X' X) X' (X' X) R' [R(X' X) R' ] ]
[ (X' X) 1 R' [R(X' X) 1 R' ] 1 M * (X' X) 1 X' (X' X) 1 R' [R(X' X) 1 R' ] 1 ]' ]
Trminos semejantes se
cancelan
Lo nico estocstico es
Valor esperado
Definicin de restringido
2M * (X' X) -1 M*'
2M * (X' X)-1 M*' 2 (X' X)-1 2 (X' X)1 R' [R(X' X)1 R' ]1 R(X' X)-1
Este resultado es una matriz semidefinida positiva. Las matrices semidefinidas positivas slo se
obtienen en caso de que el trmino con signo positivo sea mayor al que tiene signo negativo, o lo
que es lo mismo, que el de signo negativo sea menor. En este caso, el signo negativo est en el
estimador de Mnimos Cuadrados Ordinarios Restringidos y dado que tenemos la matriz
semidefinida positiva, dicho estimador debe ser menor que el de MCO
Intervalos de confianza
Intervalo de confianza para
A diferencia de la estimacin puntual, que es la que se desarrolla habitualmente (ejemplo
'
) la estimacin por intervalos plantea que el valor poblacional de la
(X' X)1 X' Y ; 2
NK
varianza a estimar se encuentra entre ciertos nmeros (los lmites del intervalo) en el 1 por
ciento de los casos, donde es el nivel de significancia. Esto slo se da en muestreo repetido. Para
un solo intervalo, la estimacin slo tiene dos probabilidades: el valor poblacional est (1) o no
est (0). La probabilidad significa que dado una cantidad de muestras (con X e Y diferentes en cada
muestreo), el (1-) % de los casos obtendr un intervalo que incluya al valor poblacional.
Para obtener el intervalo de confianza para , partiremos del supuesto de que ~ [ , 2 (X' X) 1 ]
Por ende, si tenemos un modelo de mnimos cuadrados restringidos:
R ~ [R , 2R(X' X) 1 R' ]
La matriz R ser una matriz de ceros y unos con tamao (1 x k) con k siendo el nmero de ,
incluyendo el intercepto, en la que habr un 1 por cada al que le quiera hallar el intervalo de
confianza. Por ejemplo, si deseo estimar 3 en un modelo con 4 variables (matriz de 5 x 1)
tendra una matriz R as:
R 0 0 1 0 0
1
2
R 0 0 1 0 03 3
4
5
Definiremos una variable Z como una normal estndar, que se halla restando por la media y
dividiendo por la desviacin estndar. Esto es:
28
R - R
R(X' X) 1 R'
~ N(0,1) .
' (N - K) 2
~ N2 K
2
2
Si dividimos la variable Z sobre la raz de la anterior, tendremos una variable que distribuye t de
Student, con lo cual podremos hallar los lmites del intervalo.
R - R
R - R
[R(X' X) 1 R' ]1/2
t
~ t nk
(N - K) 2 1/2
[R(X' X) 1 R' ]1/2
[
]
2
Para armar el intervalo, diremos que el valor de la distribucin quedar entre los valores negativo
y positivo de t nk que generan una probabilidad de /2, porque debemos repartir entre ambas
colas de la distribucin el valor de significancia.
R - R
t /2 nk ) 1 -
1
1/2
[R(X' X) R' ]
/2
P( t nk [R(X' X) 1 R' ]1/2 R - R t /2 nk [R(X' X) 1 R' ]1/2 ) 1 -
P(-R t /2 nk [R(X' X) 1 R' ]1/2 -R R t /2 nk [R(X' X) 1 R' ]1/2 ) 1 -
P( t /2 nk
P(R t/2 nk [R(X' X)1 R' ]1/2 R R t/2 nk [R(X' X)1 R' ]1/2 ) 1 -
Regin de confianza para dos o ms
Es posible extender este modelo para hacer regiones de confianza, que estarn definidas cuando
queremos hallar intervalos de confianza simultneamente para dos o ms variables. Si tenemos en
cuenta que multiplicar la variable Z varias veces nos da como resultado una 2 con los grados de
libertad determinados por el nmero de veces que haga la multiplicacin. Entonces, si tenemos j
restricciones, tendremos esto (hay inversa porque no existe la divisin de matrices)
29
Siguiendo la misma lgica que con una sola restriccin, definiremos como la divisin de las dos 2
mencionadas, que a su vez estn divididas por sus grados de libertad. Por definicin, esta variable
distribuye F con j y N-K grados de libertad
~ Fj,nk
(N - K) 2
2
N-K
(R - R )' ([R(X' X) 1 R' ])-1 (R - R)
~ Fj,nk
j 2
Sin embargo, esta vez no tendremos una desigualdad doble, sino una sencilla puesto que estamos
delimitando una regin. Dicha desigualdad estar definida por:
' (N - K) 2
~ N2 K
2
2
30
N2 K,1-/2
(N - K) 2
N2 K, /2
2
Despejamos para la varianza. Hay que tener en cuenta que si invertimos numerador y
denominador, la desigualdad cambiar de sentido. Luego de invertir, obtenemos
1
N2 K, /2
2
1
2
2
(N - K)
NK,1-/2
(N - K) 2
(N - K) 2
2
2
N2 K, /2
NK,1-/2
Ejemplo ilustrativo
Dado el modelo
Yi 0 1 X 1i 2 X 2i
Con 32 observaciones se obtuvieron estos resultados:
31
R(XX) R va a ser entonces R(X' X) R' 0 1 0 0.3 0.5 1 1 0.5
1.6 1 0.6 0
-1
0 1 0
0 0 1
0 0 1 1.6 1 0.6 0 1 1 0.6
-1
Como nos toca hallar la inversa de esta matriz, repasemos cmo se hace:
Hallamos la matriz adjunta que es la matriz de cofactores transpuesta. Atencin con los cambios
de signos.
0.5 1 0.6 - 1
Adj
1 0.6 - 1 0.5
32
33
0.6
0.7
1
0.7
1
0.7 - 0.857
0.5 1.428
0.7
1.428
- 0.714
Ya tenemos todos los elementos necesarios para remplazar en la frmula. Aclaremos que F de 2 y
29 es igual a 3.33.
P( Fj,nk ) P(
( 1 1
P(
1
(-0.857( 1 1 ) 1.428( 1 1 )) (1.428( 2 2 ) 0.714( 2 2 )))( 1
)
2 2
P(
Fj,nk ) 1
2(1.8)
- 0.857( )2 1.428( )( ) 1.428( )( ) 0.714( )2
1
1
1
1 2
2
1
1 2
2
2
2 3.33) 0.95
P(
2(1.8)
- 0.857(-0.7 )2 2.857(-0.7 )(2.8 ) 0.714(2.8 )2
1
1
2
2 3.33) 0.95
P(
3.6
P(-0.857(- 0.7 )2 2.857(-0.7 )(2.8 ) 0.714(2.8 )2 11.988) 0.95
1
1
2
2
La varianza de esta diferencia ser el valor esperado al cuadrado. Recordemos que una matriz por
su transpuesta es el equivalente a elevar al cuadrado cada trmino de la matriz.
E[ X 0 ( - ) - 0 ]2 E[ X 0 ( - )( - )' X 0 ] 2E[ X 0 ( - ) 0 ] E[ 2 0 ]
Vamos a simplificar esta expresin. Para ello, definimos E[ 2 0 ] 2
Luego, la expresin E[ X 0 ( - ) 0 ] por la independencia de y se puede escribir como
E[ X 0 ( - )( - )' X 0 ] . La expresin
E[ X 0 ( - ) - 0 ]2 E[ X 0 ( - )( - )' X 0 ] 2E[ X 0 ( - ) 0 ] E[ 2 0 ]
2 [X 0 (X' X) 1 X 0 ] 2
2 [X 0 (X' X) 1 X 0 1]
La desviacin estndar de esta expresin es la raz cuadrada de la varianza y es igual a
[X 0 (X' X) 1 X 0 1] 1/2
El siguiente paso es estandarizar la distribucin normal de Y estimado. Esto es, debemos restar por
el valor esperado y dividir por su desviacin estndar. Sabiendo que Y estimado es igual a
X 0 - Y0
~ N(0,1)
[X 0 (X' X) 1 X 0 1] 1/2
' (N - K) 2
~ N2 K
2
2
Dividimos la distribucin normal sobre la raz cuadrada del cociente de la 2 y sus grados de
libertad. Entonces
34
35
X 0 - Y0
[X 0 (X' X) 1 X 0 1] 1/2
X 0 - Y0
t
~ t nk
(N - K) 2 1/2
[X 0 (X' X) 1 X 0 1] 1/2
[
]
2
Por ltimo, el intervalo de confianza lo armaremos de una forma parecida a la hecha con .
X 0 - Y0
t /2 nk ) 1 -
1
1/2
[X 0 (X' X) X 0 1]
P( t /2 nk ( [X 0 (X' X) 1 X 0 1] 1/2 ) X 0 - Y0 t /2 nk ( [X 0 (X' X) 1 X 0 1] 1/2 )) 1 -
P(-X t /2 nk ( [X (X' X) 1 X 1] 1/2 ) -Y X t /2 nk ( [X (X' X) 1 X 1] 1/2 )) 1 -
P( t /2 nk
P(X0 t
/2
nk
( [X0 (X' X) X 0 1] ) Y0 X0 t
1
1/2
/2
nk
Pruebas de Hiptesis
Pruebas de hiptesis para
Una prueba de hiptesis pretende demostrar o desmentir una afirmacin hecha a priori acerca de
una variable. SIEMPRE debe haber estos cuatro elementos en una prueba de hiptesis
Hiptesis Nula (H0), tambin llamada hiptesis de investigacin. Lo que queremos probar
Hiptesis Alterna (H1), justo lo contrario a la hiptesis nula
Estadstico de prueba, un valor con el cual se demostrar la hiptesis
Regin de rechazo: Conjunto de puntos que rechazan la hiptesis nula.
Lo primero que uno debe hacer es definir las hiptesis. La hiptesis debe estar en trminos
poblacionales. Luego, se define el estadstico de prueba conveniente (hay que conocer su
distribucin y establecer un nivel de significancia, que es el mximo error tipo I permisible. El error
tipo I es rechazar la hiptesis nula siendo sta verdadera). Se elige la regin de rechazo de acuerdo
a las hiptesis planteadas.
Para una sola , el estadstico de prueba ser la distribucin t usada para el intervalo de confianza
R - R
~ tnk
[R(X' X)1 R' ]1/2
Definiremos la regin de rechazo segn esta tabla
Hiptesis Nula
=0
0
Hiptesis Alterna
0
< 0
> 0
t>t
Ahora, si queremos hacer una prueba conjunta, para ms de una definiremos el estadstico de
prueba con la distribucin F, exactamente el mismo usado para la regin de confianza.
SRC
1 - R2
N-K
N-K
(N - K) 2
~ N2 K
2
Hiptesis Alterna
202
2=02
2<02
(N - K)
N2 K,1-
2
0
2=02
2>02
(N - K)
N2 K,
2
0
(N - K)
(N - K)
N2 K,1-/2 o
N2 K, /2
2
2
0
0
36
La multicolinealidad es un problema que consiste en la existencia de una relacin lineal entre los
regresores. Idealmente, los regresores deber ser independientes entre s, pero este no es siempre
el caso. Este problema sucede porque el determinante de la matriz XX es 0, por lo cual no hay
inversa. Vamos a demostrar una forma de revisar su existencia.
Primero que todo, recordemos:
1 X 11
2 X 21
X 12
X 22
X 11
... X 1n X 21
... X 2n ...
X 1n
X 21
X 22 X 11
... X 21
X 2n
X 12
X 22
Y1
... X 1n Y2
... X 2n ...
Yn
1 X 1i2
2 X 1iX 2i
X X
X
1i
2i
2
2i
X 1iYi
X Y
2i i
(X
Cov(x 1 , x 2 )
x 1 ,x 2
Var(x 1 )Var(x 2 )
1i
X)(X2i X)
N1
(X1i X)2 (X2i X)2
(N 1) 2
( (X1iX 2i ))
(X ) (X
2
1i
2i
2
r1,2
Sabiendo este resultado, podremos seguir. La inversa de una matriz es el inverso multiplicativo de
su determinante por la matriz adjunta. Para nuestro caso, ser
1
2
X 22i
1
X 1iX 2i X 1iYi
X1i2 X 2iYi
37
(X ) (X
trmino de la matriz por (X ) (X )
2
1i
1i
2i
2i
X 22i
1
(X1i )2 (X 2i )2
1
X X
2
2
2
1i 2i
2 (X1i ) (X 2i ) ( X 1iX 2i )
2
2
2
2
2
2
(X1i ) (X2i ) (X1i ) (X2i ) (X1i ) (X2i )
r1,2
( X 1i2 ) 1
2
2
1
(X1i ) (X 2i ) X 1iYi
1
2
X Y
r1,2
2 1
2 1 r1,2
( X 2i )
2i i
(X )2 (X )2
1i 2i
X 1iX 2i
2
2
(X
)
(X
)
1i 2 2i X 1iYi
X 1i
X 2iYi
2
2
(X1i ) (X2i )
(X' X) 1
La expresin
( X 1i2 ) 1
2
r1,2
1 r1,2
2
2
(X1i ) (X 2i )
2
r1,2
(X1i ) (X2i )
( X 22i ) 1
1
se conoce como factor de aumento de la varianza. Hay problemas de
2
1 r1,2
38
El modelo de MCO es el mejor modelo que se puede utilizar slo si todos sus supuestos se
cumplen. Lastimosamente, dichos supuestos son muy restrictivos. La siguiente tabla resumir los
diferentes supuestos incumplidos, las pruebas de deteccin y la solucin para estas violaciones.
Cul es el problema?
Multicolinealidad
Cmo se detecta?
Factor de Aumento de
Varianza,
Nmero
de
Condicin, Correlacin entre
regresores
Endogeneidad
Prueba de Hausman
Error en la especificacin del Prueba Ramsey RESET
modelo
Heteroscedasticidad
Prueba de White, Prueba de
Goldfeld Quandt, Prueba de
Breusch Pagan,
Autocorrelacin
Prueba de Durbin Watson
Normalidad de
Prueba Jarque - Bera
Cmo se soluciona?
Eliminacin de variables, uso
de informacin extra, mayor
tamao muestral, Regresiones
tipo Ridge,
Variable Instrumental
Mnimos
Cuadrados
No
Lineales
Mnimos
Cuadrados
Generalizados Factibles
1 P' P Donde P es una matriz triangular superior. Esta matriz aparecer en la matriz de
varianzas y covarianzas de . Antes de seguir, definamos la notacin a usar. X*=PX. Y*=PY y *=P.
El mtodo de Mnimos Cuadrados Generalizados (MCG) se utiliza para resolver casos de
heteroscedasticidad o de autocorrelacin. La estimacin de los se har as:
MCG (X * X*) 1 X * Y *
Reemplazamos de acuerdo a las definiciones anteriores y tenemos
39
MCG
2 (X * X*) 1
MCG
2 ((PX)(PX))1
MCG
2 (X PPX) 1
MCG
2 (X 1 X) 1
2
MCG
NK
NK
MCG
NK
Es posible obtener estos estimadores a travs del mtodo de mxima verosimilitud. En este caso,
la funcin estar dada por
1
(2 2 )N/2
1/2
exp{
1
(Y x )' 1 (Y x )}
2
2
N
N
1
1
ln ln1 ln(2 ) ln( 2 ) - ln 2 (Y X )' -1 (Y X )
2
2
2
2
N
N
1
1
ln ln(2 ) ln( 2 ) - ln 2 (Y X )' -1 (Y X )
2
2
2
2
La derivada respecto a ser muy similar a la presentada en la Demostracin 2: Cmo hallar los
en el modelo general de MCO?. Quedar exactamente igual. (
(X1X)1 X1Y )
MCG
40
ln
N
1
2
(Y X )' -1 (Y X ) 0
2
2
2( 2 )2
ln - N 2 (Y X )' -1 (Y X )
0
2
2( 2 )2
ln
-N 2 (Y X )' -1 (Y X ) 0
2
ln
(Y X )' -1 (Y X ) N 2
2
ln (Y X )' -1 (Y X )
2
2
N
Heteroscedasticidad
La Heteroscedasticidad es la situacin en la que hay varias varianzas distintas al interior del
modelo. Esto es, la matriz de varianzas y covarianzas estar dada por
0
0
Var( 1 )
0
Var( 2 )
0
0
0
Var( 3 )
...
...
...
0
0
0
...
...
...
...
...
0
0
...
Var( N )
0
Normalmente asumiramos que estas varianzas son todas idnticas, pero este no es el caso. Para
solucionar el problema usamos MCG, como ya se mencion. As nuestros sern
41
1
0
P
0
...
...
1
2
...
...
1
3
...
...
...
...
...
1
N
Y1
1
Y2
Y* Este mtodo se conoce como Mnimos Cuadrados Ponderados. Este mtodo resulta
2
...
Y
N
N Nx1
muy imprctico, por lo cual no tiene mucho uso. Sin embargo, se puede asumir una matriz con dos
varianzas distintas (divido la muestra en dos partes, no necesariamente iguales).
1
0
...
0
...
...
...
...
...
... 2
...
0
0
0
...
2
H0 1 2
H1 1 2
Construyamos el estadstico de prueba. Sabemos que
(N - K) 2
~ N2 K y adems, sabemos que
2
una distribucin F es el cociente de dos distribuciones chi cuadrado divididas por sus grados de
42
(N1 - K) 1
1
(N1 - K)
libertad. Esto implica que
~ FN1-K,N2-K . Simplificando esta expresin llegamos a
2
(N2 - K) 2
2
1
(N2 - K)
2
2
1
1
~ FN1-K,N2-K . La regin de rechazo se determinar de acuerdo a 2 FN1-K,N2-K
2
2
2
K
Construir
Aplicar MCGF
Repetir hasta llegar a la convergencia.
FIN
43