Máxima Verosimilitud
Máxima Verosimilitud
Máxima Verosimilitud
Saltar a: navegacin, bsqueda En estadstica, la estimacin por mxima verosimilitud (conocida tambin como EMV y, en ocasiones, MLE por sus siglas en ingls) es un mtodo habitual para ajustar un modelo y encontrar sus parmetros.
ndice
1 Historia 2 Fundamento 3 Propiedades del estimador de mxima verosimilitud o 3.1 Consistencia o 3.2 Normalidad asinttica o 3.3 Invariancia funcional o 3.4 Otras propiedades 4 Ejemplos o 4.1 Distribucin uniforme discreta o 4.2 Distribucin discreta con parmetros discretos 5 Aplicaciones 6 Vase tambin 7 Notas 8 Referencias 9 Enlaces externos
Historia
Fue recomendado, analizado y popularizado por R. A. Fisher entre 1912 y 1922, aunque haba sido utilizado antes por Gauss, Laplace, Thiele y F. Y. Edgeworth.
Fundamento
Supngase que se tiene una muestra x1, x2, , xn de n observaciones independientes extradas de una funcin de distribucin desconocida con funcin de densidad (o funcin de probabilidad) f0(). Se sabe, sin embargo, que f0 pertenece a una familia de distribuciones {f(|), }, llamada modelo paramtrico, de manera que f0 corresponde a = 0, que es el verdadero valor del parmetro. Se desea encontrar el valor (o estimador) que est lo ms prximo posible al verdadero valor 0. Tanto xi como pueden ser vectores.
La idea de este mtodo es el de encontrar primero la funcin de densidad conjunta de todas las observaciones, que bajo condiciones de independencia, es
Observando esta funcin bajo un ngulo ligeramente distinto, se puede suponer que los valores observados x1, x2, , xn son fijos mientras que puede variar libremente. Esta es la funcin de verosimilitud:
El mtodo de la mxima verosimilitud estima 0 buscando el valor de que maximiza . Este es el llamado estimador de mxima verosimilitud (MLE) de 0:
En ocasiones este estimador es una funcin explcita de los datos observados x1, , xn, pero muchas veces hay que recurrir a optimizaciones numricas. Tambin puede ocurrir que el mximo no sea nico o no exista. En la exposicin anterior se ha asumido la independencia de las observaciones, pero no es un requisito necesario: basta con poder construir la funcin de probabilidad conjunta de los datos para poder aplicar el mtodo. Un contexto en el que esto es habitual es el del anlisis de series temporales.
consistencia, normalidad asinttica, eficiencia, e incluso eficiencia de segundo orden tras corregir el sesgo.
Consistencia
Bajo ciertas condiciones bastante habituales,2 el estimador de mxima verosimilitud es consistente: si el nmero de observaciones n tiende a infinito, el estimador converge en probabilidad a su valor verdadero:
Normalidad asinttica
Si las condiciones para la consistencia se cumplen y, adems, 1. 0 interior(); 2. f(x|) > 0 y es dos veces continuamente diferenciable respecto a en algn entorno N de 0; 3. supN||f(x|)||dx < , y supN||f(x|)||dx < ; 4. I = E[lnf(x|0) lnf(x|0)] existe y no es singular; 5. E[ supN||lnf(x|)||] < , entonces el estimador de mxima verosimilitud tiene una distribucin asinttica normal:4
Invariancia funcional
Si es el EMV de y g() es una transformacin de , entonces el EMV de = g() es
Adems, el EMV es invariante frente a ciertas transformaciones de los datos. En efecto, si y una aplicacin biyectiva que no depende de los parmetros que se estiman, entonces la funcin de densidad de Y es
Es decir, las funciones de densidad de X e Y difieren nicamente en un trmino que no depende de los parametros. As, por ejemplo, el EMV para los parmetros de una distribucin lognormal son los mismos que los de una distribucin normal ajustada sobre el logaritmo de los datos de entrada.
Otras propiedades
El EMV es n-consistente y asintticamente eficiente. En particular, esto significa que el sesgo es cero hasta el orden n1/2. Sin embargo, al obtener los trminos de mayor orden de la expansin de Edgeworth de la distribucin del estimador, emv tiene un sesgo de orden 1. Este sesgo es igual a5
frmula donde se ha adoptado la convencin de Einstein para expresar sumas; Ijk representa la j,k-sima componente de la inversa de la matriz de informacin de Fisher y
Gracias a estas frmulas es posible estimar el sesgo de segundo orden del estimador y corregirlo mediante substraccin:
Este estimador, insesgado hasta el orden n1, se llama estimador de mxima verosimilitud con correccin del sesgo.
Ejemplos
Distribucin uniforme discreta
Supngase que n bolas numeradas de 1 a n se colocan en una urna y que una de ellas se extrae al azar. Si se desconoce n, su EMV es el nmero m que aparece en la bola extrada: la funcin de verosimilitud es 0 para n < m y 1/n para n m; que alcanza su mximo cuando n = m. La esperanza matemtica de , es (n + 1)/2. Como consecuencia, el EMV de n infravalorar el verdadero valor de n por (n 1)/2.
con una muestra de tamao 80, nmero de xitos igual a 49 y distintos valores de p, la funcin de verosimilitud toma tres valores siguientes:
Aplicaciones
El estimador de mxima verosimilitud se usa dentro de un gran nmero de modelos estadsticos:
modelos lineales los modelos lineales generalizados; Anlisis factorial, tanto exploratorio como confirmatorio; anlisis de ecuaciones estructurales; y otras muchas situaciones en el contexto de los tests estadsticos