Divergencia de Kullback-Leibler
Divergencia de Kullback-Leibler
Divergencia de Kullback-Leibler
org/wiki/Divergencia_de_Kullback-Leibler
Divergencia de Kullback-Leibler
En teora de la probabilidad y teora de la informacin, la divergencia de Kullback-Leibler (KL)1 2 3
(tambin conocida como divergencia de la informacin, ganancia de la informacin, entropa relativa o
KLIC por sus siglas en ingls) es una medida no simtrica de la similitud o diferencia entre dos funciones de
distribucin de probabilidad P y Q. KL mide el nmero esperado de extra bits requeridos en muestras de
cdigo de P cuando se usa un cdigo basado en Q, en lugar de un cdigo basado en P. Generalmente P
representa la "verdadera" distribucin de los datos, observaciones, o cualquier distribucin terica. La
medida Q generalmente representa una teora, modelo, descripcin o aproximacin de P.
Aunque a menudo se considera como una mtrica o distancia, la divergencia KL no lo es en realidad por
ejemplo, no es simtrica: la divergencia KL de P a Q no necesariamente es la misma KL de Q a P.
La divergencia KL es un caso especial de una clase ms amplia de divergencias llamadas divergencias f. Fue
originalmente introducida por Solomon Kullback y Richard Leibler en 1951 como la divergencia
direccionada entre dos distribuciones. KL se puede derivar de la divergencia de Bregman.
ndice
1 Definicin
2 Propiedades
3 Aplicaciones
3.1 Estadstica
4 Referencias
5 Enlaces externos
Definicin
Para distribuciones de probabilidad P y Q de una variable aleatoria discreta su divergencia KL se define
como
En palabras, es el promedio ponderado de la diferencia logartmica entre las probabilidades P and Q, donde
el promedio se toma usando las probabilidades P. La divergencia KL solamente se define si P y Q suman 1
y si para cualquier i tal que . Si la cantidad aparece en la frmula, se interpreta
como cero.
Para distribuciones P y Q de una variable aleatoria continua, la divergencia KL se define como la integral:4
1 de 3 27/09/2017 22:48
Divergencia de Kullback-Leibler - Wikipedia, la enciclopedia libre https://es.wikipedia.org/wiki/Divergencia_de_Kullback-Leibler
Los logaritmos en estas frmulas se toman como en base 2 si la informacin se mide en unidades de bits, o
en base e si la informacin se mide en nats. La mayora de frmulas relacionadas con la divergencia KL se
mantienen independiente de la base logartmica.
Nos referiremos a la divergencia de P a Q, aunque algunos autores la llaman la divergencia "de Q a P" y
otros la divergencia "entre P y Q" (aunque note que no es simtrica). Se debe tener cuidado debido a la falta
de estandarizacin en la terminologa.
Propiedades
Es siempre positiva (puede probarse usando la desigualdad de Jensen).
Es nula si y slo si P = Q.
No es simtrica (por lo que no se trata de una distancia).
Aplicaciones
Estadstica
En estadstica, la divergencia de Kullback-Leibler est ntimamente relacionada con el mtodo de ajuste de
distribuciones por mxima verosimilitud. En efecto, si se tienen observaciones independientes
de una variable aleatoria con funcin de densidad desconocida f y se tratan de ajustar dentro de una familia
de funciones de densidad , de acuerdo con la teora de la mxima verosimilitud, se busca el parmetro
que maximiza la funcin
2 de 3 27/09/2017 22:48
Divergencia de Kullback-Leibler - Wikipedia, la enciclopedia libre https://es.wikipedia.org/wiki/Divergencia_de_Kullback-Leibler
se obtiene
Referencias
1. Kullback, S.; Leibler, R.A. (1951). On Information and Sufficiency. Annals of Mathematical Statistics 22 (1):
7986. MR 39968 (https://www.ams.org/mathscinet-getitem?mr=39968). doi:10.1214/aoms/1177729694 (http://dx.doi.org
/10.1214%2Faoms%2F1177729694).
2. S. Kullback (1959) Information theory and statistics (John Wiley and Sons, NY).
3. Kullback, S.; Burnham, K. P.; Laubscher, N. F.; Dallal, G. E.; Wilkinson, L.; Morrison, D. F.; Loyer, M. W.;
Eisenberg, B. et al. (1987). Letter to the Editor: The KullbackLeibler distance. The American Statistician 41
(4): 340341. JSTOR 2684769 (https://www.jstor.org/stable/2684769).
4. C. Bishop (2006). Pattern Recognition and Machine Learning. p. 55.
Enlaces externos
Matlab code for calculating KL divergence (http://www.mathworks.com/matlabcentral/fileexchange
/loadFile.do?objectId=13089&objectType=file)
Sergio Verd, Relative Entropy (http://videolectures.net/nips09_verdu_re/), NIPS 2009. One-hour
video lecture.
Jon Shlens' tutorial on Kullback-Leibler divergence and likelihood theory (http://web.archive.org
/web/http://www.snl.salk.edu/~shlens/kl.pdf)
A modern summary of info-theoretic divergence measures (http://arxiv.org/abs/math/0604246)
Obtenido de https://es.wikipedia.org/w/index.php?title=Divergencia_de_Kullback-Leibler&
oldid=87029506
Se edit esta pgina por ltima vez el 19 nov 2015 a las 13:48.
El texto est disponible bajo la Licencia Creative Commons Atribucin Compartir Igual 3.0; pueden
aplicarse clusulas adicionales. Al usar este sitio, usted acepta nuestros trminos de uso y nuestra
poltica de privacidad.
Wikipedia es una marca registrada de la Fundacin Wikimedia, Inc., una organizacin sin nimo de
lucro.
3 de 3 27/09/2017 22:48