Entropia Gabriela Kure
Entropia Gabriela Kure
Entropia Gabriela Kure
Formula de la entropía
donde:
donde:
Por ejemplo, si la serie de tiempo representa la temperatura del aire, cada estado podría
representar una temperatura diferente. La fórmula de la entropía de Shannon se puede utilizar
para calcular la entropía de la distribución de probabilidad de las temperaturas del aire. Una
entropía alta indica que la serie de tiempo es impredecible, mientras que una entropía baja indica
que la serie de tiempo es predecible.
1. Incertidumbre:
La entropía se origina en la idea de que cuanto más incierto o inesperado sea un evento, mayor
será la cantidad de información que proporciona. Cuando un evento es altamente probable, no
aporta mucha información nueva porque su ocurrencia era esperada.
Por ejemplo, si se lanza una moneda al aire, la probabilidad de que salga cara es de 0,5. Esto
significa que es un evento bastante predecible. Si salimos a la calle y vemos que está lloviendo,
no nos sorprende demasiado.
Sin embargo, si se lanzara una moneda al aire y saliera cara 10 veces seguidas, eso sería un
evento mucho más inesperado. Nos proporcionaría mucha información nueva sobre el
funcionamiento del mundo.
El logaritmo base 2 es una función matemática que nos dice cuántos bits necesitamos para
representar un valor. Por ejemplo, el logaritmo base 2 de 10 es 3,32. Esto significa que
necesitamos 3,32 bits para representar el número 10.
La entropía se mide en unidades de bits. El uso del logaritmo base 2 en la fórmula de la entropía
asegura que la entropía se mida en unidades de bits, lo que es especialmente relevante en el
contexto de la codificación de información.
3. Suma ponderada:
La entropía se calcula como una suma ponderada de las probabilidades de ocurrencia de los
eventos en un conjunto de datos. Esto refleja el hecho de que la información es más valiosa
cuando se asocia con eventos menos probables.
Por ejemplo, si lanzamos una moneda al aire 10 veces y sale cara 6 veces, la probabilidad de que
salga cara es de 0,6. La entropía de este conjunto de datos sería de aproximadamente 0,97 bits.
Si, por otro lado, lanzamos una moneda al aire 100 veces y sale cara 60 veces, la probabilidad de
que salga cara es de 0,6. La entropía de este conjunto de datos sería de aproximadamente 1,5
bits.
En este caso, el segundo conjunto de datos proporciona más información que el primero, incluso
though tienen la misma probabilidad de ocurrencia de caras. Esto se debe a que el segundo
conjunto de datos es menos probable que ocurra.
Bibliografía:
Cover, T. M., & Thomas, J. A. (2006). Elements of information theory. New York:
Wiley-Interscience.