Teoria Matemática de La Comunicación

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 14

Teoría Matemática de la

Comunicación

Prof.: Osvaldo Corrales Jorquera


Antecedentes y origen
l  El planteamiento original fue hecho por Claude Shannon en 1948
a través de un artículo publicado en el Bell System Technical
Journal titulado “A Mathematical Theory of Communication”, el
cual volvería a publicar al año siguiente en conjunto con Warren
Weaver en la Universidad de Illinois.
l  Entre los antecedentes de este modelo se encuentran los
trabajos de Andrei Markov sobre cadenas de símbolos, los
trabajos de Ralph Hartley quien en 1927 propuso la primera
medida exacta de medidicón de la información asociada a la
emisión de símbolos y el trabajo de Alan Turing quien propuso
una máquina capaz de tratar con información.
l  El interés principal de este modelo es técnico y se encuentra
asociado a todo aquello que se relaciona con la capacidad y
fidelidad para transmitir información de los distintos sistemas de
comunicación. El problema del significado no juega ningún rol.
Sistema General de Comunicación
Shannon y Weaver

Señal Señal
enviada recibida

FUENTE TRANSMISOR CANAL RECEPTOR DESTINATARIO

Mensaje Mensaje
Fuente de Ruido
Componentes del Modelo
l  Fuente de información: selecciona el mensaje
de un conjunto de mensajes posibles.
l  Transmisor: transforma o codifica esta
información en una forma apropiada al canal.
l  Canal: medio a través del cual las señales son
transmitidas al punto de recepción.
l  Fuente de ruido: conjunto de distorsiones o
adiciones no deseadas por la fuente de información
y que afectan a la señal. Pueden consistir en
distorsiones de imagen, sonido, transmisión, etc.
l  Receptor: decodifica la señal transformándola en
el mensaje original o en una aproximación de éste.
Información
l  En este modelo la idea de información es definida en
términos estrictamente estadísticos y se relaciona con
la libertad de elección que tiene una fuente para
seleccionar un mensaje determinado de entre un
conjunto de mensajes posibles.
l  El concepto de información supone la existencia de
duda o incertidumbre. La incertidumbre implica que
existen diferentes alternativas que deben ser elegidas
o discriminadas.
l  Cada elección está asociada a una probabilidad,
siendo algunos mensajes más probables que otros.
Principios de la Medición de
Información
l  La cantidad de información que aporta un mensaje se
encuentra en una relación directamente proporcional
con la cantidad de incertidumbre que es capaz de
reducir.
l  Mientras más probable sea un mensaje menor
información proporcionará.
l  El contenido de una mensaje no determina su valor
informativo; sólo resultará importante en la medida en
que afecte su probabilidad de aparición.
l  Si se escogen dos mensaje (X e Y), la cantidad de
información proporcionada por ambos será igual a la
cantidad de información proporcionada por X más la
cantidad de información proporcionada por Y, dado que
X ya ha sido seleccionada.
Fórmula para Medir la
Información

I (xi e ij) = f p (xi) + f p (ii / xi)


Bit o Unidad de Información
l  La cantidad de información proporcionada por cada
elección entre dos alternativas posibles constituye la
unidad básica de información y se denomina dígito
binario o bit.
l  La elección existente al tener un bit de información
puede esquematizarse de la siguiente manera:
1/2
b
1/2
l  La fórmula general para calcular la cantidad de
información que aporta la elección de un mensaje
entre N mensajes de igual probabilidad es: Log2N
l  Cualquier lenguaje puede ser transformado
en un código binario:

Signo 1ª 2ª 3ª
A 1 1 1
B 1 1 0
C 1 0 1
D 1 0 0
E 0 1 1
F 0 1 0
G 0 0 1
H 0 0 0
Prediga y anote las tres letras siguientes en las
series que están a continuación

1 A B X Y C D X Y E F
2 N Ñ WN Ñ X N Ñ Y N Ñ
3 P Q P Q R Q R S R S T S T U
4 C D O P E F Q R C D O P E F Q R C D
5 A D G J M O R
6 B B D D F F H H J J
7 C B A F E D I H G L K
8 A Z B Y C X D WE V F
9 B J D A B N L L A B J K I S T
Redundancia (1)
l  La mayoría de las fuentes de información producen
mensajes que no consisten en una única elección
entre alternativas de igual probabilidad, sino en
elecciones sucesivas entre posibilidades de
probabilidad variable y dependiente. A este tipo de
secuencias se les denomina Procesos Estocásticos.

l  En el lenguaje, a medida que se avanza en la


formación de una palabra o una oración, el rango
de posibles letras o palabras a ser seleccionada va
disminuyendo y la probabilidad de que ciertas letras
o palabras específicas sean seleccionadas va
aumentando.
Redundancia (2)
l  En general, los mensajes se construyen a partir de
un número limitado de unidades (v.g., las letras)
que se van repitiendo y cuya aparición afecta las
elecciones siguientes configurando un cierto patrón,
lo que provoca que los mensajes contengan
siempre un cierto grado de redundancia.
l  En términos teóricos, la redundancia refiere al
hecho de que las posibilidades dentro de un
mensaje se repiten, y se repiten de una cierta
manera predecible.
l  Mientras mayor sea la redundancia de un mensaje,
menor será su incertidumbre y menor la cantidad
de información que contenga.
Funciones de la Redundancia
CMPLT EST FRS

l  Permite que si se pierde una fracción de


un mensaje sea posible completarlo de
una forma muy aproximada al original.
l  Permite combatir el ruido.
l  Facilita la decodificación de los
mensajes.
Capacidad de canal
l  Es
la cantidad de información que un
canal determinado es capaz de
transmitir en una unidad de tiempo
cualquiera.

5N bits / seg

También podría gustarte