Variables Aleatorias
Variables Aleatorias
Variables Aleatorias
Variables Aleatorias
Ivan Ladino
Notas de clase
——
2020
Variables Aleatorias
3/48
Variables Aleatorias
4/48
Variables Aleatorias
(Función de masa de probabilidad)
Dada un avariable aleatoria X discreta y sea x cualquier valor que to-
ma la variable aleatoria dada, entonces la probabilidad de ocurrencia
de x se denota por pX (x) es decir la probabilidad de que {X = x}:
PX (x) = P {X = x}
Por ejemplo el experimento de lanzar dos monedas y cuya variable
aleatoria asociada es la suma de los dos resultados obtenidos, por
ende:
1/4 si x = 0 o x = 2
pX (x) = 1/2 si x = 1
0 en otro caso
(Cálculo de la PMF)
Para el calculo de la PMF se siguen dos pasos:
(1) Agrupe todos los eventos simples que conforman el evento {X =
x}.
(2) Sume las probabilidades de todos los eventos simples que forman
el evento {X = x}, dicha suma es la probabilidad pX (x).
6/48
Variables Aleatorias
7/48
Variables Aleatorias
(Variable aleatoria Binomial)
Una moneda se lanza n veces, cada lanzamiento es independiente
de los demás lanzamientos, sea p la probabilidad del sello y 1 − p
la de la cara. Ahora, sea la variable aleatoria X asociada a que se
obtengan x sellos en los n lanzamientos. Calculemos la probabilidad
de obtener k sellos en los n lanzamientos.
Es claro que no importa el orden en que aparezcan los k sellos, por
lo tanto el número de formas de& tener
' k sellos en n lanzamientos es:
n
k
como los eventos son independientes, entonces en un experimento,
la probabilidad de tener k sellos y el resto caras es:
p k (1 − p)n−k
en consecuencia, la probabilidad de tener k sellos en n caras es:
& '
n
pX (x) = P(X = k) = p k (1 − p)n−k (1)
k
8/48
Variables Aleatorias
(Variable aleatoria Binomial)
A la expresión dada en (1) con k = 0, 1, · · · , n se le denomina PMF
Binomial.
Para verificar que esta bien definida la probabilidad de la variable
aleatorio dada es necesario verificar que:
n n & '
$ $ n
pX (x) = p k (1 − p)n−k = 1
k
k=0 k=0
Demostración.
Por el teorema del binomio:
n & '
n
$ n
(a + b) = ak b n−k
k
k=0
evidentemente hacemos a = p y b = 1 − p:
(p + 1 − p)n = 1n = 1
9/48
Variables Aleatorias
(Variable Aleatoria Geométrica )
Supongamos que una moneda en la cual el sello tiene probabilidad
p, se lanza hasta que cae sello, la probabilidad de que en el k−ésimo
lanzamiento salga el sello (en los anteriores k − 1 salieron caras) es:
pX (k) = (1 − p)k−1 p con k = 1, · · · ,
A esta variable se le denomina Geométrica. De nuevo se debe verificar
que:
$ ∞ ∞
$
pX (k) = (1 − p)k−1 p = 1
k=1 k=1
Demostración.
∞ ∞
$ $ 1 − (1 − p)∞ p
(1 − p)k−1 p = p (1 − p)k = p = =1
1 − (1 − p) p
k=1 k=0
10/48
Variables Aleatorias
Demostración.
∞
λk λ2 λ3
" #
! 1 λ
e −λ = e −λ + + + + ··· = e −λ e λ = 1
k! 1 1! 2! 3!
k=0
11/48
Variables Aleatorias
12/48
Variables Aleatorias
(Ejercicio )
Se tiene un canal binario simétrico con probabilidades de error da-
das por: PY |X (1|0) = PY |X (0|1) = pe , obviamente PY |X (0|0) =
PY |X (1|1) = 1 − pe . Se concatenan n de estos canales y, se requiere
hallar la probabilidad de error de extremo a extremo: PE .
Si en n canales un número de par (0, 2, 4, · · · ) de ellos ‘’cometen el
error"(y los otros no), entonces no tendremos error en los n canales.
Ahora bien, como no importan el orden en que estén los canales que
erran, entonces tenemos Cnk formas de organizar un número par de
k canales en n y por ende la probabilidad de tener k canales errados
es: & '
n
pek (1 − pe )n−k con k par
k
en tonces la probabilidad de no error 1 − PE es:
[n/2] & '
$ n
1 − PE = pe2∗j (1 − pe )n−2∗j
2∗j
j=0
13/48
Variables Aleatorias
(Funciones de Variables Aleatorias )
A partir de una o varias variables aleatorias, por medio de una trans-
formación, se puede generar otras variables aleatorias, por ejemplo
la conversión de la variable aleatoria voltaje a la variable aleatoria de
corriente.
(Función de variable aleatoria lineal)
Sea X una variable aleatoria, a la función de variable aleatoria:
Y = g (X ) = aX + b
con a y b constantes, se le denomina función de variable aleatoria
lineal. En general una función de variable aleatoria se representa por:
Y = g (X )
√
g (·) puede ser no lineal, por ejemplo g (X ) = X .
Si X es una variable aleatoria, Y también lo es, puesto que a cada
resultado del experimento se le asigna un valor x y, ese valor x es
mapeado por g (·) en un valor y .
14/48
Variables Aleatorias
(Funciones discretas de Variables Aleatorias)
En el caso en que X se a discreta, Y es discreta y su PMF se calcula
empleando los valores de la PMF de X .
El cálculo de la PMF de Y se realiza de la siguiente forma: para
obtener cada PY (y ) para cada valor de y se suman las probabilidades
de todos los valores de x que son mapeados en y a través de y =
g (x), es decir:
!
PY (y ) = PX (x)
{x|g (x)=y }
Ejemplo
Sea Y = |X | calculemos su PY (y ) para X con PMF dada por:
$
1/9 si x es un entero en el rango [−4, 4]
PX (x) =
0 en otro caso
Los valores que puede tomar y son [0, 1, 2, 3, 4].
15/48
Variables Aleatorias
Ejemplo
Calculemos inicialmente la probabilidad de (y = 0), como solo el
valor cero del intervalo [−4, 4] es mapeado en y = 0, entonces
PY (0) = PX (0) = 1/9. En el caso en que y = 1, su probabili-
dad se calcula a partir de los dos valores de x que se mapean en
y = |x| = 1, es decir x = 1 y x = −1; como estos dos eventos son
independientes entonces:
PY (y = 1) = PX (x = 1) + PX (x = −1) = 1/9 + 1/9
procediendo de la misma forma con los demás valores de x llegamos
a:
2/9 si y = 1, 2, 3, 4
PY (y ) = 1/9 si y = 0
0 en otro caso
16/48
Variables Aleatorias
(Valor esperado )
Una forma de ‘’calificar” o caracterizar las variables aleatorias es
mediante momentos estadísticos, por ejemplo al promedio de una
variable aleatoria se le denomina valor esperado (o media) y se calcula
a través del promedio ponderado:
!
E [X ] = xPX (x) (2)
x
la sumatoria se realiza sobre todos los valores que toma la variable
aleatoria X , además notemos que los valores de X con mayor pro-
babilidad son los que mas contribuyen al promedio, mientras que los
de menos probabilidad menos influyen en el cálculo.
En el caso de un promedio convencional todos los valores de la varia-
ble tienen el mismo peso dentro del calculo, por ejemplo, el promedio
de las temperaturas 5, 10, 15, 20 y 25 es:
5 + 10 + 15 + 20 + 25 1 1 1 1 1
T = = 15 = 5 + 10 + 15 + 20 + 25
5 5 5 5 5 5
17/48
Variables Aleatorias
Ejemplo
Consideremos el lanzamiento de dos monedas (claramente eventos
independientes), cada una con probabilidad de caer cara de 3/4.
Definamos la variable aleatoria X como el número de caras obtenidas.
Esta variable corresponde una distribución binomial con:
(1/4)2
si k = 0
PX (k) = 2(1/4)(3/4) si k = 1
(3/4)2 si k = 2
18/48
Variables Aleatorias
19/48
Variables Aleatorias
20/48
Variables Aleatorias
p
E [X ] = {(n + 1) − E [X ] − 1}
1−p
p
E [X ] = {n − E [X ]}
1−p
despejando a E [X ] obtenemos:
& ' & '
p 1 pn
E [X ] 1 + = E [X ] =
1−p 1−p 1−p
por lo tanto:
E [X ] = pn
21/48
Variables Aleatorias
24/48
Variables Aleatorias
(Varianza de la binomial )
Para el cálculo de la varianza de la distribución binomial emplea-
remos la expresión (4), como ya conocemos que su valor esperado
corresponde a: E [X ] = pn, entonces nos concentraremos en calcular
E [X 2 ]
n & '
$ $ n
2
E [X ] = 2
k PX (k) = k 2
p k (1 − p)n−k
k
k k=0
n
$ n!
= k2 p k (1 − p)n−k
k!(n − k)!
k=1
pero:
n!(n − (k − 1))
& '
2 n! n
k =k =k (n−(k−1))
k!(n − k)! (k − 1)!(n − (k − 1))! k −1
por lo tanto:
n & ' n & '
$ n $ n
E [X 2 ] = (n + 1) k p k (1 − p)n−k − k2 p k (1 − p)n−k
k −1 k −1
k=1 k=1
25/48
Variables Aleatorias
(Varianza de la binomial )
Ahora empleemos la sustitución m = k − 1 en la última expresión,
de donde tenemos que k = m + 1:
n " #
! n
2
E [X ] = (n + 1) (m + 1) p m+1 (1 − p)n−m−1
m
m=0
n " #
! n
− (m + 1)2 p m+1 (1 − p)n−m−1
m
m=0
n
* " # +
p ! n
E [X 2 ] = (n + 1) (m + 1) p m (1 − p)n−m
1−p m
m=0
* n " # +
p ! n
− (m + 1)2 p m (1 − p)n−m
1−p m
m=0
26/48
Variables Aleatorias
(Varianza de la binomial )
Expandiendo el término (m + 1)2 y reorganizando las expresiones
obtenemos:
n &
+ ' ,
p $ n
E [X 2 ] = (n + 1 − 1) p m (1 − p)n−m
1−p m
m=0
n
+ & ' ,
p $ n
+ (n − 1) m p m (1 − p)n−m
1−p m
m=0
+ n & ' ,
p $
2 n m n−m
− m p (1 − p)
1−p m
m=0
p -
E [X 2 ] = n + (n − 1)E [X ] − E [X 2 ]
.
1−p
2 p -
n + (n − 1)np − E [X 2 ]
.
E [X ] =
1−p
27/48
Variables Aleatorias
(Varianza de la binomial )
Despejando a E [X 2 ] obtenemos:
n + n2 p − np
& ' & '
2 p 2 1
E [X ] 1 + = E [X ] =p
1−p 1−p 1−p
por lo tanto:
E [X 2 ] = np + n2 p 2 − np 2
Así, la varianza de la distribución exponencial corresponde a:
var (X ) = E [X 2 ] − E [X ]2 = (np + n2 p 2 − np 2 ) − n2 p 2 = np(1 − p)
(5)
28/48
Funciones de Variables Aleatorias múltiples
(PMFs conjuntas )
Sean X e Y , dos variables aleatorias discretas, asociadas con el mis-
mo experimento, la probabilidades de que X e Y tomen simultńea-
mente un par de valores X = x, Y = y se denota por pX ,Y (x, y ), es
decir:
PX ,Y (x, y ) = P(X = x, Y = y ) = P({X = x} ∩ {Y = y }) (6)
Ahora, supongamos que tenemos un evento A, compuesto de parejas
ordenadas (x, y ), entonces, la probabilidad del evento A corresponde
a:
!
P(A) = P((x, y ) ∈ A) = PX ,Y (x, y )
(x,y )∈A
las probabilidades marginales PX (x) y PY (y ) se pueden calcular co-
mo:
! !
pX (x) = PX ,Y (x, y ), pY (y ) = PX ,Y (x, y ) (7)
y x
Ver ejemplo (2.9) de Bertsekas...
29/48
Funciones de Variables Aleatorias múltiples
30/48
Funciones de Variables Aleatorias múltiples
(Ejemplo)
Consderemos la PMF conjunta PX ,Y (x, y ) dada por la tabla mostra-
da en la figura (3.13) y obtengamos la PMF y el valor esperado de
Z = X + 2Y .
y
31/48
Funciones de Variables Aleatorias múltiples
(Ejemplo)
La PMF de Z la calculamos por medio de:
$
PZ (z) = PX ,Y (x, y )
{(x,y )|x+2y =z}
empleando la tabla de la figura (3.13) tenemos:
1 1 2 2 4
pz (3) = 20 , pz (4) = 20 , pz (5) = 20 , pz (6) = 20 , pz (7) = 20
3 3 2 1 1
pz (8) = 20 , pz (9) = 20 , pz (10) = 20 , pz (11) = 20 , pz (12) = 20
/
Por lo tanto el valor esperado de Z corresponde a zPZ (z):
1 1 2 2 4
E [Z ] = 3 + 4 + 5 + 6 + 7
20 20 20 20 20
3 3 2 1 1
+8 + 9 + 10 + 11 + 12
20 20 20 20 20
= 7,55
Al mismo valor se llega si se calcula E [Z ] = E [X ] + 2E [Y ].
32/48
Funciones de Variables Aleatorias múltiples
35/48
Condicionamiento
(Ejemplo)
Sea X la variable correspondiente al resultado del lanzamiento de
un dado y, A el evento de que X sea par, entonces, la probabilidad
condicionada PX |A (k) es:
PX |A (k) = P(X = k|k es par)
P(X = k y X es par)
=
P(X es par)
$
1/3, si k = 2, 4, 6,
=
0. en otro caso
36/48
Condicionamiento
37/48
Condicionamiento
38/48
Condicionamiento
(Esperanza Condicional)
La esperanza de una variable X , condicionada a un evento A con
P(A) > 0, esta definida por:
!
E [X |A] = x pX |A (x)
x
Sea Y = g (X ) una función de la variable aleatoria X , entonces el
valor esperado de Y = g (X ) condicionado al evento A es:
!
E [g (X )|A] = g (x)pX |A (x)
x
Sea Y otra variable aleatoria asociada al mismo experimento que la
variable X , entonces la esperanza de X condicionada a Y es:
!
E [X |Y = y ] = x pX |Y (x|y )
x
39/48
Condicionamiento
(Esperanza Condicional)
Dada la partición Ω = ni=1 Ai del espacio muestreal, entonces,
1
n
$
E [X ] = P(Ai )E [X |Ai ] (11)
i =1
Para demostrar (11) tomemos la expresión (9), multipliquemos a
ambos lados por x y sumemos sobre todos los valores de x:
$ $ $ n
E [X ] = xpX (x) = x P(Ai )pX |Ai (x|Ai )
x x i =1
n
$ $
= P(Ai ) xpX |Ai (x|Ai )
i =1 x
$ n
= P(Ai )E [X |Ai ]
i =1
40/48
Condicionamiento
(Esperanza Condicional)
Además, para cualquier evento B con P(Ai ∩ B) > 0 y para todo i
se tiene que:
.n
E [X |B] = i −1 P(Ai |B)E [X |Ai ∩ B]
y además:
.
E [X ] = y PY (y )E [X |Y = y ]
Estas dos expresiones se pueden demostrar en forma similar a la
demostración de la ecuación (11).
41/48
Condicionamiento
(Ejemplo)
En una red de comunicaciones entre Bogotá, Medellín, Cali y Barran-
quilla, los mensajes de Bogotá a Medellín tienen una probabilidad de
0,5, de Bogotá a Cali 0, 3 y de Bogotá a Barranquilla de 0,2. El
tiempo de transmisión de cada mensaje es aleatorio, con una media
de 0,05 segundos para los de Medellín, 0, 1 seg. los de Cali y 0,3 seg.
los de Barranquilla.
Con base en los datos podemos asociar el evento Am al envío de
mensajes de Bogotá a Medellín, en forma equivalente definimos los
eventos Ac y Ab para las ciudades de Cali y Barranquilla. Por lo
tanto: E [X |Am ] = 0, 05, E [X |Ac ] = 0, 1 y E [X |Ab ] = 0, 3 segundos.
El valor esperado del tiempo de transmisión de los mensajes emitidos
por Bogotá se calcula con base en (11):
E [X ] = P(Am )E [X |Am ] + P(Ac )E [X |Ac ] + P(Ab )E [X |Ab ]
= (0,5)(0,05) + (0,3)(0,1) + (0,2)(0,3) = 0,115 segundos.
42/48
Condicionamiento
(Ejemplo)
Suponga que un algoritmo inteligente genera software una y otra
vez, hasta que un programa de evaluación determina que el software
generado es funcional. La probabilidad de que el software generado
sea funcional es p. Calcular la media y la varianza de X , el número
de ensayos hasta que el software funciona correctamente.
Es obvio que la distribución asociada al experimento corresponde a
la Geométrica con PMF:
pX (k) = (1 − p)k−1 p ∀ k = 1, 2, · · ·
La media y la varianza se pueden calcular por medio de las sumas:
.∞ .∞
E [X ] = k=1 k(1 − p)k−1 p, var (X ) = k=1 (k − E [X ])2 (1 − p)k−1 p
La evaluación de estas sumatorias en muchos casos es muy tedio-
sa, por lo tanto la alternativa consiste en emplear (11) con los dos
eventos A1 y A2 , el primero asociado a que en el primer ensayo se
consigue el software funcional y A2 el complemento de A1 .
43/48
Condicionamiento
(Ejemplo - continuación)
Supongamos que el software se consigue en el primer ensayo, enton-
ces obviamente, el valor esperado del número de ensayos dado este
evento es:
E [X |X = 1] = 1
Por otro lado, si en el primer ensayo no se consigue el software,
entonces volvemos al punto de inicio, pero ya con un ensayo realizado,
por lo tanto el número esperado de ensayos adicionales es E [X ], pero
como ya se realizó un ensayo entonces:
E [X |X > 1] = 1 + E [X ]
en consecuencia (y usando 11):
E [X ] = P(X = 1)E [X |X = 1] + P(X > 1)E [X |X > 1]
= p · (1) + (1 − p)(1 + E [X ])
1
=
p
44/48
Condicionamiento
(Ejemplo - continuación)
Para la varianza procedemos en forma similar con los dos eventos
X = 1 y X > 1. Empleemos que var (X ) = E [X 2 ] − E [X ]2 , en
consecuencia:
E [X 2 |X = 1] = 1, E [X 2 |X > 1] = E [(1+X )2 ] = 1+2E [X ]+E [X 2 ]
por lo tanto:
E [X 2 ] = p · (1) + (1 − p)(1 + 2E [X ] + E [X 2 ])
= p + (1 − p)(1 + 2/p + E [X 2 ])
2 1
= 2
−
p p
por lo tanto la varianza de X corresponde a:
2 1 1 1−p
var (X ) = E [X 2 ] − E [X ]2 = 2 − − 2 =
p p p p2
45/48
Independencia
46/48
Independencia
(Ejemplo)
Un experimento consiste en dos lanzamientos independientes de un
moneda normal. Sea X el número de caras y A el evento de que el
número de caras es par. La PMF no condicionada de X es:
1/4 si x = 0
PX (x) = 1/2 si x = 1
1/4 si x = 2
47/48
Independencia
(Independencia de variables aleatorias)
Dos variables aleatorias X e Y son independientes si:
PX ,Y (x, y ) = PX (x)PY (y ) ∀ x, y
y en froma equivalente a la independencia con eventos tenemos:
PX (x) = PX |Y (x|y ) ∀ x, y con PY (y ) > 0
Por otro lado, si X e Y son dos variables independientes, entonces:
E [XY ] = E [X ]E [Y ]
lo que se demuestra de la siguiente forma:
$$
E [XY ] = xypX ,Y (x, y )
x y
$$
= xypX (x)pY (y )
x y
$ $
= xpX (x) yPY (y ) = E [X ]E [Y ]
x y
La extensión de la independencia a varias variables es directa.
48/48