Variables Aleatorias

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 48

Probabilidad

Variables Aleatorias

Ivan Ladino
Notas de clase
——

2020
Variables Aleatorias

(Definición de variable aleatoria)


Una variable aleatoria es una función de valor real que asigna un
valor real a cada resultado del experimento o del espacio muestreal.
Variable Aleatoria

En muchas aplicaciones o experimentos no se tiene un conjunto de


resultados numéricos, lo que hace imposible calcular promedios o
dispersiones directamente, por ello la introducción del concepto de
variable aleatoria permite que a partir del mapeo realizado desde
el espacio muestreal a los reales se puedan realizar mediciones de
diferente índole, entre ellas las de promedio y dispersión.
2/48
Variables Aleatorias

(Conceptos relacionados con las variables aleatorias)

Una variable aleatoria es un función de valor real que mapea


eventos simples del espacio muestreal en la recta real.
Una función de una variable aleatoria define otra variable alea-
toria
A cada variable aleatoria se le pueden asociar valores de prome-
dio y de dispersión
Una variable aleatoria puede estar condicionada a otra variable
aleatoria o a un evento.
Se dispone también del concepto de independencia entre un
variable aleatoria y un evento u otra variable aleatoria
A una variable aleatoria se le denomina discreta si su rango (en
R) es finito o numerable y, se le denomina continua si su rango
es no numerable.

3/48
Variables Aleatorias

(Conceptos asociados a las variables discretas)

Una variable aleatoria discreta es una función de valor real que


asocia a los resultados del experimento un número finito o nu-
merable de valores sobre la recta real.
A una variable aleatoria discreta se le asocia una Función de
masa de probabilidad (PMF). Los valores que toma la PMF son
probabilidades.
Una función de una variable aleatoria discreta define otra varia-
ble aleatoria discreta, cuya PMF se puede calcular a partir de la
PMF de la variable original.

4/48
Variables Aleatorias
(Función de masa de probabilidad)
Dada un avariable aleatoria X discreta y sea x cualquier valor que to-
ma la variable aleatoria dada, entonces la probabilidad de ocurrencia
de x se denota por pX (x) es decir la probabilidad de que {X = x}:
PX (x) = P {X = x}
Por ejemplo el experimento de lanzar dos monedas y cuya variable
aleatoria asociada es la suma de los dos resultados obtenidos, por
ende: 
 1/4 si x = 0 o x = 2
pX (x) = 1/2 si x = 1
0 en otro caso

Es de notar, que si la variable aleatoria está bien definida, entonces


cumple todos los axiomas y propiedades de la probabilidad, entre
ellos:
$
pX (x) = 1
x
5/48
Variables Aleatorias
(Función de masa de probabilidad)
Ahora, supongamos que tenemos un subconjunto E del espacio mues-
treal (E ⊆ Ω), entonces:
$
P(x ∈ E ) = pX (x)
x∈E
por ejemplo, en lanzamiento de dos monedas, la probabilidad de que
al menos salga un sello es:
2
$ 1 1 3
P(x > 0) = pX (x) = + =
2 4 4
x=1

(Cálculo de la PMF)
Para el calculo de la PMF se siguen dos pasos:
(1) Agrupe todos los eventos simples que conforman el evento {X =
x}.
(2) Sume las probabilidades de todos los eventos simples que forman
el evento {X = x}, dicha suma es la probabilidad pX (x).
6/48
Variables Aleatorias

(función aleatoria de Bernoulli)


La variable aleatoria de Bernoulli toma solo dos posibles valores 0 y
1, uno con probabilidad p y el otro con probabilidad 1 − p.
En el ejemplo del lanzamiento de un moneda definamos la variable
aleatoria de la siguiente forma:
%
1 si es sello
X =
0 si es cara
entonces su PMF corresponde a:
%
p si k = 1
pX (k) =
1 − p si k = 0
La variable de Bernoulli tiene diversas aplicaciones donde los resul-
tados de un experimento se puedan asociar a una bina.

7/48
Variables Aleatorias
(Variable aleatoria Binomial)
Una moneda se lanza n veces, cada lanzamiento es independiente
de los demás lanzamientos, sea p la probabilidad del sello y 1 − p
la de la cara. Ahora, sea la variable aleatoria X asociada a que se
obtengan x sellos en los n lanzamientos. Calculemos la probabilidad
de obtener k sellos en los n lanzamientos.
Es claro que no importa el orden en que aparezcan los k sellos, por
lo tanto el número de formas de& tener
' k sellos en n lanzamientos es:
n
k
como los eventos son independientes, entonces en un experimento,
la probabilidad de tener k sellos y el resto caras es:
p k (1 − p)n−k
en consecuencia, la probabilidad de tener k sellos en n caras es:
& '
n
pX (x) = P(X = k) = p k (1 − p)n−k (1)
k
8/48
Variables Aleatorias
(Variable aleatoria Binomial)
A la expresión dada en (1) con k = 0, 1, · · · , n se le denomina PMF
Binomial.
Para verificar que esta bien definida la probabilidad de la variable
aleatorio dada es necesario verificar que:
n n & '
$ $ n
pX (x) = p k (1 − p)n−k = 1
k
k=0 k=0

Demostración.
Por el teorema del binomio:
n & '
n
$ n
(a + b) = ak b n−k
k
k=0
evidentemente hacemos a = p y b = 1 − p:
(p + 1 − p)n = 1n = 1

9/48
Variables Aleatorias
(Variable Aleatoria Geométrica )
Supongamos que una moneda en la cual el sello tiene probabilidad
p, se lanza hasta que cae sello, la probabilidad de que en el k−ésimo
lanzamiento salga el sello (en los anteriores k − 1 salieron caras) es:
pX (k) = (1 − p)k−1 p con k = 1, · · · ,
A esta variable se le denomina Geométrica. De nuevo se debe verificar
que:
$ ∞ ∞
$
pX (k) = (1 − p)k−1 p = 1
k=1 k=1

Demostración.

∞ ∞
$ $ 1 − (1 − p)∞ p
(1 − p)k−1 p = p (1 − p)k = p = =1
1 − (1 − p) p
k=1 k=0

10/48
Variables Aleatorias

(Variable Aleatoria de Poisson )


La variable aleatoria de Poisson esta dada por:
λk
PX (k) = e −λ k = 0, 1, 2, · · · ,
k!
λ es el parámetro que caractériza esta PMF. De nuevo se debe veri-
ficar que:
∞ ∞
! ! λk
pX (k) = e −λ =1
k!
k=0 k=0

Demostración.


λk λ2 λ3
" #
! 1 λ
e −λ = e −λ + + + + ··· = e −λ e λ = 1
k! 1 1! 2! 3!
k=0

11/48
Variables Aleatorias

(Variable Aleatoria de Poisson )


Cuando en la PMF de la Binomial se tiene que n es muy grande
y p es muy pequeña, entonces podemos aproximar la distribución
Binomial a la de Poisson haciendo λ = np, es decir que:
k " #
−λ λ n
e ≈ p k (1 − p)n−k
k! k
Por ejemplo, sea n = 100 y p = 0,01, entonces la probabilidad de
k = 5 ocurrencias en n ensayos es aproximadamente:
1
e −1 = 0,00306 ≈ 0,002897
5!

12/48
Variables Aleatorias
(Ejercicio )
Se tiene un canal binario simétrico con probabilidades de error da-
das por: PY |X (1|0) = PY |X (0|1) = pe , obviamente PY |X (0|0) =
PY |X (1|1) = 1 − pe . Se concatenan n de estos canales y, se requiere
hallar la probabilidad de error de extremo a extremo: PE .
Si en n canales un número de par (0, 2, 4, · · · ) de ellos ‘’cometen el
error"(y los otros no), entonces no tendremos error en los n canales.
Ahora bien, como no importan el orden en que estén los canales que
erran, entonces tenemos Cnk formas de organizar un número par de
k canales en n y por ende la probabilidad de tener k canales errados
es: & '
n
pek (1 − pe )n−k con k par
k
en tonces la probabilidad de no error 1 − PE es:
[n/2] & '
$ n
1 − PE = pe2∗j (1 − pe )n−2∗j
2∗j
j=0
13/48
Variables Aleatorias
(Funciones de Variables Aleatorias )
A partir de una o varias variables aleatorias, por medio de una trans-
formación, se puede generar otras variables aleatorias, por ejemplo
la conversión de la variable aleatoria voltaje a la variable aleatoria de
corriente.
(Función de variable aleatoria lineal)
Sea X una variable aleatoria, a la función de variable aleatoria:
Y = g (X ) = aX + b
con a y b constantes, se le denomina función de variable aleatoria
lineal. En general una función de variable aleatoria se representa por:
Y = g (X )

g (·) puede ser no lineal, por ejemplo g (X ) = X .
Si X es una variable aleatoria, Y también lo es, puesto que a cada
resultado del experimento se le asigna un valor x y, ese valor x es
mapeado por g (·) en un valor y .
14/48
Variables Aleatorias
(Funciones discretas de Variables Aleatorias)
En el caso en que X se a discreta, Y es discreta y su PMF se calcula
empleando los valores de la PMF de X .
El cálculo de la PMF de Y se realiza de la siguiente forma: para
obtener cada PY (y ) para cada valor de y se suman las probabilidades
de todos los valores de x que son mapeados en y a través de y =
g (x), es decir:
!
PY (y ) = PX (x)
{x|g (x)=y }

Ejemplo
Sea Y = |X | calculemos su PY (y ) para X con PMF dada por:
$
1/9 si x es un entero en el rango [−4, 4]
PX (x) =
0 en otro caso
Los valores que puede tomar y son [0, 1, 2, 3, 4].
15/48
Variables Aleatorias

Ejemplo
Calculemos inicialmente la probabilidad de (y = 0), como solo el
valor cero del intervalo [−4, 4] es mapeado en y = 0, entonces
PY (0) = PX (0) = 1/9. En el caso en que y = 1, su probabili-
dad se calcula a partir de los dos valores de x que se mapean en
y = |x| = 1, es decir x = 1 y x = −1; como estos dos eventos son
independientes entonces:
PY (y = 1) = PX (x = 1) + PX (x = −1) = 1/9 + 1/9
procediendo de la misma forma con los demás valores de x llegamos
a: 
 2/9 si y = 1, 2, 3, 4
PY (y ) = 1/9 si y = 0
0 en otro caso

16/48
Variables Aleatorias
(Valor esperado )
Una forma de ‘’calificar” o caracterizar las variables aleatorias es
mediante momentos estadísticos, por ejemplo al promedio de una
variable aleatoria se le denomina valor esperado (o media) y se calcula
a través del promedio ponderado:
!
E [X ] = xPX (x) (2)
x
la sumatoria se realiza sobre todos los valores que toma la variable
aleatoria X , además notemos que los valores de X con mayor pro-
babilidad son los que mas contribuyen al promedio, mientras que los
de menos probabilidad menos influyen en el cálculo.
En el caso de un promedio convencional todos los valores de la varia-
ble tienen el mismo peso dentro del calculo, por ejemplo, el promedio
de las temperaturas 5, 10, 15, 20 y 25 es:
5 + 10 + 15 + 20 + 25 1 1 1 1 1
T = = 15 = 5 + 10 + 15 + 20 + 25
5 5 5 5 5 5
17/48
Variables Aleatorias

Ejemplo
Consideremos el lanzamiento de dos monedas (claramente eventos
independientes), cada una con probabilidad de caer cara de 3/4.
Definamos la variable aleatoria X como el número de caras obtenidas.
Esta variable corresponde una distribución binomial con:
 (1/4)2

si k = 0
PX (k) = 2(1/4)(3/4) si k = 1
(3/4)2 si k = 2

en consecuencia, el valor esperado (media) corresponde a:


& '2 & ' & '2
1 13 3 3
E [X ] = 0. + 1. 2 + 2. =
4 44 4 2

18/48
Variables Aleatorias

(Valor esperado de la distribución binomial )


La distribución binomial esta dada por:
" #
n
pX (k) = p k (1 − p)n−k
k
el valor esperado entonces corresponde a:
n " # n
! n ! n!
E [X ] = k p k (1 − p)n−k = k p k (1 − p)n−k
k k!(n − k)!
k=0 k=1
pero:
n!(n − (k − 1))
" #
n! n
k = = (n − (k − 1))
k!(n − k)! (k − 1)!(n − (k − 1))! k −1
por lo tanto:
n " # n " #
! n k n−k
! n
E [X ] = (n + 1) p (1 − p) − k p k (1 − p)n−k
k −1 k −1
k=1 k=1

19/48
Variables Aleatorias

Ahora, realicemos la sustitución m = k − 1, entonces k = m + 1,


por lo tanto el valor esperado se convierte en:
n & ' n & '
$ n $ n
E [x] = (n + 1) p m+1 (1 − p)n−m−1 − (m + 1) p m+1 (1 − p)n−m−1
m m
m=0 m=0

reorganizando términos tenemos:


n &
( '
p $ n
E [x] = (n + 1) p m (1 − p)n−m
1−p m
m=0
n & '
$ n
− m p m (1 − p)n−m
m
m=0
n & ' )
$ n m n−m
− p (1 − p)
m
m=0

20/48
Variables Aleatorias

Por el teorema del binomio, en la última expresión de la dispositiva


anterior, es claro que la primera sumatoria y la tercera sumatoria son
1, mientras que la segunda sumatoria es E [x], en consecuencia:

p
E [X ] = {(n + 1) − E [X ] − 1}
1−p
p
E [X ] = {n − E [X ]}
1−p
despejando a E [X ] obtenemos:
& ' & '
p 1 pn
E [X ] 1 + = E [X ] =
1−p 1−p 1−p
por lo tanto:
E [X ] = pn

21/48
Variables Aleatorias

(Series Geométricas -repaso )


Sea una serie geométrica de la forma:
m
!
S = !k = !n + · · · + !m
k=n
n+1
!S = ! + · · · + !m + !m+1
!S = −!n + !n + !n+1 + · · · + !m + !m+1
!S = −!n + S + !m+1
En consecuencia tenemos:
S(1 − !) = !n − !m+1
así, la suma S corresponde a:
!n − !m+1
S=
1−!
en el caso de que m −→ ∞ entonces |!| < 1, y si n −→ −∞
entonces |!| > 1.
22/48
Variables Aleatorias
(Valor esperado de la distribución geométrica )
La distribución geométrica obedece a:
pX (k) = (1 − p)k−1 p con k = 1, · · · ,
por lo tanto su valor se calcula por medio de:
$∞ $∞
k−1
E [k] = k(1 − p) p = p k(1 − p)k−1
k=1 k=1
fijémonos en que la derivada de(1 − p)k con respecto a p es −k(1 −
p)k−1 , por lo tanto podemos reescribir al valor esperado como:

(∞ )
$
k−1 d $ k
E [k] = p k(1 − p) = p(−1) (1 − p)
dp
k=1 k=1
% * % *
d (1 − p) d 1
= p(−1) = p(−1) −1
dp 1 − (1 − p) dp p
1
=
p
23/48
Variables Aleatorias

(Varianza y desviación estándar )


Otras medidas sobre las variables aleatorias corresponden a las que
miden dispersión, tal vez la mas importante corresponde a la desvia-
ción estándar, al cuadrado de esta, se le denomina varianza y esta
definida como:
!
var (X ) = (x − E [X ])2 PX (x) (3)
x
la sumatoria se realiza sobre todos los valores que toma la variable
aleatoria X .
La expresión (x − E [X ])2 se puede expandir con lo que var (X ) se
reescribe de la siguiente forma:
! ! !
var (X ) = x 2 PX (x) − 2E [X ] xPX (x) + E [X ]2 PX (x)
x x x
= E [X 2 ] − 2E [X ]2 + E [X ]2
= E [X 2 ] − E [X ]2 (4)

24/48
Variables Aleatorias
(Varianza de la binomial )
Para el cálculo de la varianza de la distribución binomial emplea-
remos la expresión (4), como ya conocemos que su valor esperado
corresponde a: E [X ] = pn, entonces nos concentraremos en calcular
E [X 2 ]
n & '
$ $ n
2
E [X ] = 2
k PX (k) = k 2
p k (1 − p)n−k
k
k k=0
n
$ n!
= k2 p k (1 − p)n−k
k!(n − k)!
k=1
pero:
n!(n − (k − 1))
& '
2 n! n
k =k =k (n−(k−1))
k!(n − k)! (k − 1)!(n − (k − 1))! k −1
por lo tanto:
n & ' n & '
$ n $ n
E [X 2 ] = (n + 1) k p k (1 − p)n−k − k2 p k (1 − p)n−k
k −1 k −1
k=1 k=1
25/48
Variables Aleatorias

(Varianza de la binomial )
Ahora empleemos la sustitución m = k − 1 en la última expresión,
de donde tenemos que k = m + 1:
n " #
! n
2
E [X ] = (n + 1) (m + 1) p m+1 (1 − p)n−m−1
m
m=0
n " #
! n
− (m + 1)2 p m+1 (1 − p)n−m−1
m
m=0
n
* " # +
p ! n
E [X 2 ] = (n + 1) (m + 1) p m (1 − p)n−m
1−p m
m=0
* n " # +
p ! n
− (m + 1)2 p m (1 − p)n−m
1−p m
m=0

26/48
Variables Aleatorias

(Varianza de la binomial )
Expandiendo el término (m + 1)2 y reorganizando las expresiones
obtenemos:
n &
+ ' ,
p $ n
E [X 2 ] = (n + 1 − 1) p m (1 − p)n−m
1−p m
m=0
n
+ & ' ,
p $ n
+ (n − 1) m p m (1 − p)n−m
1−p m
m=0
+ n & ' ,
p $
2 n m n−m
− m p (1 − p)
1−p m
m=0
p -
E [X 2 ] = n + (n − 1)E [X ] − E [X 2 ]
.
1−p
2 p -
n + (n − 1)np − E [X 2 ]
.
E [X ] =
1−p

27/48
Variables Aleatorias

(Varianza de la binomial )
Despejando a E [X 2 ] obtenemos:
n + n2 p − np
& ' & '
2 p 2 1
E [X ] 1 + = E [X ] =p
1−p 1−p 1−p
por lo tanto:
E [X 2 ] = np + n2 p 2 − np 2
Así, la varianza de la distribución exponencial corresponde a:
var (X ) = E [X 2 ] − E [X ]2 = (np + n2 p 2 − np 2 ) − n2 p 2 = np(1 − p)
(5)

28/48
Funciones de Variables Aleatorias múltiples
(PMFs conjuntas )
Sean X e Y , dos variables aleatorias discretas, asociadas con el mis-
mo experimento, la probabilidades de que X e Y tomen simultńea-
mente un par de valores X = x, Y = y se denota por pX ,Y (x, y ), es
decir:
PX ,Y (x, y ) = P(X = x, Y = y ) = P({X = x} ∩ {Y = y }) (6)
Ahora, supongamos que tenemos un evento A, compuesto de parejas
ordenadas (x, y ), entonces, la probabilidad del evento A corresponde
a:
!
P(A) = P((x, y ) ∈ A) = PX ,Y (x, y )
(x,y )∈A
las probabilidades marginales PX (x) y PY (y ) se pueden calcular co-
mo:
! !
pX (x) = PX ,Y (x, y ), pY (y ) = PX ,Y (x, y ) (7)
y x
Ver ejemplo (2.9) de Bertsekas...
29/48
Funciones de Variables Aleatorias múltiples

(funciones de varias variables aleatorias )


En muchas aplicaciones es necesario emplear funciones de variable
aleatoria como: Z = g (X , Y ). Para construir la PMF de Z procede-
mos en forma similar a funciones de una varible:
$
PZ (z) = PX ,Y (x, y ) (8)
{(x,y )|g (x,y )=z}
El valor esperado de Z se calcula en consecuencia de la siguiente
forma:
$$
E [Z ] = E [g (X , Y )] = g (x, y )pX ,Y (x, y )
x y
Supongamos ahora que g (X , Y ) es lineal, es decir se de la forma:
Z = g (X , Y ) = aX + bY + c
en este caso el valor esperado de Z es:
E [aX + bY + c] = aE [X ] + bE [Y ] + c

30/48
Funciones de Variables Aleatorias múltiples

(Ejemplo)
Consderemos la PMF conjunta PX ,Y (x, y ) dada por la tabla mostra-
da en la figura (3.13) y obtengamos la PMF y el valor esperado de
Z = X + 2Y .
y

4 0 1/20 1/20 1/20

3 1/20 2/20 3/20 1/20

2 1/20 2/20 3/20 1/20

1 1/20 1/20 1/20 0


x
1 2 3 4

Figura 1: Tabla de PX ,Y (x, y )

31/48
Funciones de Variables Aleatorias múltiples

(Ejemplo)
La PMF de Z la calculamos por medio de:
$
PZ (z) = PX ,Y (x, y )
{(x,y )|x+2y =z}
empleando la tabla de la figura (3.13) tenemos:
1 1 2 2 4
pz (3) = 20 , pz (4) = 20 , pz (5) = 20 , pz (6) = 20 , pz (7) = 20

3 3 2 1 1
pz (8) = 20 , pz (9) = 20 , pz (10) = 20 , pz (11) = 20 , pz (12) = 20
/
Por lo tanto el valor esperado de Z corresponde a zPZ (z):
1 1 2 2 4
E [Z ] = 3 + 4 + 5 + 6 + 7
20 20 20 20 20
3 3 2 1 1
+8 + 9 + 10 + 11 + 12
20 20 20 20 20
= 7,55
Al mismo valor se llega si se calcula E [Z ] = E [X ] + 2E [Y ].
32/48
Funciones de Variables Aleatorias múltiples

(Mas de dos variables aleatorias)


Consideremos ahora, tres variables aleatorias X , Y y Z , entonces:
PX ,Y ,Z (x, y , z) = P(X = x, Y = y , Z = z)
las PMFs marginales se pueden obtener por medio de:
.
PX ,Y (x, y.
) = . z PX ,Y ,Z (x, y , z)
PX (x) = y z PX ,Y ,Z (x, y , z)
el valor esperado de una función de W = g (X , Y , Z ) se puede cal-
cular como:
!!!
E [W ] = E [g (X , Y , Z )] = g (x, y , z)PX ,Y ,Z (x, y , z)
x y z
en el caso en que g (X , Y , Z ) sea lineal: W = g (X , Y , Z ) = aX +
bY + cZ + d, tenemos:
E [aX + bY + cZ + d] = aE [X ] + bE [Y ] + cE [Z ] + d
La generalización a un numero mayor de 3 variables es trivial.
33/48
Funciones de Variables Aleatorias múltiples
(Ejemplo)
Supongamos que en una clase se tienen 40 estudiantes, cada estu-
diante tiene probabilidad de 1/3 de obtener un A independientemen-
te de los demás. Calcular la media X , el número de estudiantes que
obtienen un A.
En primera instancia definamos la variable aleatoria:
%
1 si el i-ésimo estudiante obtiene un A
Xi =
0 en otro caso
entonces tenemos 40 variables aleatorias X1 , X2 , · · · , X40 , por ende
el valor esperado que debemos calcular es el de la variable:
X = X1 + · · · + X40
el valor esperado de la distribución de cada variable aleatoria de
Bernoulli es p, en consecuencia el valor espera de X corresponde a:
40 40
$ $ 1 1 40
E [X ] = E [Xi ] = = 40 = = 13,3
3 3 3
i =1 i =1
34/48
Condicionamiento

(Condicionamiento de una variable aleatoria a un evento)


La PMF condicional de una variable aleatoria X , condicionada a un
evento A se define como:
P({X = x} ∩ A)
PX |A (x|A) = P(X = x|A) =
P(A)
Todos los eventos ({X = x}∩A) son disjuntos para diferentes valores
de x y su union es A, por lo tanto:
$
P(A) = P({X = x} ∩ A)
x
en consecuencia es evidente que:
$
PX |A (x) = 1
x
lo que indica que PX |A esta bien definida.

35/48
Condicionamiento

(Ejemplo)
Sea X la variable correspondiente al resultado del lanzamiento de
un dado y, A el evento de que X sea par, entonces, la probabilidad
condicionada PX |A (k) es:
PX |A (k) = P(X = k|k es par)
P(X = k y X es par)
=
P(X es par)
$
1/3, si k = 2, 4, 6,
=
0. en otro caso

36/48
Condicionamiento

(Condicionamiento de una variable aleatoria a un evento)


Dada A, una partición del espacio muestreal, con:
0n
A= Ai = A1 ∪ · · · ∪ An
i =1
con Ai ∩ Aj = ∅ para todo i , j con i )= j y, P(Ai ) > 0 para todo i ,
entonces:
n
$ $n
pX (x) = PX ,Ai (x, Ai ) = P(Ai )pX |Ai (x|Ai ) (9)
i =1 i =1
equivalentemente, tenemos que:
n
$
pX |B (x|B) = P(Ai |B)pX |Ai ∩B (x|Ai ∩ B) (10)
i =1

37/48
Condicionamiento

(Condicionamiento de una variable a otra variable)


Sean X e Y dos variable asociadas al mismo experimento, Sí cono-
cemos que Y toma un valor Y = y con alguna probabilidad pY (y ),
ello debe aportar alguna información parcial de la variable X , esta
informacion la representamos por la PMF pX |Y (x|y ):
p(X = x, Y = y ) pX ,Y (x, y )
pX |Y (x|y ) = p(X = x|Y = y ) = =
p(Y = y ) pY (y )
/
se puede verificar facilmente que x PX |Y (x|y ) = 1.

Por otra parte, de la regla de Bayes tenemos:


pX ,Y (x, y ) = pY (y )pX |Y (x|y ) = pX (x)PY |X (y |x)

38/48
Condicionamiento

(Esperanza Condicional)
La esperanza de una variable X , condicionada a un evento A con
P(A) > 0, esta definida por:
!
E [X |A] = x pX |A (x)
x
Sea Y = g (X ) una función de la variable aleatoria X , entonces el
valor esperado de Y = g (X ) condicionado al evento A es:
!
E [g (X )|A] = g (x)pX |A (x)
x
Sea Y otra variable aleatoria asociada al mismo experimento que la
variable X , entonces la esperanza de X condicionada a Y es:
!
E [X |Y = y ] = x pX |Y (x|y )
x

39/48
Condicionamiento

(Esperanza Condicional)
Dada la partición Ω = ni=1 Ai del espacio muestreal, entonces,
1
n
$
E [X ] = P(Ai )E [X |Ai ] (11)
i =1
Para demostrar (11) tomemos la expresión (9), multipliquemos a
ambos lados por x y sumemos sobre todos los valores de x:
$ $ $ n
E [X ] = xpX (x) = x P(Ai )pX |Ai (x|Ai )
x x i =1
n
$ $
= P(Ai ) xpX |Ai (x|Ai )
i =1 x
$ n
= P(Ai )E [X |Ai ]
i =1

40/48
Condicionamiento

(Esperanza Condicional)
Además, para cualquier evento B con P(Ai ∩ B) > 0 y para todo i
se tiene que:
.n
E [X |B] = i −1 P(Ai |B)E [X |Ai ∩ B]
y además:
.
E [X ] = y PY (y )E [X |Y = y ]
Estas dos expresiones se pueden demostrar en forma similar a la
demostración de la ecuación (11).

41/48
Condicionamiento

(Ejemplo)
En una red de comunicaciones entre Bogotá, Medellín, Cali y Barran-
quilla, los mensajes de Bogotá a Medellín tienen una probabilidad de
0,5, de Bogotá a Cali 0, 3 y de Bogotá a Barranquilla de 0,2. El
tiempo de transmisión de cada mensaje es aleatorio, con una media
de 0,05 segundos para los de Medellín, 0, 1 seg. los de Cali y 0,3 seg.
los de Barranquilla.
Con base en los datos podemos asociar el evento Am al envío de
mensajes de Bogotá a Medellín, en forma equivalente definimos los
eventos Ac y Ab para las ciudades de Cali y Barranquilla. Por lo
tanto: E [X |Am ] = 0, 05, E [X |Ac ] = 0, 1 y E [X |Ab ] = 0, 3 segundos.
El valor esperado del tiempo de transmisión de los mensajes emitidos
por Bogotá se calcula con base en (11):
E [X ] = P(Am )E [X |Am ] + P(Ac )E [X |Ac ] + P(Ab )E [X |Ab ]
= (0,5)(0,05) + (0,3)(0,1) + (0,2)(0,3) = 0,115 segundos.

42/48
Condicionamiento

(Ejemplo)
Suponga que un algoritmo inteligente genera software una y otra
vez, hasta que un programa de evaluación determina que el software
generado es funcional. La probabilidad de que el software generado
sea funcional es p. Calcular la media y la varianza de X , el número
de ensayos hasta que el software funciona correctamente.
Es obvio que la distribución asociada al experimento corresponde a
la Geométrica con PMF:
pX (k) = (1 − p)k−1 p ∀ k = 1, 2, · · ·
La media y la varianza se pueden calcular por medio de las sumas:
.∞ .∞
E [X ] = k=1 k(1 − p)k−1 p, var (X ) = k=1 (k − E [X ])2 (1 − p)k−1 p
La evaluación de estas sumatorias en muchos casos es muy tedio-
sa, por lo tanto la alternativa consiste en emplear (11) con los dos
eventos A1 y A2 , el primero asociado a que en el primer ensayo se
consigue el software funcional y A2 el complemento de A1 .
43/48
Condicionamiento
(Ejemplo - continuación)
Supongamos que el software se consigue en el primer ensayo, enton-
ces obviamente, el valor esperado del número de ensayos dado este
evento es:
E [X |X = 1] = 1
Por otro lado, si en el primer ensayo no se consigue el software,
entonces volvemos al punto de inicio, pero ya con un ensayo realizado,
por lo tanto el número esperado de ensayos adicionales es E [X ], pero
como ya se realizó un ensayo entonces:
E [X |X > 1] = 1 + E [X ]
en consecuencia (y usando 11):
E [X ] = P(X = 1)E [X |X = 1] + P(X > 1)E [X |X > 1]
= p · (1) + (1 − p)(1 + E [X ])
1
=
p
44/48
Condicionamiento

(Ejemplo - continuación)
Para la varianza procedemos en forma similar con los dos eventos
X = 1 y X > 1. Empleemos que var (X ) = E [X 2 ] − E [X ]2 , en
consecuencia:
E [X 2 |X = 1] = 1, E [X 2 |X > 1] = E [(1+X )2 ] = 1+2E [X ]+E [X 2 ]
por lo tanto:
E [X 2 ] = p · (1) + (1 − p)(1 + 2E [X ] + E [X 2 ])
= p + (1 − p)(1 + 2/p + E [X 2 ])
2 1
= 2

p p
por lo tanto la varianza de X corresponde a:
2 1 1 1−p
var (X ) = E [X 2 ] − E [X ]2 = 2 − − 2 =
p p p p2

45/48
Independencia

(Independencia de una variable de un evento)


Una variable aleatoria X es independiente de un evento A si:
P(X = x, A) = P(X = x)P(A) = pX (x)P(A) ∀ x
ahora, en términos de la probabilidad condicional y P(A) > 0, tene-
mos:
P(X = x, A) = P(A)P(X = x|A) = pX (x)P(A)
en consecuencia:
PX (x) = P(X = x) = P(X = x|A) ∀ x.
es decir que el evento A no influye en la probabilidad de X .

46/48
Independencia

(Ejemplo)
Un experimento consiste en dos lanzamientos independientes de un
moneda normal. Sea X el número de caras y A el evento de que el
número de caras es par. La PMF no condicionada de X es:

 1/4 si x = 0
PX (x) = 1/2 si x = 1
1/4 si x = 2

es claro que P(A) = 1/2. La PMF de X condicionada al evento A


es;

 1/2 si x = 0
PX |A(x|A) = 0 si x = 1
1/2 si x = 2

Como PX (x) )= PX |A(x|A), entonces los eventos X y A no son


independientes.

47/48
Independencia
(Independencia de variables aleatorias)
Dos variables aleatorias X e Y son independientes si:
PX ,Y (x, y ) = PX (x)PY (y ) ∀ x, y
y en froma equivalente a la independencia con eventos tenemos:
PX (x) = PX |Y (x|y ) ∀ x, y con PY (y ) > 0
Por otro lado, si X e Y son dos variables independientes, entonces:
E [XY ] = E [X ]E [Y ]
lo que se demuestra de la siguiente forma:
$$
E [XY ] = xypX ,Y (x, y )
x y
$$
= xypX (x)pY (y )
x y
$ $
= xpX (x) yPY (y ) = E [X ]E [Y ]
x y
La extensión de la independencia a varias variables es directa.
48/48

También podría gustarte