Probabilidad PDF
Probabilidad PDF
Probabilidad PDF
Resumen
Este trabajo fue motivado por el curso de Probabilidad I, impartido
por el Dr. Raul Montes De Oca del Departamento de Matematicas de la
UAM-I, en el trimestre 07-I
VARIABLES ALEATORIAS
1. VARIABLES ALEATORIAS DISCRE-
TAS
1.1. Variable Aleatoria Binomial
Sea ǫ un experimento aleatorio tal que
Ω ={exito, fracaso}
p = P [{exito}]
Observación 1. P [fracaso}] = 1 − p
X =número de exitos en las n repeticiones independientes de ǫ
Notación: X ∼ B(n, p)
Observación 2.
n
X n
X
P [X = k] = Ckn pk (1 − p)n−k = (p + (1 − p))n = 1
k=0 k=0
1
Ejemplo 1. I) Sea m una moneda con P ({aguila}) = 32 , P ({sol}) = 13
Suponga que lanzamos la moneda 100 veces, de manera independien-
te
¿cual es la probabilidad de obtener 2 aguilas o mas?
„ «
2
X ∼ B 100,
3
P [X ≥ 2] = 1 − P [X < 2]
= 1 − (P [X = 0] + P [X = 1])
„ «100 „ « „ «99
1 2 1
= 1− − 100
3 3 3
X ∼ B (4, 0,99)
P [X ≥ 2] = P [X = 2] + P [X = 3] + P [X = 4]
= C24 (0,99)2 (0,01)2 + C34 (0,99)3 (0,01) + C44 (0,99)4
„ «k „ «n−k
M M
P [X = k] = Ckn 1−
N N
2
III) Un sistema de protección contra misiles esta construido con n uni-
dades de radar que funcionan de forma independiente, cada uno con
una probabilidad de 0.9 de detectar un misil.
a) Si n = 5 y pasa un misil, ¿cual es la probabilidad de que 4 uni-
dades lo detecten?
!
5
P [X = 4] = (0,9)4 (0,1) = 0,32805
4
b) ¿cual debe ser el valor de n para que la probabilidad de dectar un
misil sea 0.999?
0,999 = P [X ≥ 1]
= 1 − (1 − 0,9)n
(1 − 0,9)n = 1 − 0,999
(0,1)n = 0,001
log(0,001)
n =
log(0,1)
= 3
θ(x)
lı́m =0
x→0 x
Sea a ∈ R. Entonces
lı́m [1 + ax + θ(x)]1/x = ea
x→0
3
Teorema 1 (Poisson). Sea Xn ∼ B(n, Pn ) n = 1, 2, . . .
Supongangase que lı́mn→+∞ Pn = 0 y que lı́mn→+∞ nPn = λ > 0
Entonces
λk e−λ
P [Xn = k] → k = 0, 1, 2, . . .
k!
Demostración. Como n · Pn → λ cuando n → ∞
entonces
g(n) = n · Pn − λ → 0 cuando n → ∞
Por otro lado
n · Pn − λ = g(n) ⇒ Pn = g(n)n
+nλ
g(n)
en particular n → 0 cuando n → ∞
Luego utilizando la hipotesis Xn ∼ B(n, Pn ) tenemos que
„ « „ « „ «−k
1 1 k−1 1 λ g(n)
P [Xn = k] = 1− ··· 1 − (λ + g(n))k (1 − λx − xg(n)) x 1 − −
k! n n n n
λ −λ
∴ lı́mn→∞ P [Xn = k] = k!
e
k
Observación 4. a) 0 ≤ λk! e−λ ≤ 1 ∀k = 0, 1, . . .
P+∞ λk −λ P λk
b) k=1 k! e = e−λ +∞k=1 k! = 1
Observación 5.
+∞ m
X z
ez = , z∈R
m!
k=1
λk −λ
P [X = k] = e
k!
X[Ω] = {0, 1, 2, . . .}
Notación: X ∼ P[λ]
4
Ejemplo 2. En una carretera ocurren en promedio 2 accidentes por dia
λ=2
X ∼ P[2]
P [X = 0] = e−2 = 0,1353
II) ¿cual es la probabilidad de que ocurra al menos 1 accidente?
P [4 < X ≤ 7] = P [X = 5] + P [X = 6] + P [X = 7]
25 −2 26 −2 27 −2
= e + e + e
5!
„ 6! 7!«
32 64 128
= + + e−2
120 720 5040
= 0,051556298
X ∼ B(10000, 0,0004)
λ = (10000)(0,0004) = 4
P [X > 5] ≈ 1 − (P [X = 0] + P [X = 1] + · · · + P [X = 5])
„ 0 «
−4 4 41 42 43 44
= 1−e + + + +
0! 1! 2! 3! 4!
= 0,2151
5
Observación 6. ω ∈ Ω ⇔ Ω = (exito ó fracaso, exito ó fracaso, . . .)
X : Ω′ → R
X =número de repeticiones de ǫ hasta obtener exito por vez primera
P [X = k] = (1 − p)k−1 p
X[Ω′ ] = {1, 2, 3, . . .}
Notación: X ∼ G[p]
Observación 7.
+∞ +∞ +∞
!
X X X 1
P [X = k] = p(1 − p)k−1 = p (1 − p)k−1 =p =1
1 − (1 − p)
k=1 k=1 k=1
P [X ≥ 3] = 1 − P [X = 1] − P [X = 2]
= 1 − (0,20) − (0,8)(0,20)
= 0,64
6
Ejemplo 6. Suponga que un joven envia muchos mensajes por é-mail a
su prometida, pero ella solo responde el 5 % de los mensajes que recibe.
¿cuantos correos debera este insistente joven enviar a su novia para tener
una probabilidad de por lo menos 0.8 de que por fin uno de ellos sea
respondido?
p = 0,05
(1 − p)n ≤ 1 − 0,8
= 0,2
log(0,2)
n ≥
log(0,95)
= 31,38
7
1.4. Función de distribucion acumulativa
Sea X una variable aleatoria discreta
Definimos la funcion de distribucion acumulativa de X como la función
FX : R → R dada por:
X
FX := P [X ≤ x] = P [X = k], x∈R
k∈X[Ω]:k≤x
Ejemplo 7. Hallar FX :
X ∼ B(3, 12 )
` 1 ´3
k P [X = k] = Ck3 · 2
= Ck3 · 1
8
1
0 8
3
1 8
3
2 8
1
3 8
P [X = k]
8
>
> 0 si x<0
< 18
>
> si 0≤x<1
4
FX = 8
si 1≤x<2
> 7
>
>
> 8
si 2≤x<3
:
1 si x≥3
8
FX
Y1 [Ω] = {0, 1}
P [Y1 = 0] = P [X2 = 0] = P [X = 0] = 12
P [Y1 = 1] = P [X2 = 1] = P [X = 1] + P [X = −1] = 1
6
+ 1
3
= 1
2
II) Hallar la función de probabilidad puntual de Y2 = 3X + 1
Y2 [Ω] = {−2, 1, 4}
1
P [Y2 = −2] = P [3X + 1 = −2] = P [X = −1] = 3
P [Y2 = 1] = P [3X + 1 = 1] = P [X = 0] = 12
P [Y2 = 4] = P [3X + 1 = 4] = P [X = 1] = 61
9
Ejemplo 9. X ∼ G( 21 )
0 si X toma un valor par
Y=
1 si X toma un valor impar
Hallar la función de probabilidad puntual de Y
Y[Ω] = {0, 1}
` ´2 ` ´4 ` ´6
P [Y = 0] = 12 + 21 + 21 + · · · = 13
` ´3 ` ´5 ` ´7
P [Y = 1] = 12 + 21 + 12 + + 21 + · · · = 2
3
Notación: X ∼ H[N, M, k]
Ejemplo 10. En una fabrica hay 1500 lavadoras de las cuales 400 son
defectuosas. Si se toman sin sustitucion 200 lavadoras al azar, ¿cual es la
probabilidad de que al menos una de las 200 lavadoras sea defectuosa?
P [X ≥ 1] = 1 − P [X = 0]
1100
C200
= 1− 1500
C200
10
2. ESPACIOS DE PROBABILIDAD Y
VARIABLES ALEATORIAS
Definición 1. Sean Ω un conjunto y F una familia de subcon juntos de
Ω
Diremos que F es una σ-álgebra de subconjuntos de Ω si:
a) ∅, Ω ∈ F
b) si A ⊂ F entonces Ac ∈ F;
y
c) A1 , A2 , . . . ∈ F, entonces
∪+∞
n=1 An ∈ F
Demostración. a) Como ∅, Ω ∈ Fi i = 1, 2
entonces
∅, Ω ∈ F1 ∩ F2
b) Sea A ⊂ F1 ∩ F2 entonces Ac ∈ F1 y Ac ∈ F2
luego entonces
Ac ∈ F 1 ∩ F 1
c) Sean A1 , A2 , . . . ∈ F1 ∩ F2 , entonces
A1 , A 2 , . . . ∈ F 1
A1 , A 2 , . . . ∈ F 2
entonces
∪+∞
n=1 An ∈ Fi i = 1, 2
por lo tanto
∪+∞
n=1 An ∈ F1 ∩ F2 i = 1, 2
11
Definición 2. Sea Ω un subconjunto y F una σ-álgebra de subconjuntos
de Ω
Diremos que
p : F : [0, 1]
es una medida de probabilidad sobre F si:
a) P [Ω]=1;
y
b) si A1 , A2 , . . . ∈ F y son ajenos , entonces
+∞
` ´ X
P ∪+∞
n=1 An = P (An )
n=1
[X ≤ x] := {ω ∈ Ω : X(ω) ≤ x} ∈ F
∀x ∈ R
Observación 10. [X ≤ x] = {ω ∈ Ω : X(ω) < x} = ∪+∞ 1
i=1 [X ≤ x− n ] ∈ F
Definición 4. Diremos que X es una variable aleatoria discreta si
X[Ω] := {X(ω) : ω ∈ Ω}
es un conjunto finito o numerable
Para una variable aleatoria discreta, con rango X[Ω] = {x1 , x2 , . . .} se
define la función de probabilidad puntual como:
PX ({xi }) := P [X = xi ], ∀i = 1, 2, . . .
Observación 11. a) 0 ≤ PX ({xi }) ≤ 1 ∀i = 1, 2 . . .
P+∞ P+∞
b) i=1 PX ({xi }) = i=1 P [X = xi ] = 1
P [X = x] = 0 ∀x ∈ R
Observación 12. Igual que en el caso discreto, se puede definir la función
de distribucion acumulativa asociada a una variable aleatoria continua
como
F : R → R, dada F (x) = P [X ≤ x] ∀x ∈ R (esta funcion F cumple
con las propiedades obtenidas para el caso discreto)
(i) como P [X = x] = F (x) − F (− x) = 0 ⇒ F es continua
(ii) Notese que P [X ∈ R] = 1 y que no puede estar ”soportada”por un
conjunto finito o numerable
si A = {y1 , y2 , . . .}
⇒ P [X ∈ A] = P [X = y1 ] + P [X = y2 ] + · · · = 0
12
(iii) Sean a, b ∈ R, a < b
13
2.2. Ejemplos de variables aleatorias continuas
1. Variable Aleatoria Uniforme
a, b ∈ R, a < b
1
b−a
si x ∈ [a, b]
f (x) =
0 si x ∈
/ [a, b]
Notación: X ∼ U [a, b]
Ejemplo 12. El tiempo medido en minutos en que cierta persona
invierte en ir de la estacion de su casa al tren es un fenomeno alea-
torio que sigue una ley de probabilidad uniforme en el intervalo de
20-25. ¿cual es la probabilidad de que alcance el tren que sale de la
estacion a las 7:28 AM en punto si deja su casa exactamente a las
7:05 AM
X ∼ U (20, 25)
14
2. Variable Aleatoria Exponencial
Sea λ > 0
λ exp−λx si x ≥ 0
f (x) =
0 si x < 0
Notación: T ∼ exp[λ]
Ejemplo 13. Supongase que un sistema contiene cierto tipo de com-
ponente cuya duracion en años está dada por una variable aleatoria
distribuida en forma exponencial con λ = 51 . Si se instalan 5 de estos
componentes en diferentes sistemas, ¿cual es la probabilidad de que
por lo menos 2 funcionen 8 años ó mas?
[Supongase que estos componentes son independientes unos de otros]
» –
1
T ∼ exp
5
Z +∞
1 − 15 x
P [T ≥ 8] = e dx
8 5
8
= e− 5 = 0,2018
15
P [X ≥ 2] = 1 − (P [X = 0] + P [X = 1])
“ ”
8 5
“ 8”“ ”
8 4
= 1 − 1 − e− 5 − 5 e− 5 1 − e− 5
= 1 − ,323814 − 0,409577
= ,2666
Demostración.
P [T > s + t, T > s]
P [T > s + t|T > s] =
P [T > s]
P [T > s + t]
= pues [T > s + t] ⊆ [T > s]
P [T > s]
Z +∞
P [T > s] = λe−λt dt
s
= e−λs dt
por lo tanto
e−λ(s+t)
P [T > s + t|T > s] =
e−λs
= e−λt
= P [T > t]
16
3. Variable Aleatoria Normal
Observación 14. La variable aleatoria normal trata de ajustarse a
la binomial
1 − 1 (x−µ)2
f (x) = √ e 2σ2 (1)
2πσ
Definición 7. Una variable aleatoria X con densidad dada por 1
será llamada variable aleatoria normal con parametros µ y σ 2 se
denota
X ∼ N (µ, σ 2 )
Observación 15. X[Ω] = R
P [0 ≤ X ≤ z] = φ(z) =Área bajo la curva normal estándar de 0 a z
3.1.10
17
CALCULO DE PROBABILIDADES CON LA NOR-
MAL
a) X∗ ∼ N (0, 1)
X∗ =Normal estándar (centrada por el eje de las y’s)
Ejemplo 14. I) P [0 ≤ X∗ ≤ 1,42] = φ(1,42) =.4222
18
IV) P [0,65 ≤ X∗ ≤ 1,26] = φ(1,26) − φ(0,65) =.1540
19
VII) determine a tal que P [−a ≤ X∗ ≤ −0,5] = 0,004
entonces
X−µ
Proposición 2. Si Y := σ
entonces
Y ∼ N (0, 1)
Demostración.
FY (y) = P [Y ≤ y]
» –
X−µ
= P ≤y
σ
= P [X ≤ σy + µ]
Z σy+µ
1 − 1 (t−µ)2
= √ e 2σ2 dt
−∞ 2πσ
sea ξ := σ1 t − σµ
entonces dξ := σ1 dt
por lo tanto
Z σy+µ
1 − 1 (t−µ)2
FY (y) = √ e 2σ2 dt
−∞ 2πσ
Z y
1 1 2
= √ e− 2 ξ dξ
−∞ 2π
1 1 2
= √ e− 2 y y∈R
2π
20
Ejemplo 15. Sea X ∼ N (0,25, (0,02)2 )
hallar
I) P [X ≤ 0,2] ∼ P [X∗ ≤ 0,2−0,25
0,02
] = 12 − φ(2,5) = 0,0062
0,28−0,25
II) P [X ≥ 0,28] ∼ P [X∗ ≥ 0,02
] = 1
2
− φ(1,5) = 0,0668
III) P [0,2 ≤ X ≤ 0,28]
» –
0,2 − 0,25 X − 0,25
P [0,2 ≤ X ≤ 0,28] ∼ P ≤ ≤ 1,5
0,02 0,02
= P [−2,5 ≤ X∗ ≤ 1,5]
= φ(2,5) + φ(1,5)
= 0,4938 + 0,4332
= 0,927
Ejemplo 16. Si X ∼ N (80, 102 )
determine
I) P [X ≤ 100] ∼ P [X∗ ≤ 100−80
10
] = 21 + φ(2) = 0,9772
∗ 80−80
II) P [X ≤ 80] ∼ P [X ≤ 10 ] = 12
III) P [75 ≤ X ≤ 100] ∼ P [ 75−80
10
≤ X∗ ≤ 100−8010
] = φ(2) + φ(0,5) =
,6687
IV) P [X ≥ 75] ∼ P [X∗ ≥ 75−80
10
] = 12 + φ(,5) = 0,6915
V) P [|X−80| ≤ 19,6] ∼ P [− 19,6
10
≤ X∗ ≤ 19,6
10
] = φ(1,96)+φ(1,96) = 1,95
Observación 16.
|x| ≤ a ⇔ x ∈ [−a, a]
|x| ≥ a ⇔ x ∈ (−∞, −a] ∪ [a, +∞)
Ejemplo 17. Una maquina troqueladora produce tapas de latas cuyos
diametros estan normalmente distribuidos con σ = 0,01 pulgadas.
En que valor de µ debe ajustarse la maquinaria de tal manera que el
5 % de las tapas producidas tengan diametro que excede las 3 pulgadas
D ∼ N (µ, (0,01)2 )
0,05 = P [D > 3]
» –
3−µ
∼ P D∗ >
0,01
„ «
1 3−µ
= −φ
2 0,01
21
por lo tanto
„ «
3−µ
φ = 0,45
0,01
entonces
3−µ
≈ 1,65
0,01
⇒
µ = 3 − (0,01)(1,65) = 2,9835
22
3. VARIABLES ALEATORIAS (BIDIMEN-
SIONALES)
Sea ǫ un experimento aleatorio con espacio de probabilidad (Ω, F, P )
Sea X : Ω → R2 , X = (X, Y) una funcion ω 7→ X(ω) = (X(ω), Y(ω))
Definición 8. Diremos que X es un vector aleatorio (bidimensional) si
[X ≤ x, Y ≤ y] ∈ F ∀x, y ∈ R
[X ≤ x, Y ≤ y] := {ω ∈ Ω : X(ω) ≤ x, Y(ω) ≤ y}
I. Caso discreto
Definición 9. Diremos que X es un vector aleatorio discreto si
PX ({(xi , yj )}) := P [X = xi , Y = yi ]
= P [{ω ∈ Ω : X(ω) = xi , Y = yj }]
Propiedades
0 ≤ PX ({(xi , yj )}) ≤ 1 ∀i, j
!
XX X X
PX {(xi , yj )} = P [X = xi , Y = yj ]
j i j i
X
= P [Y = yi ]
j
= P [Ω] = 1
X
P [X = xi ] = P [X = xi , Y = yj ], ∀i
j
X
P [Y = yj ] = P [X = xi , Y = yj ], ∀j
i
P [X = xi , Y = yj ]
P [X = xi |Y = yj ] :=
P [Y = yj ]
P [X = xi , Y = yj ]
P [Y = yj |X = xi ] :=
P [X = xi ]
23
Independencia
Definición 10. X y Y son independientes ssi
P [X = xi , Y = yj ] = P [X = xi ]P [Y = yj ] ∀i, j
X
Y 0 1 2 3 P [X = x]
1 2 3 6
0 0 42 42 42 42
Ejemplo 18. 2 3 4 5 14
1 42 42 42 42 42
4 5 6 7 22
2 42 42 42 42 42
6 9 12 15
P [Y = y] 42 42 42 42
X[Ω] = {0, 1, 2}
Y[Ω] = {0, 1, 2, 3}
Ejemplo 19.
3
P [X = 1, Y = 1] = PX ({(1, 1)}) =
42
Ejemplo 20.
P [X > Y] = P [{(1, 0), (2, 0), (2, 1)}]
2 4 5
= + +
42 42 42
11
=
42
Ejemplo 21.
6
P [X < 1] = P [X = 0] =
42
Ejemplo 22.
P [X = 0, Y = 1]
P [X = 0|Y = 1] =
P [Y = 1]
1/42
=
9/42
1
=
9
Ejemplo 23.
P [X = 1, Y = 1]
P [X = 1|Y = 1] =
P [Y = 1]
3/42
=
9/42
3
=
9
24
Ejemplo 24.
P [X = 2, Y = 1]
P [X = 2|Y = 1] =
P [Y = 1]
5/9
=
1
5
=
9
Observación 17.
1 3 5
P [X = 0|Y = 1] + P [X = 1|Y = 1] + P [X = 2|Y = 1] = + +
9 9 9
= 1
P [X = 0, Y = 0] = 0
„ «2
6
6=
42
= P [X = 0] · P [Y = 0]
∴ X, Y no son independientes
II. Caso Continuo
Definición 11. Diremos que X es un vector aleatorio continuo si
P [X = x, Y = y] = 0 ∀x, y
FX (x, y) := P [X ≤ x, Y ≤ y] ∀x, y
entonces
Z
PX (A) = f, A ∈ B(R2 ) (veáse ejemplo 11)
A
25
Ejemplo 25. Sea X = (x, y) con densidad
e−y si x ≥ 0, y > x
f (x, y) =
0 en otro caso
Z Z ∞ „Z +∞ «
f = f (x, y)dy dx
R2 0 x
Z ∞ „Z +∞ «
= e−y dy dx
Z0 ∞ x
−x
= e dx
0
= 1
Z +∞
fX (x) = f (x, y)dy, x ∈ X[Ω]
−∞
Z +∞
fY (y) = f (x, y)dx, y ∈ Y[Ω]
−∞
Ejemplo 26. Sea f (x, y) la función de densidad dada en el ejemplo
25
entonces
Z +∞
fX (x) = f (x, y)dy, x ∈ [0, +∞)
x
Z +∞
= e−y dy
x
−x
= e , x≥0
26
Z y
fY (y) = f (x, y)dx, y ∈ [0, +∞)
Z0 y
= e−y dx
0
= ye−y , y≥0
Independencia
Definición 13. X y Y son independientes sii
f (0, 0) = 1
6= 0
= fX (0) · fY (0)
Calculo de Probabilidades
Ejemplo 28. Sea f (x, y) la función de densidad dada en el ejemplo
25
P [X ≥ 1, Y ≥ 2]
P [X ≥ 1|Y ≥ 2] =
P [Y ≥ 2]
27
Z Z
P [X ≥ 1, Y ≥ 2] = f (x, y)dydx
Z ∞ Z y
= e−y dxdy
2 1
Z +∞
= (ye−y − e−y )dy
2
Z +∞ Z +∞
−y
= ye dy − e−y dy
2 2
= 3e−2 − e−2
= 2e−2
Z ∞
P [Y ≥ 2] = fY (y)dy
Z2 ∞
= ye−y dy por ejemplo 26
2
» Z ∞ –∞
= −ye−y + e−y dy
2 2
ˆ −y −y ˜∞
= −ye −e 2
= 2e−2 + e −2
= 3e−2
Observación 20.
y
lı́m ye−y = lı́m
y→+∞ y→+∞ ey
1
= lı́m regla de L’Hopital
y→+∞ ey
= 0
entonces
P [X ≥ 1, Y ≥ 2]
P [X ≥ 1|Y ≥ 2] =
P [Y ≥ 2]
2e−2
=
3e−2
2
=
3
28
3.0.6. Densidades Condicionales
f (x,y)
fY|X (y|x) := fX (x)
, fX (x) > 0
f (x,y)
fX|Y (x|y) := fY (y)
, fY (y) > 0
29
Ejemplo 29. Sea f (x, y) la función de densidad dada en el ejemplo 25
Sea x ≥ 0 fijo
f (x, y)
fY|X (y|x) =
fX (x)
e−y
= por ejemplo 26
e−x
−(y−x)
= e
f (x, y)
fX|Y (x|y) =
fY (x)
e−y
= por ejemplo 26
ye−y
1
=
y
30
PROBLEMA 21. Supongamos que el vector aleatorio discreto (X, Y)
está definido por
X
Y 1 2 3
1 1
1 2 6
0
1 1
2 0 9 5
1 1 2
3 8 4 15
31
3.0.7. Densidades de funciones de variable aleatoria
Ejemplo 30. Supóngase que X ∼ U [0, 1]. Encuentre la densidad de Y =
4X2 + 2
(g(x) = 4x2 + 2, x ∈ R)
Solución 22. a) Determinar el rango de Y
Y[Ω] = [2, 6]
Observación 23. fuera de es este rango mide 0
b) Sea y ∈ [2, 6] fijo
Observación 24.
y ∈ [2, 6] ⇔ 2≤y≤6
⇔ 0≤y−2≤4
y−2
⇔ 0≤ ≤1
4
FY (y) = P [Y ≤ y]
= P [4X + 2 ≤ y]
» –
y−2
= P X2 ≤
4
" r #
y−2
= P |X| ≤
4
" r r #
y−2 y−2
= P − ≤X≤
4 4
q
Z y−2 r
4 y−2
= 1 · dt =
0 4
32
Conclusión Si y ∈ [2, 6], entonces
1
(y − 2) 2
FY (y) =
2
⇒
33
Ejemplo 31. Supongase que X ∼ U [0, 1]. Encuentre la densidad de Z =
eX
Solución 25. a) Determinar el rango de Z
Z[Ω] = [1, e]
Observación 26. fuera de es este rango mide 0
b) Sea z ∈ [1, e] fijo
Observación 27.
z ∈ [1, e] ⇔ 1≤z≤e
⇔ 0 ≤ ln z ≤ 1
FZ (z) = P [Z ≤ z]
= P [exp[X] ≤ z]
= P [X ≤ ln z]
Z ln z
= 1 · dt = ln z
0
34
Conclusión Si z ∈ [1, e], entonces
FZ (z) = ln z
35
Ejemplo 32. Sea X ∼ U [−1, 1]. Hallar la densidad de Y = 5X3 + 3
Solución 28. a) Determinar el rango de Y
Y[Ω] = [−2, 8]
Observación 29. fuera de es este rango mide 0
b) Sea y ∈ [−2, 8] fijo
Observación 30.
y ∈ [−2, 8] ⇔ −2 ≤ y ≤ 8
⇔ −5 ≤ y − 3 ≤ 5
y−3
⇔ −1 ≤ ≤1
5
FY (y) = P [Y ≤ y]
= P [5X3 + 3 ≤ y]
» –
y−3
= P X3 ≤
5
" r #
3 y − 3
= P X≤
5
q
Z 3 y−3 r
5 1 1 3 y−3
= · dt =
0 2 2 5
36
Conclusión Si y ∈ [−2, 8]\{3}, entonces
„ «1
1 (y − 3) 3
FY (y) =
2 5
⇒
37
3.0.8. Densidades de la suma y del producto de variables
aleatorias independientes
Sean Z := X + Y
Densidad de la suma
FZ (z) = P [Z ≤ z] z fijo
= P [X + Y ≤ z]
Z Z
= fX (x, y)dydx
x+y≤z
Z Z
= f (x) · g(y)dydx independencia
x+y≤z
Z +∞ „Z z−x «
= f (x) · g(y)dy dx
−∞ −∞
Z +∞ „Z z−x «
= f (x) g(y)dy dx
−∞ −∞
Z +∞ „Z z «
= f (x) g(u − x)du dx cambio de variable: u = y + x
−∞ −∞
Z z „Z +∞ «
= f (x)g(u − x)dx du T. Fubini
−∞ −∞
⇒
R +∞
FZ′ = −∞ f (x)g(z − x)dx
∴
Z +∞
convolución: fX+Y (z) = f (x)g(z − x)dx
−∞
38
Ejemplo 33. Sean X ∼ exp(λ1 ), Y ∼ exp(λ2 ). Suponga que X y
Y son independientes y que λ1 6= λ2
Hallar fX+Y
λ1 e−λ1 x si x ≥ 0
f (x) =
0 en otro caso
λ2 e−λ2 y si y ≥ 0
g(y) =
0 en otro caso
entonces
x ≥0
z ≥x pues y = z − x ≥ 0
(X + Y)[Ω] = [0, ∞)
Z z
fX+Y (z) = λ1 e−λ1 x · λ2 e−λ2 (z−x) dx convolución
0
Z z
= λ1 λ2 e−λ2 z e−x(λ1 −λ2 ) dx
0
λ1 λ2 −λ2 z “ −z(λ1 −λ2 ) ”
= − e e −1
λ1 − λ2
λ1 λ2 “ −λ1 z ”
= e − e−λ2 z
λ2 − λ1
39
Densidad del producto
Z +∞
1
fX·Y (z) = f (x) · g(z/x) dx (2)
−∞ |x|
Ejemplo 34. Supóngase que X y Y tienen densidades
2x si 0 < x < 1
f (x) =
0 en otro caso
y 2 /9 si 0 < y < 3
g(y) =
0 en otro caso
respectivamente
0<y<3
1 z
3
z<x pues y = x
<3
X · Y = [0, 3]
40
Sea z ∈ (0, 3)
Z 1
z2 1 1
fX·Y (z) = 2x · dx
1z x2 9 x
3
Z 1
2 2 dx
= z
9 1z x2
3
„ «
2 2 3
= z −1
9 z
2` ´
= 3z − z 2
9
6i(1 − i) si 0 ≤ i ≤ 1
I : f (i) =
0 en otro caso
2r si 0 < r < 1
R : g(r) =
0 en otro caso
I, R independientes
Hallar la densidad de W = I 2 · R
I 2 [Ω] = [0, 1]
41
FI 2 (z) = P [I 2 ≤ z]
√
= P [I ≤ z]
Z z√
= 6i(1 − i)di
0
Z √ Z √
z z
= 6 idi − 6 i2 di
0 0
= 3z − 2z 3/2
entonces
3 − 3i1/2 si 0 ≤ i ≤ 1
fI 2 (i) = FI′ 2 (i) =
0 en otro caso
por otro lado
0≤i≤1
z
z<i pues r = i
<1
Z 1
z 1
FI 2 ·R = (3 − 2i1/2 )(2 ) di usando 2
z i |i|
Z 1 Z 1
1
= 6z 2
di − 4z i−3/2 di
z i z
42
3.1. ESPERANZA Y VARIANZA
3.1.1. Esperanza
Definición 14. Sea X una variable aleatoria (discreta o continua). Se
define la esperanza como
8 P
< k kP [X = k], X discreta
E[X] := R
: ∞
−∞
xfX (x)dx, X continua
Observación 32. La esperanza de X se define solo si
X
|k|P [X = k] < +∞
k
ó
Z ∞
|x|fX (x)dx < +∞
−∞
n
X
E[X] = kCkn pk (1 − p)n−k
k=0
n
X n!
= k pk (1 − p)n−k
k!(n − k)!
k=1
n
X n(n − 1)!
= pk (1 − p)n−k
(k − 1)!(n − k)!
k=1
n
X (n − 1)!
= (np) pk−1 (1 − p)n−k
(k − 1)!(n − k)!
k=1
n−1
X (n − 1)!
= (np) pz (1 − p)n−(z+1) cambio de variable: z = k − 1
z=0
z!((n − 1) − z)!
n−1
X
= (np) Czn−1 pz (1 − p)(n−1)−z
z=0
= np
Conclusión
Si X ∼ B(n, p) ⇒ E[X] = np
b) X ∼ U [a, b]
43
Z +∞
E[X] = xfX (x)dx
−∞
Z b
1
= x dx
a b − a
Z b
1
= xdx
b−a a
b 2 − a2
=
2(b − a)
a+b
=
2
Conclusión
a+b
Si X ∼ U [a, b] ⇒ E[X] = 2
` ´
Ejemplo 37. X ∼ B 3, 12 (veáse ejem-
plo 7)
⇒
3
E[X] =
2
44
3.1.2. Varianza
Definición 15. Sea X una variable aleatoria (discreta o continua) con
esperanza E[X]. Se define la varianza de X como:
8 P 2
< k (k − E[X]) P [X = k], X discreta
var(X) :=
: R∞
−∞
(X − E[X])2 fX (x)dx, X continua
Observación 33. var(X) ≥ 0
Ejemplo 38. Hallar var(X) en los casos:
a) X ∼ B(n, p)
n
X
var(X) = (k − np)2 P [X = k]
k=0
Xn n
X n
X
= k2 P [X = k] − 2np kP [X = k] + (np)2 P [X = k]
k=0 k=1 k=1
Xn
= k2 P [X = k] − (np)2 por problema 36
k=0
Xn
= k(k − 1)Ckn pk (1 − p)n−k + np − (np)2
k=2
n
X n!
= k(k − 1) p2 pk−2 (1 − p)n−k + np − (np)2
k!(n − k)!
k=2
n
X (n − 2)!
= n(n − 1)p2 pk−2 (1 − p)n−k + np − (np)2
(k − 2)!(n − k)!
k=2
n−2
X (n − 2)!
= n(n − 1)p2 pz (1 − p)n−2−z + np − (np)2 c.v: z = k − 2
z=0
z!((n − 2) − z)!
n−2
X
= n(n − 1)p2 Czn−z pz (1 − p)(n−2)−z + np − (np)2
z=0
Conclusión
Si X ∼ B(n, p) ⇒ var(X) = np(1 − p)
b) X ∼ U [a, b]
45
Z +∞ „ «2
a+b
var(X) = x− fX (x)dx
−∞ 2
Z +∞ Z +∞
(a + b)2
= x2 fX (x)dx − (a + b) xfX (x)dx +
−∞ −∞ 4
Z b 2 2
1 (a + b) (a + b)
= x2 dx − +
a b − a 2 4
1 (a + b)2
= (b3 − a3 ) −
3(b − a) 4
(b − a)(b2 + ab + a2 ) (a + b)2
= −
3(b − a) 4
4b2 + 4ab + 4a2 − 3a2 + 6ab − 3b2
=
12
b2 − 2ab + a2
=
12
(b − a)2
=
12
Conclusión
(b−a)2
Si X ∼ U [a, b] ⇒ var(X) = 12
46
3.1.3. Esperanza de funciones de variables aleatorias
Definición 16. Supongamos Y := g ◦ X = g(X), entonces
8 P
< k∈Y[Ω] kP [Y = k], Y discreta
E[Y] = E[g(X)] =
: R∞
−∞
yfY (y)dy, Y continua
FY (y) = P [Y ≤ y]
= P [X2 ≤ y]
√ √
= P [− y ≤ X ≤ y]
Z y√
1
= 2 dx
0 2
√
= y
Observación 34.
y ∈ [0, 1] ⇔ 0≤y≤1
√
⇔ 0≤ y≤1
√
y análogamente −1 ≤ − y ≤ 0
entonces
8 1
< √ ,
2 y
0<y≤1
fY (y) =
:
0, en otro caso
Z +∞
E[Y] = yfY (y)dy
−∞
Z 1
1
= y √ dy
0 2 y
Z 1
1 1
= lı́m y 2 dy
2 ǫ→0 ǫ
1 2
= · lı́m (1 − ǫ3/2 )
2 3 ǫ→0
1
=
3
47
Teorema 2. Supongamos Y = g(X), entonces
8 P
< k∈X[Ω] g(k)P [X = k], X discreta
E[Y] = E[g(X)] :=
: R∞
−∞
g(x)fX (x)dx, X continua
Ejemplo 40.
E[Y] = E[X2 ]
Z +∞
= x2 fX (x)dx
−∞
Z 1
1
= x2 dx
−1 2
1
=
3
Observación 35.
8 P 2
< k (k − E[X]) P [X = k], X discreta
var(X) :=
: R∞
−∞
(X − E[X])2 fX (x)dx, X continua
2
= E[(X − E[X]) ]
(g(x) = (x − E[X])2 , x ∈ R)
8 P P
< x y g(x, y)P [X = x, Y = y], X, Y discreta
E[g(X, Y)] :=
: R∞ R∞
−∞ −∞
g(x, y)fX (x, y)dxdy, (X, Y) continua
48
3.1.5. Propiedades de la Esperanza
1. Si X = c, entonces
E[X] = c
Observación 36. X = c
⇔
X[Ω] = {c}
P [X = c] = 1
2. Si c es constante, entonces
E[cX] = cE[X]
3. E[X + Y] = E[X] + E[Y]
Demostración. Sea
g(x, y) = x + y, ∀(x, y) ∈ R2
X + Y = g(X, Y)
⇒
49
Demostración. Sea
g(x, y) = x · y, ∀(x, y) ∈ R2
X · Y = g(X, Y)
⇒
var(X + c) = var(X)
Demostración.
var(cX) = c2 var(X)
50
Demostración.
Demostración.
51
Ejemplo 41. Suponga que X y Y son variables aleatorias independientes
con densidades:
f (x) = x83 , x > 2;
g(y) = 2y, 0 < y < 1
a) Encuentre la densidad de Z = XY
primero observe que
z
z = xy ⇒ y =
x
de donde 0 < y < 1 ⇒ 0 < z < x
8 8
< x3
si x > 2
f (x) =
:
0 en otro caso
8
< 2y si 0 < z < x
g(y) =
:
0 en otro caso
Sea z ∈ [0, ∞]
Z ∞ „ «
8 2z 1
fXY (z) = dx
x3 x |x|
Z2 ∞
16z
= dx
2 x5
16z
=
4(2)4
z
=
4
Sea z ∈ [2, ∞]
52
Z ∞ „ «
8 2z 1
fXY (z) = dx
x3 x |x|
Zz ∞
16z
= dx
z x5
4
=
z3
por lo tanto
8 z
< 4
si 0 ≤ z < 2
fXY (z) =
: 4
z3
si z > 2
b) Obtenga E[Z] de dos maneras:
i) Usando la densidad de Z
Z +∞
E[Z] = zfZ (z)dz
−∞
Z 2 Z +∞
z 4
= z dz + z dz
0 4 2 z3
Z 2 Z +∞
1 2
= z dz + 4 z −2 dz
4 0 2
8
=
3
ii) Directamente, sin usar la densidad de Z
E[Z] = E[XY]
= E[X]E[Y]
„Z ∞ « „Z 1 «
8
= x 3 dx y(2y)dy
2 x 0
„ Z ∞ «„ Z 1 «
−2
= 8 x dx 2 y 2 dy
2 0
8
=
3
53
Ejemplo 42. Suponga que X es una variable aleatoria tal que E[X] = 10
y var(X) = 25
¿Para que valores positivos de a y de b tiene Y = aX − b esperanza
cero y varianza 1?
1 = var(Y)
= var(aX − b)
= var(aX)
= a2 · var(X)
= a2 · 25
entonces
1
a=
5
0 = E[Y]
= E[aX − b]
= a · E[X] − b
1
= · 10 − b
5
entonces
b=2
54
3.1.7. Desigualdad de Chebyschev
Sea X una variable aleatoria con esperanza y varianza, ambas finitas.
Entonces para cada δ > 0, se cumple
var(X)
P [|X − E[X]| < δ] ≥ 1 − (3)
δ2
Observación 37.
var(X)
1− ≤ P [|X − E[X]| < δ] ≤ 1
δ2
Demostración. Supongase que X es continua
= δ 2 P [|X − E[X]| ≥ δ]
= δ 2 (1 − P [|X − E[X]| < δ])
var(X)
P [|X − E[X]| < δ] ≥ 1 −
δ2
Observación 38. Sea X una variable aleatoria tal que var(X) = 0. En-
tonces X ≡ E[X]
55
3.1.8. Ley debil de los grandes números
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente
distribuidas
Supongase que X1 tiene esperanza y varianza finitas. Denotemos, para
cada n = 1, 2, 3, . . .
Sn := X1 + X2 + · · · + Xn
Entonces para cada δ > 0 tenemos
»˛ ˛ –
˛ Sn ˛
lı́m P ˛˛ − E[X1 ]˛˛ < δ = 1
n→∞ n
Sn
(para n grande n
≈ E[X1 ])
»˛ ˛ –
˛ Sn ˛
P ˛
˛ − E[X1 ]˛˛ < δ = P [|Sn − n · E[X1 ]| < n · δ]
n
var(Sn )
≥ 1− usando la desigualdad de chebyschev
n2 δ 2
n · var(X1 )
= 1−
n2 · δ 2
var(X1 )
= 1−
n · δ2
por tanto, para cada n = 1, 2, . . .
»˛ ˛ –
˛ Sn ˛ var(X1 )
1 ≥ P ˛˛ − E[X1 ]˛˛ < δ ≥ 1 −
n n · δ2
se sigue entonces que cuando n → ∞:
»˛ ˛ –
˛ Sn ˛
lı́m P ˛˛ − E[X1 ]˛˛ < δ = 1
n→∞ n
56
3.1.9. Ley fuerte de los grandes números
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente
distribuidas
Supongase que X1 tiene esperanza finita
Entonces,
Sn
→ E[X1 ] con probabilidad 1
n
( Snn ≈ E[X1 ], para n grande)
Observación 39. Supongase que X ∼ B(1, p), Y ∼ B(1, p), y que X y Y
son independientes
¿Cuál es la distribución probabilistica de X + Y?
(X + Y)[Ω] = {0, 1, 2}
P [X + Y = 0] = P [X = 0, Y = 0]
= (P [X = 0])2
= (1 − p)2
= C02 p0 (1 − p)2
P [X + Y = 1] = 2P [X = 0] · P [Y = 1]
= C12 p(1 − p)
P [X + Y = 2] = C22 p2 (1 − p)0
∴ X + Y ∼ B(2, p)
Observación 40. En general es posible demostrar por inducción que:
Si X1 , X2 , . . . , Xn son independientes y Xi ∼ B(1, p), ∀i = 1, 2, . . . , n,
entonces
X1 + X2 + · · · + Xn ∼ B(n, p)
57
Ejemplo 43 (frecuencia relativa). Sea ǫ un experimento aleatorio con
espacio de probabilidad (Ω, F, P )
Sea A un evento tal que p = P [A]
Para cada i = 1, 2, . . . , n sea Xi ∼ B(1, p) y suponga que X1 , X2 , . . . , Xn
son variables independientes.
observe que:
E[Xi ] = p ∀i = 1, 2, . . . , n
Sn X1 +X2 +···+Xn
n
= n
(frecuencia relativa de A)
pues Sn = X1 + X2 + · · · + Xn ∼ B(n, p)
por la ley de los grandes números
Sn
→ p = P (A), con probabilidad 1
n
Sn − E[Sn ]
p ≈ X∗
var(Sn )
Observación 42. El teorema anterior se puede interpretar para X∗ ∼
N (0, 1) como sigue:
" #
Sn − E[Sn ]
lı́m P p ≤ x = P [X∗ = x]
n→∞ var(Sn )
Observación 43. var(X) = 0 ⇒ X constante
Observación 44.
" #
Sn − E[Sn ] 1
E p = p E[Sn − E[Sn ]]
var(Sn ) var(Sn )
1
= p (E[Sn ] − E[Sn ])
var(Sn )
= 0
58
!
Sn − E[Sn ] 1
var p = p var(Sn − E[Sn ])
var(Sn ) var(Sn )
1
= p var(Sn )
var(Sn )
= 1
X = Sn = X1 + · · · + Xn
Xi ∼ B(1, p), ∀i = 1, 2, . . . , n
X1 , . . . , Xn son independientes
Ejemplo 44 (Aproximacion normal a la Binomial). Sea X ∼ B(900, 12 )
entonces
E[X] = (900)( 21 ) = 450
var(X) = (900)( 21 )(1 − 21 ) = 225
X = S900 por observación 40
59
PROBLEMA 46. Al sumar números, una computadora aproxima cada
número al entero mas próximo. Supongase que todos los errores de apro-
ximación son independientes y que están distribuidos uniformemente en
[-0.5,0.5]. Si se suman 1500 números, ¿cuál es la probabilidad de que el
valor absoluto del error total exceda a 15?
Solución 47.
8
< Xi = errores de aproximación i = 1, 2, . . . , 1500
:
Xi ∼ U [−0.5, 0.5] ∀i = 1, 2, . . . , 1500
S1500 = X1 + · · · + X1500
PROBLEMA 48. Supongase que los tiempos de espera para los clientes
que pasan por una caja registradora a la salida de una tienda son variables
aleatorias independientes e identicamente distribuidas con esperanza 1.5
minutos y varianza 1.0
Aproxime la probabilidad de que se pueda atender a 100 clientes en
menos de 120 minutos.
Solución 49.
Xi = tiempo de espera del i-esimo cliente i = 1, 2, . . . , 100
S100 = X1 + · · · + X100
120 − 150
P [S100 ≤ 120] ≈ P [X∗ ≤ ]
10
∗
= P [X ≤ 3]
1
= + φ(3)
2
= 0.9974
60
PROBLEMA 50. Supongase que tenemos 20 voltajes vi , i = 1, 2, . . . , 20
con ruido independiente
P que se reciben en lo que se llama un ”sumador
de voltaje”. Sea V = 20
i=1 vi donde se supone que vi ∼ U [0, 10] para toda
i = 1, . . . , 20
S20 = V
61
PROBLEMA 52. a) Sea c una constante y X una variable aleatoria
con E[X] = µ y var(X) = σ 2
Demuestre que
b) c = µ
PROBLEMA 54. Construya un ejemplo de una distribución de proba-
bilidad cuya esperanza exista pero su varianza no (es decir esperanza finita
y varianza infinita)
Observación 55. Sea X una variable aleatoria tal que la función de
probabilidad puntual esta definida según la siguiente regla:
1 1
P [X = n] = , n= 1, 2, . . .
π / 6 n2 | {z }
rango de X
entonces
+∞
X
E[X] = n · P [X = n]
n=1
+∞
X 1 1
= n·
n=1
π 2 /6 n2
+∞
1 X1
=
π 2 /6 n=1 n
= +∞
62
Observación 56.
1
Sn − E[Sn ] n
(Sn − E[Sn ])
p = 1
p
var(Sn ) n
var(Sn )
Sn
n
− E[ Snn ]
= q
1
n2
var(Sn )
Sn
n
− E[ Snn ]
= q
var( Snn )
≈ X∗ para n grande
» –
T1 + · · · + T100
E[T] = E
100
1
= E[T1 + · · · + T100 ]
100
100
= E[T1 ]
100
= E[T1 ]
1
=
λ
= 1000
s „ «
q
T1 + · · · + T100
var(T) = var
100
1 p
= var(T1 + · · · + T100 )
100
10 p
= var(T1 )
100
r
1 1
=
10 λ2
„ «
1 1
=
10 0,001
= 100
63
» –
950 − 1000 ∗ 1100 − 1000
P [950 < T < 1100] ≈ P <T <
100 100
∗
= P [−0,5 < T < 1]
= 0,5328
64
Áreas bajo la curva
normal estándar
de 0 a z
z 0 2 2 3 4 5 6 7 8 9
0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.1 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.2 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.4 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.5 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.6 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.7 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.8 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.0 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.1 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.2 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.3 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.4 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.5 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.6 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.7 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.8 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.9 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.1 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.2 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.3 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.4 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.5 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.6 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.7 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.8 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.9 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.1 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.2 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.3 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.4 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.5 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
65
PROBABILIDAD
CONDICIONAL
Sea ǫ un experimento con espacio muestral Ω
Proposición 4.
Proposición 5.
P (B\A) = P (B) − P (A ∩ B)
Proposición 6.
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
n
X X X
P (A1 ∪A2 ∪· · ·∪An ) = P (Ak )− P (Ai ∩Aj )+ P (Ai ∩Ak ∩Aj )−· · ·+(−1)n−1 P (A1 ∩· · ·∩An )
k=1 i<k i<k<j
Definición 17.
P (A ∩ B)
P (A|B) :=
P (B)
Teorema 5 (Teorema de la multiplicación). Sean A1 , A2 , . . . , Am eventos
tales que P (A1 ∩ · · · ∩ Am ) > 0. Entonces
P (A1 ∩· · ·∩Am ) = P (A1 )·P (A2 |A1 )·P (A3 |A1 ∩A2 ) · · · P (Am |A1 ∩A2 ∩· · ·∩Am−1 )
Demostración. A = (A ∩ A1 ) ∪ (A ∩ A2 ) ∪ · · · ∪ (A ∩ An )
entonces
n
X n
X
P (A) = P (A ∩ Ai ) = P (A|Ai ) · P (Ai )
i=1 i=1
66
Teorema 7 (Fórmula de Bayes). Supongase las hipótesis del Teorema
anterior. Sea Ak un elemento de la partición y sea A un evento, con
P (A) > 0. Entonces
p1 = 0,2
p2 = 0,4
p3 = 0,3
B1 = { se rompieron 1 y 2 pero no el 3}
B2 = { se rompieron 1 y 3 pero no el 2}
B3 = { se rompieron 2 y 3 pero no el 1}
P (B1 ) = p1 p2 q3
P (B2 ) = p1 q2 p3
P (B3 ) = q1 p2 p3
P (B1 )P (A|B1 )
P (B1 |A) =
P (A)
p1 p2 q3
=
P (A)
= 0,2978
67
Índice
1. VARIABLES ALEATORIAS DISCRETAS 1
1.1. Variable Aleatoria Binomial . . . . . . . . . . . . . . . . . . 1
1.2. Variable Aleatoria de Poisson . . . . . . . . . . . . . . . . . 3
1.3. Variable Aleatoria Geometrica . . . . . . . . . . . . . . . . . 5
1.4. Función de distribucion acumulativa . . . . . . . . . . . . . 8
1.4.1. Propiedades de la distribución acumulativa asociada
a una variable aleatoria discreta . . . . . . . . . . . 9
1.5. Variable Aleatoria Hipergeometrica . . . . . . . . . . . . . . 10
68