Variables Aleatorias III
Variables Aleatorias III
Variables Aleatorias III
1
fX (x) = I[a,b] (x),
b−a
entonces diremos que X tiene una distribución uniforme con parámetros a y b y anotaremos
X ∼ U [a, b].
Ejemplo 1. Un punto se elige al azar sobre el segmento de lı́nea [0, 2]. ¿Cuál es la probabilidad
de que el punto escogido quede entre 1 y 3/2?
Supongamos que la variable X ∼ U [0, 1]. Entonces se nos pide
Z 3/2
dx 1
P[1 ≤ X ≤ 3/2] = = .
1 2 4
Ejemplo 2. Un programa de TV dura en total una hora y un espectador impaciente puede cambiar
de canal en cualquier momento. Supongamos que el tiempo que el espectador sintoniza un canal
preferido es una variable aleatoria X con función de distribución acumulada dada por:
0 x < 0
FX (x) = x 0 ≤ x ≤ 1
1 x ≥ 1.
a. Note que la variable X =tiempo de sintonia del canal tiene una distribución uniforme en el
intervalo [0, 1]. Es decir, X ∼ U [0, 1]. Entonces la probabilidad pedida es
b. Nos piden
P[5/6 ≤ X ≤ 1] 1/6 1
P[5/6 ≤ X ≤ 1/X > 1/2] = = = .
P[X > 1/2] 1/2 3
Xi = (aXi−1 + c) mod M,
Xi
Ui = .
M
Observación 4. Si c = 0, el generador
Xi = aXi−1 mod M
0 mod 16 = 0,
1 mod 16 = 1,
2 mod 16 = 2,
..
.
15 mod 16 = 15,
16 mod 16 = 0,
17 mod 16 = 1,
..
.
32 mod 16 = 0,
33 mod 16 = 1,
=⇒ X1 = (5X0 + 3) mod 16 = 38 mod 16 = 6. =⇒ U1 = 6/16 = 0.3750.
=⇒ X2 = (5 × 6 + 3) mod 16 = 33 mod 16 = 1. =⇒ U2 = 1/16 = 0.0625.
genera 100 números pseudoaleatorios U [0, 1]. Un histograma puede ser usado para chequear vi-
sualmente si la distribución subyacente es uniforme.
Observación 7. En R se puede usar el comando
X=runif(100,0,1)
hist(X)
para realizar el mismo proceso descrito en Matlab.
Observación 8. El siguiente código en R produce la figura que se muestra a continuación:
X=runif(100,0,1)
Y=runif(500,0,1)
Z=runif(10000,0,1)
par(mfrow=c(1,3))
hist(X)
hist(Y)
hist(Z)
50
500
12
400
10
40
8
300
Frequency
Frequency
Frequency
30
6
200
20
4
100
10
2
0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
de una distrobución U [0, 1] es posible transformarlos al intervalo general [a, b] usando la transfor-
mación X = a + (b − a)U, donde U ∼ U [0, 1]. Luego, por el teorema de transformación de variables
aleatorias que veremos más adelante es posible aseverar que X ∼ U [a, b]. Esta situación es más
general de lo que parece. En efecto, usando los números aleatorios de la distribución U [0, 1] es
posible obtener números aleatorios de varias otras distribuciones. En este sentido la distribución
uniforme juega un rol crucial en simulación.
Teorema 2. (Teorema de la Transformación Inversa) Sea X una variable aleatoria continua con
función de densidad de probabilidad FX (x). Sea Y = FX oX. Entonces
Y ∼ U [0, 1].
b n
(b − a) X
Z
g(x)dx ≈ g(Xi ), donde Xi ∼ U [a, b].
a n i=1
x=seq(0,1000,by=0.1)
y=1/sqrt(2*pi*4) exp(-x^2/8)
int=(1000-0)/length(x) *sum(y)
print(int)
En este caso el output del programa es 0.5099226, lo cual veremos más adelante es razonable
ya que corresponde a la probabilidad de que una variable normal estándar sea mayor que cero.
xα−1 e−x/β
fX (x) = I[0,+∞[ (x), α > 0, β > 0,
Γ(α)β α
entonces diremos que X tiene una distribución gama con parámetros α y β y anotaremos
X ∼ Γ(α, β).
La distribución gamma es muy flexible en cuanto a su forma. Los parámetros α y β dan cuenta
de esta propiedad.
Podemos recordar algunas propiedades de la función gama
Z ∞
Γ(α) = xα−1 e−x dx,
0
1. Γ(α + 1) = αΓ(α).
2. E[X] = αβ.
3. V[X] = αβ 2 .
Demostración. Las demostraciones son el resultado de integración directa usando el hecho que
Z ∞
xα−1 e−x/β dx = Γ(α)β α .
0
R∞ α−1 R∞ α+1
xα
1. E[X] = x
x Γ(α)β αe
−x/β
dx = Γ(α)β α
e−x/β dx = Γ(α+1)β
Γ(α)β α
= αβ.
R0∞ x α−1
−x/β
0
R ∞ xα+1 −x/β Γ(α+2)β α+2
2. E[X] = 0
x2 Γ(α)β αe dx = 0 Γ(α)β α
e dx = Γ(α)β α = α(α + 1)β. Luego,
β ν Γ(ν + α)
E[X ν ] = .
Γ(α)
Demostración.
∞
β ν Γ(ν + α)
Z
1 1
ν
E[X ] = xα+ν−1 e−x/β dx = Γ(α + ν)β α+ν
= .
Γ(α)β α 0 Γ(α)β α Γ(α)
Ejemplo 6. Sea X una variable aleatoria contı́nua con función de densidad de probabilidad dada
por
fX (x) ∝ xe−x/3 IR+ (x).
FX (x) = 1 − FY (α − 1).
Ejemplo 7. Sea X ∼ Γ(α = 3, β = 2). Calcule P[X ≤ 4]. Usando el Teorema 5 tenemos que
2 V[X] = β 2 .
3. FX (x) = 1 − e−x/β .
Teorema 7. (Pérdida de Memoria de la Distribución Exponencial)
Sea X ∼ Exp(β). Entonces para todo s, t ∈ R+ tal que t < s se tiene
Demostración.
P[X > s ∩ X > t] P[X > s]
P[X > s/X > t] = = = e−(s−t)/β = P[X > s − t].
P[X > t] P[X > t]
Ejemplo 8. Supongamos que la duración en horas de una baterı́a es una variable aleatoria expo-
nencial con parámetro β = 50.
a. ¿Cuál es la probabilidad de que una baterı́a dure menos de 200 horas si se sabe que la baterı́a
funciona más de 100 horas?
b. ¿Cuál es la probabilidad de que de un grupo de 8 baterı́as dos deban reponerse antes de 150
horas?
Solución.
a. Definimos la variable X = tiempo de duración de la bateria. Entonces X ∼ Exp(β = 50).
Luego nos interesa la probabilidad
P[100 < X < 200] e−2 − e−4
P[X < 200/X > 100] = = .
P[X > 100] e−2
b. Definimos otra variable aleatoria Y =cantidad de circuitos que duran menos de 150 horas.
Entonces calculamos la probabilidad de éxito
Luego bajo independencia asumimos que Y ∼ Bin(n = 8, p = 0.95). Entonces nos piden
8
P[Y = 2] = 0.952 0.056 = 3.94 × 10−7 .
2
Recordemos que una distribución muy usada en ingenierı́a es la distribución de Poisson. Una
relación entre la distribución de Poisson y la distribución exponencial es la siguiente:
Sea X(t) la cantidad de eventos que ocurren en el intervalo [0, t] y T el tiempo que transcurre
entre dos eventos sucesivos. Si X(t) ∼ P oisson(θt), entonces T ∼ Exp(θ).
Definición 5. Sea X una variable aleatoria continua con función de densidad dada por
1 (x−µ)2
fX (x) = √ e− 2σ2 IR (x),
2πσ
entonces diremos que X tiene una distribución normal con parámetros µ y σ 2 . Anotaremos
X ∼ N (µ, σ 2 ).
Observación 9. En el caso particular en que µ = 0 y σ = 1, la variable aleatoria X se llama
variable aleatoria normal (Gausiana) estándar. Note que la densidad de una distribución N (0, 1)
está dada por
1 x2
fX (x) = √ e− 2 IR (x).
2π
Observación 10. Para probar que la distribución normal estándar es una densidad de probabilidad
válida es necesario probar que
Z ∞
−x2 /2
Z ∞
2 √
e dx = 2 e−x /2 dx = 2π
−∞ 0
∞
Z r
−x2 /2 π
⇐⇒ e dx =
0 2
Consideremos el cuadrado del término de la izquierda. Es decir,
Z ∞ 2 Z ∞ Z ∞
−x2 /2 −t2 /2 −u2 /2
e = e dt e du
−∞ −∞ −∞
Z ∞Z ∞
2 2
= e−(t +u )/2 dtdu, t = r cos(θ), u = r sin(θ)
−∞ −∞
Z∞ Z π/2
2 /2
= re−r dθdr
0 0
Z ∞
π 2
= re−r /2 dr
2 0
π ∞
2
= (−e−r /2 )
2 0
π
= .
2
Alternativamente este resultado puede ser probado directamente usando la función gama.
El siguiente resultado establece la relación entre una variable N (µ, σ 2 ) y una variable N (0, 1).
Teorema 8. Sea X ∼ N (µ, σ 2 ). Entonces
X −µ
Z= ∼ N (0, 1).
σ
Este resultado permite calcular las probabilidades de la distribución normal usando una tabla
para la distribución normal estándar. Si definimos la función de distribución acumulada de la
distribución normal estándar como sigue:
Z z
1 t2
Φ(z) = √ e− 2 dt
−∞ 2π
entonces
La función Φ(·) está tabulada, luego, la probabilidad de un evento puede ser encontrada usando
una tabla o una rutina computacional. Valores tı́picos para la función Φ son los siguientes
z Φ(z)
0 0.5
1.64 0.95
1.96 0.97
Algunas Propiedades
Sea X ∼ N (µ, σ 2 ).
1. E[X] = µ.
2. V[X] = σ 2 .
7. Si µ = 0, entonces (
0, p impar
E[X p ] = p
σ (p − 1)!!, p par
donde (n)!! denota el factorial impar. Por ejemplo 5!! = 1 · 3 · 5 = 15
Observación 11. Recordemos que la función de distribución de una variable aleatoria N (0, 1) la
denotamos por Φ(·) y está dada por
Z z
1 t2
Φ(z) = √ e− 2σ2 dt.
−∞ 2π
Esta función ha sido evaluada para valores en el intervalo [−3, 3] y puede ser encontrada en tablas.
También existen rutinas computacionales que permiten una rápida evaluación de Φ(·).
Solución.
T abla
a. P[Z < 1/2] = Φ(1/2) = 0.6915.
T abla
b. P[−1/2 < Z < 1/2] = Φ(1/2) − Φ(−1/2) = 0.6915 − 0.3085 = 0.383.
Solución.
1−1
Est. X −1 3−1 T abla
P[1 ≤ X ≤ 3] = P ≤ ≤ = Φ(1) − Φ(0) = 0.84134 − 0.5 = 0.34134.
2 2 2
Ejemplo 11. Los puntajes de la PSU parte matemática pueden modelarse usando una variable
aleatoria N (µ = 586, σ 2 = 702 ). Determine bajo este modelo
b. ¿Qué porcentaje de estudiantes obtiene un puntaje mayor o igual a 600 puntos en matemática?
Solución.
X ∼ N (µ = 586, σ 2 = 702 ).
Entonces
X − 586 800 − 586 800 − 586 T abla
P[X > 800] = P > = 1−P Z < = 1−P[Z < 3.06] = 0.0001.
70 70 70
b.
600 − 586 T abla
P[X ≥ 600] = 1 − P Z < = 1 − P[Z < 0.2] = 0.4207.
70
X ∼ N (6.742; (4.412)2 ).
Queremos calcular
3
X
P[Y ≤ 3] = fY (y)
y=0
Definición 6. Sea X una variable aleatoria continua tal que su función de densidad de probabilidad
está dada por
α
fX (x) = αλα xα−1 e−(λx) IR+ (x),
entonces diremos que X tiene una distribución lambda con parámetros α y λ. Anotaremos X ∼
Weibull(α, λ).
−1 −y dg −1 (y)
g (y) = e y = −e−y .
dy
Por el teorema de transformación tenemos que
Si g no es una función 1-1, en algunos casos podemos subdividir el dominio de g de tal manera
que g sea 1-1 en cada subintervalo del dominio. En efecto, si A = ∪ni=1 Ai es una partición del
dominio de g entonces
Xn
g(x) = gi (x)IAi (x),
i=1
√
En este caso X = g1−1 (y) = y. Por lo tanto
√ 1 1 y
fY1 (y) = fY ( y) √ I[0,∞] (y) = √ √ e− 2 I[0,∞] (y).
2 y 2 2π y
Caso 2: X ≤ 0. Sea Y = g2 (X) = X 2 . Entonces
√ 1 1 y
fY2 (y) = fY (− y) − √ I[0,∞] (y) = √ √ e− 2 I[0,∞] (y).
2 y 2 2π y
por lo tanto
1 y
fY (y) = fY1 (y) + fY2 (y) = √ y −1/2 e− 2 I[0,∞] (y).
2π
Note que Y ∼ Γ(α = 1/2, 2). Veremos más adelante que esta distribución recibe un nombre especial
(Chi-cuadrado) y se usa para hacer inferencia estadı́stica respecto a la varianza de poblaciones con
distribución normal.
Nociones de Confiabilidad
La probabilidad que un artefacto dure o funcione adecuadamente durate un perı́odo de tiempo
bajo ciertas condiciones se conoce como confiabilidad. Matemáticamente, si denotamos por T la
variable aleatoria contı́nua que denota el tiempo de duración de un artefacto y fT (t) su función de
densidad de probabilidad, para t ∈ (0, ∞), entonces la confiabilidad se expresa
Z ∞
R(t) = P[T > t] = fT (x)dx = 1 − FT (t),
0
Usando el hecho que R(t) = 1 − FT (t) y la definición de la tasa de fallas es posible probar que
Rt
fT (t) = r(t)e− o r(s)ds
.
Esto permite escribir la densidad de T únicamente como función de la tasa de fallas.
Ejemplo 16. Sea T ∼ N (µ, σ 2 ). Calcular R(t). Note que FT (t) no tiene una expresión analı́tica
sencilla. Entonces
R(t) = P[T > t] = 1 − P[T ≤ t]
t−µ
=1−P Z ≤
σ
t−µ
=1−Φ .
σ
1/βe−t/β
Ejemplo 17. Sea T ∼ Exp(β). Entonces R(t) = e−t/β y r(t) = e−t/β
= 1
β
= 1
E[T ]
.
Si consideramos n sistemas que pueden estar conectados, cada uno de ellos con una confiabilidad
Ri (t), i = 1, . . . , n. Entonces tenemos los siguientes resultados: