Variables Aleatorias III

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 17

Universidad Técnica Federico Santa Marı́a

Departamento de Matemática Profesor: Ronny Vallejos

Variables Aleatorias Continuas Especiales


Distribución Uniforme
Definición 1. Sea X una variable aleatoria continua que toma valores en el intervalo [a, b], donde
a, b son finitos. Si la función de densidad de probabilidad está dada por

1
fX (x) = I[a,b] (x),
b−a

entonces diremos que X tiene una distribución uniforme con parámetros a y b y anotaremos
X ∼ U [a, b].

Teorema 1. Sea X ∼ U [a, b]. Entonces


x−a
1. FX (x) = I (x)
b−a [a,b]
+ I]b,+∞[ (x).
a+b
2. E[X] = 2
.
(b−a)2
3. V[X] = 12
.

Demostración. Las demostracoines son el resultado de integración directa.


1. Note que Z x Z x
dt x−a
FX (x) = fX (t)dt = = , x ≤ b.
−∞ a b−a b−a
Si x ≥ b entonces FX (x) = 1.
2. Z b
xdx a+b
E[X] = = .
a b−a 2
3. Similarmente, 2
b
x2 dx (b − a)2
Z 
a+b
V[X] = − = .
a b−a 2 12
Observación 1. Una variable aleatoria uniforme representa la analogı́a continua a los resultados
igualmente probables en el sentido siguiente: Para cualquier subintervalo [c, d] ⊂ [a, b] donde
a ≤ c ≤ d ≤ b, Z d
dx d−c
P[c ≤ X ≤ d] = = .
c b−a b−a
Esta probabilidad sólo depende de la distancia entre c y d. Luego cualquier intervalo de longitud
d − c dentro del intervalo [a, b] tiene asociada la misma probabilidad.

Observación 2. Podemos entonces en virtud de la observación anterior, decir que si elegimos


un punto al azar proveniente de una población uniforme, todos los puntos del intervalo tienen la
misma chance de ser elegidos.

MAT-041 1 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Ejemplo 1. Un punto se elige al azar sobre el segmento de lı́nea [0, 2]. ¿Cuál es la probabilidad
de que el punto escogido quede entre 1 y 3/2?
Supongamos que la variable X ∼ U [0, 1]. Entonces se nos pide
Z 3/2
dx 1
P[1 ≤ X ≤ 3/2] = = .
1 2 4
Ejemplo 2. Un programa de TV dura en total una hora y un espectador impaciente puede cambiar
de canal en cualquier momento. Supongamos que el tiempo que el espectador sintoniza un canal
preferido es una variable aleatoria X con función de distribución acumulada dada por:

0 x < 0

FX (x) = x 0 ≤ x ≤ 1

1 x ≥ 1.

a. ¿Cuál es la probabilidad de que el espectador sintonice la mayor parte del programa?

b. Si el espectador sintonizó la mayor parte del programa, ¿Cuál es la probabilidad de que


apague la TV o cambie de canal en los últimos 10 minutos?

a. Note que la variable X =tiempo de sintonia del canal tiene una distribución uniforme en el
intervalo [0, 1]. Es decir, X ∼ U [0, 1]. Entonces la probabilidad pedida es

P[X > 1/2] = 1 − P[X ≤ 1/2] = 1 − FX (1/2) = 1/2.

b. Nos piden
P[5/6 ≤ X ≤ 1] 1/6 1
P[5/6 ≤ X ≤ 1/X > 1/2] = = = .
P[X > 1/2] 1/2 3

Una aplicación muy importante de la distribución uniforme es la generación de números aleato-


rios. Los algoritmos congruenciales para la generación de números pseudoaleatorios son una her-
ramienta bastante popular.

Definición 2. Un generador congruencial se define como

Xi = (aXi−1 + c) mod M,

donde a, c y M son constantes en Z y X0 se llama semilla (seed) y se us para inicializar el


algoritmo. La sucesión generada pertenece al rango {0, 1, 2, . . . , M − 1}. Luego calculamos

Xi
Ui = .
M

La secuencia de variables {Ui } proviene de una distribución U [0, 1].

Observación 3. La elección apropiada de las constantes a, c y M determinan el perı́odo de la


secuencia. Se desea que el perı́odo sea grande para que los números no se repitan.

MAT-041 2 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Observación 4. Si c = 0, el generador

Xi = aXi−1 mod M

se llama generador congruencial multiplicativo.


Ejemplo 3. Considere el generador congruencial definido como

Xi = (5Xi−1 + 3) mod 16, X0 = 7,


Xi
Ui = .
16
Obtenga los 5 primeros números de la secuencia {Ui }.
Note que

0 mod 16 = 0,
1 mod 16 = 1,
2 mod 16 = 2,
..
.
15 mod 16 = 15,
16 mod 16 = 0,
17 mod 16 = 1,
..
.
32 mod 16 = 0,
33 mod 16 = 1,
=⇒ X1 = (5X0 + 3) mod 16 = 38 mod 16 = 6. =⇒ U1 = 6/16 = 0.3750.
=⇒ X2 = (5 × 6 + 3) mod 16 = 33 mod 16 = 1. =⇒ U2 = 1/16 = 0.0625.

Siguiendo este esquema, obtenemos finalmente

U3 = 0.50, U4 = 0.06875, U5 = 0.6250, U6 = 0.3125.

Observación 5. El generador RANDU (IBM) es un generador congruencial multiplicativo definido


por:

Xi+1 = (65539Xi ) mod 231 ,


Xi
Ui+1 = 31 .
2
Este generador ha sido implementado en algunos programas computacionales como Matlab y R.
Observación 6. En Matlab el comando rand(m, n) genera una matriz de dimensión m × n con
números pseudoaleatorios U 0, 1]. Por ejemplo, el comando
X=rand(100,1)
hist(X)

MAT-041 3 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

genera 100 números pseudoaleatorios U [0, 1]. Un histograma puede ser usado para chequear vi-
sualmente si la distribución subyacente es uniforme.
Observación 7. En R se puede usar el comando
X=runif(100,0,1)
hist(X)
para realizar el mismo proceso descrito en Matlab.
Observación 8. El siguiente código en R produce la figura que se muestra a continuación:
X=runif(100,0,1)
Y=runif(500,0,1)
Z=runif(10000,0,1)
par(mfrow=c(1,3))
hist(X)
hist(Y)
hist(Z)

Histogram of X Histogram of Y Histogram of Z


14

50

500
12

400
10

40
8

300
Frequency

Frequency

Frequency
30
6

200
20
4

100
10
2
0

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

n=100 n=500 n=10000

Nociones del Método de Monte Carlo


El método de Monte Carlo es un método que buca proveer una solución a un problema usando la
generación de números aleatorios a través de rutinas computacionales. Esta rama de la estadı́stica
ha sido fuertemente desarrollada en las últimas décadas y tiene una importancia vital porque per-
mite simular situaciones antes que estas se produzcan. Este tipo de técnicas fueron desarrolladas
principalmente desde 1940 en adelante y hoy forman una parte importante de la estadı́stica com-
putacional. Primero recalcamos que una vez que disponemos de números aleatorios provenientes

MAT-041 4 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

de una distrobución U [0, 1] es posible transformarlos al intervalo general [a, b] usando la transfor-
mación X = a + (b − a)U, donde U ∼ U [0, 1]. Luego, por el teorema de transformación de variables
aleatorias que veremos más adelante es posible aseverar que X ∼ U [a, b]. Esta situación es más
general de lo que parece. En efecto, usando los números aleatorios de la distribución U [0, 1] es
posible obtener números aleatorios de varias otras distribuciones. En este sentido la distribución
uniforme juega un rol crucial en simulación.
Teorema 2. (Teorema de la Transformación Inversa) Sea X una variable aleatoria continua con
función de densidad de probabilidad FX (x). Sea Y = FX oX. Entonces

Y ∼ U [0, 1].

Demostración. Note que


FY (y) = P[Y ≤ y]
= P[FX oX ≤ y]
= P[X ≤ FX−1 (y)]
= FX (FX−1 (y))
= y, 0 ≤ y ≤ 1.
Luego derivando tenemos que fY (y) = 1, 0 ≤ y ≤ 1 =⇒ Y ∼ U [0, 1].
Ejemplo 4. Sea X ∼ fX (x), donde fX (x) = λ1 e−x/λ , λ > 0, x > 0. Use el teorema de la transfor-
mación inversa para describir cómo es posible generar números aleatorios provenientes de fX (x) a
partir de núumeros aleatorios U [0, 1].
En este caso sabemos que FX (x) = 1 − e−x/λ . Luego tenemos la igualdad 1 − e−x/λ = U De
donde obtenemos que
X = −λ ln(1 − U ).
Ası́, podemos obtener números aleatorios provenientes de la distribución de X siguiendo los pasos
siguientes.
1. Generar U ∼ U [0, 1].
2. Obtener X, desde X = −λ ln(1 − U ).
Ahora, considere la integral Z b
g(x)dx.
a
En situaciones en que no existe una antiderivada de g(x) es conveniente aproximar la integral
numéricamente. Uno de los métodos de aproximación llamado método de integración de Monte
Carlo consiste en usar:

b n
(b − a) X
Z
g(x)dx ≈ g(Xi ), donde Xi ∼ U [a, b].
a n i=1

MAT-041 5 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Esta aproximación depende del número de realizaciones de la variable aleatoria X. Para n


grande la aproximación es muy satisfactoria. Más adelante estudiaremos el sesgo y la varianza de
este estimador.

Ejemplo 5. Aproximar usando el método de Monte Carlo la integral


Z ∞
1 2
√ e−x /2 .
0 2πσ
Debido a que es imposible cubrir el rango [0, ∞], consideramos un subintervalo de la forma [0, b],
donde b es un número muy grande. Por ejemplo, usemos b = 1000. Entonces
∞ n
(1000 − 0) X 1
Z
1 2 2
√ e−x /2 ≈ √ e−Xi /2 ,
0 2πσ n i=1
2πσ

donde Xi ∼ U [0, 1000]. El siguiente código en R muestra el cálculo de la aproximación.

x=seq(0,1000,by=0.1)
y=1/sqrt(2*pi*4) exp(-x^2/8)
int=(1000-0)/length(x) *sum(y)
print(int)

En este caso el output del programa es 0.5099226, lo cual veremos más adelante es razonable
ya que corresponde a la probabilidad de que una variable normal estándar sea mayor que cero.

Distribuciones Gama, Exponencial, Normal y Weibull


Definición 3. Sea X una variable aleatoria continua que toma valores en el intervalo [0, +∞[. Si
la función de densidad de probabilidad está dada por

xα−1 e−x/β
fX (x) = I[0,+∞[ (x), α > 0, β > 0,
Γ(α)β α

entonces diremos que X tiene una distribución gama con parámetros α y β y anotaremos
X ∼ Γ(α, β).

La distribución gamma es muy flexible en cuanto a su forma. Los parámetros α y β dan cuenta
de esta propiedad.
Podemos recordar algunas propiedades de la función gama
Z ∞
Γ(α) = xα−1 e−x dx,
0

que son útiles en el cálculo de momentos asociados a esta distribución.

1. Γ(α + 1) = αΓ(α).

MAT-041 6 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

2. Si n ∈ N, entonces Γ(n) = (n − 1)!.



3. Γ( 21 ) = π.

Teorema 3. Sea X ∼ Γ(α, β). Entonces


Rx tα−1 e−t/β
1. FX (x) = 0 Γ(α)β α
dt (No existe una representación analı́tica sencilla)

2. E[X] = αβ.

3. V[X] = αβ 2 .

Demostración. Las demostraciones son el resultado de integración directa usando el hecho que
Z ∞
xα−1 e−x/β dx = Γ(α)β α .
0
R∞ α−1 R∞ α+1

1. E[X] = x
x Γ(α)β αe
−x/β
dx = Γ(α)β α
e−x/β dx = Γ(α+1)β
Γ(α)β α
= αβ.
R0∞ x α−1
−x/β
0
R ∞ xα+1 −x/β Γ(α+2)β α+2
2. E[X] = 0
x2 Γ(α)β αe dx = 0 Γ(α)β α
e dx = Γ(α)β α = α(α + 1)β. Luego,

V[X] = E[X 2 ] − (E[X])2 = α(α + 1)β − α2 β 2 = αβ 2 .

Teorema 4. Sea X ∼ Γ(α, β), entonces

β ν Γ(ν + α)
E[X ν ] = .
Γ(α)

Demostración.

β ν Γ(ν + α)
Z
1 1
ν
E[X ] = xα+ν−1 e−x/β dx = Γ(α + ν)β α+ν
= .
Γ(α)β α 0 Γ(α)β α Γ(α)

Ejemplo 6. Sea X una variable aleatoria contı́nua con función de densidad de probabilidad dada
por
fX (x) ∝ xe−x/3 IR+ (x).

a. Determine E[X], V[X], FX (x) y P[X ≥ 1]

b. Exprese la ecuación que permite calcular la mediana de la variable aleatoria X.

a. Claramente estamos en presencia de una distribución Γ(α = 2, β = 3). luego,


1
fX (x) = xe−x/3 IR+ (x).
9

MAT-041 7 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Ası́, E[X] = 6 y V[X] = 18. Además


Z x
1 −t/3
FX (x) = te dt
0 9
Z x
1 x
−t/3
= (−3te +3 te−t/3 dt)
9 0 0
1 −t/3
x x
−t/3
= (−3te − 9e )

9 0 0
1
= ((−3xe−x/3 − 9e−x/3 + 9)
9
1
= − xe−x/3 − e−x/3 + 1.
3
Ahora
1
P[X ≥ 1] = 1 − FX (1) = 1 + e−1/3 + e−1/3 − 1 ≈ 0.95.
3
b. Por definición, la mediana que denotaremos por m, es aquel valor que satisface
1
FX (m) = 0.5 ⇐⇒ − me−m/3 − e−m/3 + 1 = 0.5
3
Teorema 5. (Relación Gamma-Poisson) Si X ∼ Γ(α, β). Entonces si α ∈ Z,

P[X ≤ x] = P[Y (t) ≥ α],

donde Y (t) ∼ Poisson(x/β).


El Teorema 5 puede escribirse equivalentemente en la siguiente forma

FX (x) = 1 − FY (α − 1).

Ejemplo 7. Sea X ∼ Γ(α = 3, β = 2). Calcule P[X ≤ 4]. Usando el Teorema 5 tenemos que

P[X ≤ 4] = 1 − P[Y ≤ 2],

donde Y ∼ Poisson(4/2) ≡ Poisson(2). Entonces

P[X ≤ 4] = 1 − P[Y = 0] − P[Y = 1] − P[Y = 2]


e−2 2e−2 22 e−2
=1− − − .
0! 1! 2!
Sin duda esta probabilidad es más directa de calcular que usando la integral correspondiente a la
distribución gama.
Definición 4. Sea X una variable aleatoria con distribución Γ(α = 1, β). Entonces se dice que
X tiene una distribución exponencial con parámetro β. Es claro que la función de densidad de
probabilidad de la distribución exponencial es
1 −x/β
fX (x) = e , x ≥ 0, α > 0.
β

MAT-041 8 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Algunas consecuencias inmediatas del Teorema 3 son establecidas en el siguiente resultado.


Teorema 6. Sea X ∼ Exp(β). Entonces
1. E[X] = β.

2 V[X] = β 2 .

3. FX (x) = 1 − e−x/β .
Teorema 7. (Pérdida de Memoria de la Distribución Exponencial)
Sea X ∼ Exp(β). Entonces para todo s, t ∈ R+ tal que t < s se tiene

P[X > s/X > t] = P[X > s − t].

Demostración.
P[X > s ∩ X > t] P[X > s]
P[X > s/X > t] = = = e−(s−t)/β = P[X > s − t].
P[X > t] P[X > t]
Ejemplo 8. Supongamos que la duración en horas de una baterı́a es una variable aleatoria expo-
nencial con parámetro β = 50.
a. ¿Cuál es la probabilidad de que una baterı́a dure menos de 200 horas si se sabe que la baterı́a
funciona más de 100 horas?

b. ¿Cuál es la probabilidad de que de un grupo de 8 baterı́as dos deban reponerse antes de 150
horas?
Solución.
a. Definimos la variable X = tiempo de duración de la bateria. Entonces X ∼ Exp(β = 50).
Luego nos interesa la probabilidad
P[100 < X < 200] e−2 − e−4
P[X < 200/X > 100] = = .
P[X > 100] e−2

b. Definimos otra variable aleatoria Y =cantidad de circuitos que duran menos de 150 horas.
Entonces calculamos la probabilidad de éxito

p = P[X < 150] = 1 − e−3 = 0.95.

Luego bajo independencia asumimos que Y ∼ Bin(n = 8, p = 0.95). Entonces nos piden
 
8
P[Y = 2] = 0.952 0.056 = 3.94 × 10−7 .
2

Recordemos que una distribución muy usada en ingenierı́a es la distribución de Poisson. Una
relación entre la distribución de Poisson y la distribución exponencial es la siguiente:
Sea X(t) la cantidad de eventos que ocurren en el intervalo [0, t] y T el tiempo que transcurre
entre dos eventos sucesivos. Si X(t) ∼ P oisson(θt), entonces T ∼ Exp(θ).

MAT-041 9 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Definición 5. Sea X una variable aleatoria continua con función de densidad dada por

1 (x−µ)2
fX (x) = √ e− 2σ2 IR (x),
2πσ

entonces diremos que X tiene una distribución normal con parámetros µ y σ 2 . Anotaremos
X ∼ N (µ, σ 2 ).
Observación 9. En el caso particular en que µ = 0 y σ = 1, la variable aleatoria X se llama
variable aleatoria normal (Gausiana) estándar. Note que la densidad de una distribución N (0, 1)
está dada por

1 x2
fX (x) = √ e− 2 IR (x).

Observación 10. Para probar que la distribución normal estándar es una densidad de probabilidad
válida es necesario probar que
Z ∞
−x2 /2
Z ∞
2 √
e dx = 2 e−x /2 dx = 2π
−∞ 0


Z r
−x2 /2 π
⇐⇒ e dx =
0 2
Consideremos el cuadrado del término de la izquierda. Es decir,
Z ∞ 2 Z ∞  Z ∞ 
−x2 /2 −t2 /2 −u2 /2
e = e dt e du
−∞ −∞ −∞
Z ∞Z ∞
2 2
= e−(t +u )/2 dtdu, t = r cos(θ), u = r sin(θ)
−∞ −∞
Z∞ Z π/2
2 /2
= re−r dθdr
0 0
Z ∞
π 2
= re−r /2 dr
2 0
π ∞
2
= (−e−r /2 )

2 0
π
= .
2
Alternativamente este resultado puede ser probado directamente usando la función gama.
El siguiente resultado establece la relación entre una variable N (µ, σ 2 ) y una variable N (0, 1).
Teorema 8. Sea X ∼ N (µ, σ 2 ). Entonces

X −µ
Z= ∼ N (0, 1).
σ

MAT-041 10 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Demostración. La demostración de este resultado requiere el teorema de transformación, el cual


veremos más adelante en este curso.

Este resultado permite calcular las probabilidades de la distribución normal usando una tabla
para la distribución normal estándar. Si definimos la función de distribución acumulada de la
distribución normal estándar como sigue:
Z z
1 t2
Φ(z) = √ e− 2 dt
−∞ 2π

entonces

P[a ≤ X ≤ b] = P[(a − µ)/σ ≤ (X − µ)/σ ≤ (b − µ)/σ]


= P[[(a − µ)/σ ≤ Z ≤ (b − µ)/σ]
= Φ [(b − µ)/σ] − Φ [(a − µ)/σ] .

La función Φ(·) está tabulada, luego, la probabilidad de un evento puede ser encontrada usando
una tabla o una rutina computacional. Valores tı́picos para la función Φ son los siguientes
z Φ(z)
0 0.5
1.64 0.95
1.96 0.97
Algunas Propiedades
Sea X ∼ N (µ, σ 2 ).

1. E[X] = µ.

2. V[X] = σ 2 .

3. X es simétrica con respecto a µ.

4. µ = argmaxx {fX (x)}.

5. fX (x) tiene dos puntos de inflexión, x = µ ± σ.


X−µ
6. La variable Z = σ
∼ N (0, 1)

7. Si µ = 0, entonces (
0, p impar
E[X p ] = p
σ (p − 1)!!, p par
donde (n)!! denota el factorial impar. Por ejemplo 5!! = 1 · 3 · 5 = 15

6. Si µ = 0, entonces γ1 = 0 (el sesgo es cero).

9. Si µ = 0, entonces γ2 = 0 (curtosis es cero).

MAT-041 11 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

10. La función de distribución de X no tiene una expresión analı́tica sencilla.


Z x
1 (t−µ)2
FX (x) = √ e− 2σ2 dt.
−∞ 2πσ

Observación 11. Recordemos que la función de distribución de una variable aleatoria N (0, 1) la
denotamos por Φ(·) y está dada por
Z z
1 t2
Φ(z) = √ e− 2σ2 dt.
−∞ 2π

Esta función ha sido evaluada para valores en el intervalo [−3, 3] y puede ser encontrada en tablas.
También existen rutinas computacionales que permiten una rápida evaluación de Φ(·).

Ejemplo 9. Si Z ∼ N (0, 1). Calcular

a. P[Z < 1/2].

b. P[−1/2 < Z < 1/2].

3. P[Z > 5.2].

Solución.
T abla
a. P[Z < 1/2] = Φ(1/2) = 0.6915.
T abla
b. P[−1/2 < Z < 1/2] = Φ(1/2) − Φ(−1/2) = 0.6915 − 0.3085 = 0.383.

c. Claramente P[Z > 5.2] = 0.

Ejemplo 10. Si X ∼ N(1, 4), calcular P[1 ≤ X ≤ 3].

Solución.
 
1−1
Est. X −1 3−1 T abla
P[1 ≤ X ≤ 3] = P ≤ ≤ = Φ(1) − Φ(0) = 0.84134 − 0.5 = 0.34134.
2 2 2

Ejemplo 11. Los puntajes de la PSU parte matemática pueden modelarse usando una variable
aleatoria N (µ = 586, σ 2 = 702 ). Determine bajo este modelo

a. ¿Cuál es la probabilidad de obtener un puntaje superior a 800 puntos?

b. ¿Qué porcentaje de estudiantes obtiene un puntaje mayor o igual a 600 puntos en matemática?

c. Si elegimos aquellos estudiantes que pertenecen al 5% de los mejores puntajes. ¿Cuál es el


puntaje de corte?

Solución.

MAT-041 12 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

a. Sea X =puntaje en la PSU parte matemática. Supongamos que

X ∼ N (µ = 586, σ 2 = 702 ).

Entonces
   
X − 586 800 − 586 800 − 586 T abla
P[X > 800] = P > = 1−P Z < = 1−P[Z < 3.06] = 0.0001.
70 70 70

b.  
600 − 586 T abla
P[X ≥ 600] = 1 − P Z < = 1 − P[Z < 0.2] = 0.4207.
70

c. Sea c el punto de corte. Entonces planteamos la probabilidad

P[X > c] = 0.05


⇐⇒P[X ≤ c] = 0.95
 
c − 586
⇐⇒P Z ≤ = 0.95
70
 
c − 586
⇐⇒Φ = 0.95
70
c − 586 T abla
⇐⇒ = 1.65
70
=⇒c = 1.65 × 70 + 586 = 701.5.

Ejemplo 12. Un fusible de 16 amperes se considera bueno cuando funciona en el rango de 14 a 17


amperes; se ha observado que un 5% de las veves que se fabrica un fusible se funde a 14 amperes
y sólo el 1% lo hace a 17 amperes. Calcular la probailidad de que al probar 10 fusibles a lo más 3
de ellos no estén buenos.

Solución. Sea X = intensidad a la cual un fusible se funde. Supongamos que X ∼ N (µ, σ 2 ).


Se sabe que
P[X ≥ 14] = 0.05
P[X > 17] = 0.01
De estas dos ecuaciones obtenemos que
14 − µ
= 1.645
σ
17 − µ
= .2.33
σ
De donde encontramos que µ = 6.742 y σ = 4.412. Luego,

X ∼ N (6.742; (4.412)2 ).

MAT-041 13 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Sea el evento A = {14 ≤ X ≤ 17}. Entonces


   
14 − µ 14 − µ
P[A] = Φ −Φ = 0.99 − 0.95 = 0.04.
σ σ

Esta es la probabilidad que un fusible esté bueno.


Ahora definamos la variable Y = número de fusibles malos en una muestra sin reposición de
tamaño 10 extraı́da del total (100 fusibles). Sabemos que P[Ac ] = 0.96. Luego

Y ∼ Hip(100, 96, 10)

Queremos calcular
3
X
P[Y ≤ 3] = fY (y)
y=0

Note que el recorrido de la distribución hipergeométrica es el siguiente:

Rec(Y ) = {max{0, n − (M − N )}, . . . , min{n, M }} = {6, . . . , 10}.

Por lo tanto P[Y ≤ 3] = 0.

Definición 6. Sea X una variable aleatoria continua tal que su función de densidad de probabilidad
está dada por
α
fX (x) = αλα xα−1 e−(λx) IR+ (x),
entonces diremos que X tiene una distribución lambda con parámetros α y λ. Anotaremos X ∼
Weibull(α, λ).

Usando las definiciones anteriores se puede probar que:


 
1 1
E[X] = Γ 1 + .
λ α
   2 !
1 2 1
V[X] = 2 Γ 1 + −Γ 1+ .
λ α α
α
FX (x) = 1 − e−(λx)

Teorema de Cambio de Variables


Teorema 9. Sea X una variable aleatoria continua con una función de densidad de probabilidad
dada por fX (x), x ∈ A. Sea
Y = g(X)
una función diferenciable y 1-1. Entonces la función de densidad de probabilidad de Y es:
−1
−1
dg (y)
fY (y) = fX (g (y)) Ig(A) (x).
dy

MAT-041 14 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

Este teorema permite encontrar la densidad de funciones de variables aleatorias de nuestro


interés.
Ejemplo 13. Sea X ∼ U [0, 1]. Consideremos Y = − ln(X). Determine fY (y), E[Y ] y V[Y ]. Note
que
fX (x) = I[0,1] (x).
También note que g(X) = − ln(X) es diferenciable y 1-1. Entonces

−1 −y dg −1 (y)
g (y) = e y = −e−y .
dy
Por el teorema de transformación tenemos que

fY (y) = fX (e−y ) −e−y I(0,+∞) (y) = e−y I(0,+∞) (y).


Claramente Y ∼ Exp(1), entonces E[Y ] = 1 y V[Y ] = 1.


Ejemplo 14. Sea X ∼ N(µ, σ 2 ). Encuentre la densidad de la variable
X −µ
Z= .
σ
Esta es una función lineal, por lo tanto es diferenciable y 1-1. Luego
1 2
fZ (z) = fX (zσ + µ) |σ| IR (z) = √ e−z /2 IR (z)

Luego Z ∼ N (0, 1).

Ejercicio Propuesto. Sea X ∼ Γ(1/2, 2). Considere la transformación Y = X. Encuentre la
función de densidad de la variable Y.

Si g no es una función 1-1, en algunos casos podemos subdividir el dominio de g de tal manera
que g sea 1-1 en cada subintervalo del dominio. En efecto, si A = ∪ni=1 Ai es una partición del
dominio de g entonces
Xn
g(x) = gi (x)IAi (x),
i=1

entonces el teorema en este caso queda como sigue:


n −1
X ∂g (y)
fY (y) = fY (gi−1 (y)) i Ig(A ) (y).
i
i=1
∂y

Ejemplo 15. Sea X ∼ N (0, 1). Encuentre la distribución de la variable Y = X 2 .

Caso 1: X ≥ 0. Sea Y = g1 (X) = X 2 . Entonces


∂g −1 (y)

fY1 (y) = fY (g1−1 (y)) 1 Ig(A1 ) (y).
∂y

MAT-041 15 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos


En este caso X = g1−1 (y) = y. Por lo tanto

√ 1 1 y
fY1 (y) = fY ( y) √ I[0,∞] (y) = √ √ e− 2 I[0,∞] (y).
2 y 2 2π y
Caso 2: X ≤ 0. Sea Y = g2 (X) = X 2 . Entonces

√ 1 1 y
fY2 (y) = fY (− y) − √ I[0,∞] (y) = √ √ e− 2 I[0,∞] (y).
2 y 2 2π y
por lo tanto
1 y
fY (y) = fY1 (y) + fY2 (y) = √ y −1/2 e− 2 I[0,∞] (y).

Note que Y ∼ Γ(α = 1/2, 2). Veremos más adelante que esta distribución recibe un nombre especial
(Chi-cuadrado) y se usa para hacer inferencia estadı́stica respecto a la varianza de poblaciones con
distribución normal.

Nociones de Confiabilidad
La probabilidad que un artefacto dure o funcione adecuadamente durate un perı́odo de tiempo
bajo ciertas condiciones se conoce como confiabilidad. Matemáticamente, si denotamos por T la
variable aleatoria contı́nua que denota el tiempo de duración de un artefacto y fT (t) su función de
densidad de probabilidad, para t ∈ (0, ∞), entonces la confiabilidad se expresa
Z ∞
R(t) = P[T > t] = fT (x)dx = 1 − FT (t),
0

donde FT (t) es la función de distribución acumulada de la variable T. La tasa instantánea de


fallas asociada a la variable T se define como:
fT (t)
r(t) = .
R(t)

Usando el hecho que R(t) = 1 − FT (t) y la definición de la tasa de fallas es posible probar que
Rt
fT (t) = r(t)e− o r(s)ds
.
Esto permite escribir la densidad de T únicamente como función de la tasa de fallas.
Ejemplo 16. Sea T ∼ N (µ, σ 2 ). Calcular R(t). Note que FT (t) no tiene una expresión analı́tica
sencilla. Entonces
R(t) = P[T > t] = 1 − P[T ≤ t]
 
t−µ
=1−P Z ≤
σ
 
t−µ
=1−Φ .
σ

MAT-041 16 Noviembre, 2015


Universidad Técnica Federico Santa Marı́a
Departamento de Matemática Profesor: Ronny Vallejos

1/βe−t/β
Ejemplo 17. Sea T ∼ Exp(β). Entonces R(t) = e−t/β y r(t) = e−t/β
= 1
β
= 1
E[T ]
.

Si consideramos n sistemas que pueden estar conectados, cada uno de ellos con una confiabilidad
Ri (t), i = 1, . . . , n. Entonces tenemos los siguientes resultados:

a. Si los sistemas conectados en serie, entonces


n
Y
Req (t) = Ri (t).
i=1

b. Si los sistemas conectados en paralelo, entonces


n
Y
Req (t) = 1 − (1 − Ri (t)).
i=1

MAT-041 17 Noviembre, 2015

También podría gustarte