Lectura 11
Lectura 11
Lectura 11
Aracelis Hernández
Escuela de Matemáticas y Ciencias Computacionales
Universidad Yachay Tech, Ecuador
[email protected]
PROBABILIDADES Y ESTADÍSTICA
1. Introducción
En esta sección se examinarán con detalle algunas distribuciones especícas de probabilidad que
han demostrado, empíricamente, ser modelos útiles para diversos problemas prácticos cuando la
variable de interés es una variable aleatoria discreta.
Tales distribuciones presentan un carácter teórico en el sentido en que sus funciones de probabi-
lidad se deducen matemáticamente con base en ciertas hipótesis que se suponen válidas para los
fenómenos aleatorios.
Se examinarán varias distribuciones para variables aleatorias discretas que son las más comunes,
y en cada caso se expondrán detalladamente las características distintivas de las distribuciones
particulares de probabilidad y se deducirán o se establecerán sus medias, varianzas, factores de
forma, y otras medidas descriptivas numéricas.
Una distribución de probabilidad está caracterizada, de manera general, por una o más cantidades
que reciben el nombre de parámetros de la distribución. Un parámetro puede tomar cualquier valor
de un conjunto dado y, en ese sentido, dene una familia de distribuciones de probabilidad, que
tendrán la misma función genérica de probabilidad. Se tratarán varios tipos de parámetros tales
como el conteo, la proporción, la rapidez, la localización y la forma.
1
2. Distribución Uniforme Discreta
Denición 1. Una variable aleatoria X sigue una distribución uniforme discreta si cada uno de los
n valores en su rango x1 , . . . , x n tienen igual probabilidad, entonces, la distribución de probabilidad
1
P (X = xi ) =
n
y la denotamos como X ∼ U{x1 ,x2 ,...,xn }
La distribución uniforme discreta describe el comportamiento de una variable discreta que puede
tomar n valores distintos con la misma probabilidad cada uno de ellos.
Esta distribución asigna igual probabilidad a todos los valores enteros entre el límite inferior y el
límite superior que denen el recorrido de la variable. Si la variable puede tomar valores entre a
y b, debe ocurrir que b sea mayor que a, y la variable toma los valores enteros empezando por a,
a + 1, a + 2, etc., hasta el valor máximo b.
X = 1, 2, 3, 4, 5, 6
2
Como la persona no ha estudiado los últimos 15 temas, entonces la probabilidad de que salga
seleccionado un tema de los ha estudiado, es:
35 35
X X 1 35
P (X ≤ 35) = P (X = i) = = = 0.7
i=1 i=1
50 50
Por lo tanto, la persona tiene una probabilidad del 70 % de que el tema elegido sea uno de
los que haya estudiado.
■
Luego
xn
2 2 1 X 2
σ = V ar(X) = E(X ) − (E(X)) = x2 − (X̄)2
n x=x
1
3
3. Distribución Bernoulli
En la distribución de Bernoulli, el éxito es el resultado que esperamos que ocurra y en este caso la
variable aleatoria toma el valor de 1, mientras que el resultado de fracaso es un resultado distinto
al esperado, y la variable aleatoria toma el valor de 0.
si X = 1
p
=⇒ P (X = x) =
1 − p si X = 0
Una variable aleatoria Bernoulli, por sí sola, tiene poco interés en las aplicaciones de ingeniería.
En cambio la realización de una serie de experimentos Bernoulli conduce a varias distribuciones
de probabilidad discretas muy útiles.
4
■
4. Distribución Binomial
La distribución Binomial es una de las distribuciones discretas de probabilidad más útiles. Sus
áreas de aplicación incluyen inspección de calidad, ventas, mercadotecnia, medicina, investigación
de opiniones y otras.
La idea detrás de la distrubución Binomial, es realizar ensayos Bernoulli n veces de manera inde-
pendientes, donde en cada ensayo Bernoulli hay un éxito con probabilidad constante p y un fracaso
con probabilidad constante 1 − p. Entonces la v.a. X denida como el número de éxitos obtenidos
en las n realizaciones o n ensayos Bernoulli, sigue una distribución Binomial con parámetros n y
p, que denotamos como X ∼ B(n, p).
5
Otra manera de denir una variable aleatoria con distribución Binomial, es partiendo del hecho de
que las n repeticiones corresponden a ensayos o pruebas Bernoulli con la misma probabilidad p de
éxito. En este sentido, si X ∼ Bin(n, p), podemos escribir:
n
con Yi ∼ Ber(p), para i = 1, 2, . . . , n
X
X= Yi ,
i=1
entonces X ∼ Bin(10, 0.3), representa cuantas personas enfermas de las 10, se recuperen
después de tomar la medicina.
Por lo tanto,
P (X ≥ 9) = P (X = 9) + P (X = 10) =
10 9 1 10
= (0.3) (0.7) + (0.3)10 (0.7)0 =
9 10
= 0.000138 + 0.000006 = 0.000144
6
entonces podemos escribir a la variable aleatoria X como la suma de n variables aleatorias
Bernoulli:
n
con Yi ∼ Ber(p), para i = 1, 2, . . . , n
X
X= Yi ,
i=1
n
! n n
X X X
=⇒ E(X) = E Yi = E(Yi ) = p = np
i=1 i=1 i=1
=⇒ E(X) = np
Por otra parte
n
! n n
X X X
V ar(X) = V ar Yi = V ar(Yi ) = p(1 − p) = np(1 − p)
i=1 i=1 i=1
=⇒ V ar(X) = np(1 − p)
En el cálculo de la varianza para la variable aleatoria Binomial, recordemos que los ensayos Ber-
noulli son independiente, lo que justica que la varianza de la suma de variables aleatorias es igual
a la suma de las varianzas de cada uno de los términos de la suma.
Entonces, la probabilidad de que al menos dos de las personas se suscriban al club de las 25,
se calcula como:
P (X ≥ 2) = 1 − P (X < 2) = 1 − (P (X = 0) + P (X = 1)) =
25 0 25 25
= (0.05) (0.95) + (0.05)1 (0.95)24 = 0.3576
0 1
El número esperado de persona que se pueden suscribirse al club automovilístico, es:
E(X) = np = (25)(0,05) = 1.25
7
5. Distribución Geométrica
Está distribución se emplea con frecuencia para modelar los tiempos de espera en teoría de colas.
Por lo tanto
X ∼ Geo(0.1)
y la probabilidad de que la empresa pueda pasar 5 semanas o más sin presentar fallas en la
red, la podemos calcular como:
P (X ≥ 5) = 1 − P (X < 5) = 1 − (P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)) =
= 1 − [(0.9)1−1 0.1 + (0.9)2−1 0.1 + (0.9)3−1 0.1 + (0.9)4−1 0.1] =
= 0.59
por lo tanto, hay un 59 % de probabilidad de que pasen más de 5 semanas sin fallas de red
en la empresa.
■
8
5.1. Esperanza y Varianza de la Distribución Geométrica
1−p
V ar(X) =
p2
EJEMPLO: Esperanza y Varianza de la Distribución Geométrica
Continuando con el ejemplo anterior, el número esperado de semanas antes de presentarse la
primera falla, es:
1 1
µ = E(X) = = = 10
p 0.1
y
1−p 1
σ 2 = V ar(X) = 2
= = 100
p (0.1)2
σ = 10
Por lo tanto, se espera que en la empresa el sistema funciones sin fallas en la red alrededor
de 10 semanas pero con una variabilidad muy alta de aprimadamente 10 semanas.
■
6. Distribución Hipergeométrica
Sea N el número total de objetos en una población nita, de manera tal que r de estos objetos
son de un tipo, y N − r son de otro tipo. Si se selecciona una muestra aleatoria de tamaño n de la
población, entonces la probabilidad de que x sean de un tipo, y n − x sean del otro tipo, se modela
usando lo que conocemos como una distribuciónhipergeométrica.
Se dice que una variable aleatoria X tiene una distribución de probabilidad hipergeométrica si:
r N −r
x n−x
P (X = x) = N
, x = 0, 1 . . . n, x ≤ r, n−x≤r
n
9
Un fabricante de automóviles que compra motores a una compañía, donde se fabrican bajo
estrictas especicaciones. El fabricante recibe un lote de 40 motores. Su plan para aceptar
el lote consiste en seleccionar 8 motores, de manera aleatoria, y someterlos a prueba. Si
encuentra que ninguno de los motores presenta serios defectos, el fabricante acepta el lote, de
otra forma lo rechaza. Si lote contiene dos motores con serios defectos, ¾cuál es la probabilidad
de que sea aceptado el lote?.
Sea X la variable aleatoria que cuenta el número de motores defectuosos en la muestra de
motores seleccionados aleatoriamente, donde N = 40, n = 8, r = 2, entonces la variable
aleatoria X sigue una distribución hipergeométrica, y en consecuencia la probabilidad de
que el fabricante de automóviles acepte el lote de motores de la compañía, se calcula como:
2 38
0
P (X = 0) = 40
8 = 0.6359
8
Por lo tanto, hay un 63.59 % de probabilidad de que el fabricante de vehículos acepte el lote
de motores.
■
nr(N − r)(N − n)
V ar(X) =
N 2 (N − 1)
Así que la esperanza del fabricante de vehículos, de obtener unidades defectuosas es de 0.4 o
un 40 %.
■
10
7. Distribución Poisson
La distribución Poisson es una distribución discreta de probabilidad muy útil para modelar el
comportamiento de una variable aleatoria que representa el número de eventos independientes que
ocurren a una velocidad constante. Muchos eventos aleatorios ocurren de manera independiente
con una velocidad constante en el tiempo o en el espacio.
Algunos ejemplos típicos son el número de personas que llegan a una tienda de auto servicio en un
tiempo determinado, el número de defectos en piezas similares, el número de bacterias en un cul-
tivo, el número de solicitudes de seguro procesadas por una compañía en un periodo especíco, etc..
11
Sea X el número de plantas por región, si las plantas realmente están dispersas al azar,
entonces X se puede modelar como una variable aleatoria con distribución Poisson de
parámetro λ = 5, dado que la densidad promedio es de cinco por yarda cuadrada, así:
X ∼ P oiss(5)
Entonces, la probabilidad de que ninguna de las regiones contenga plantas que hayan crecido
de semillas, se calcula como:
50 e−5
P (X = 0) = = e−5 = 0.006738
0!
12
Ambas probabilidades son, de manera relativa, pequeñas. Por lo tanto, si el número de fallas
en mil horas está descrita de manera apropiada por la distribución de Poisson con una
frecuencia constante de dos, existe una probabilidad de observar exactamente cinco unidades
defectuosas de 0.0361 y una probabilidad de 0.0527 de observar por lo menos cinco en el
mismo periodo de operación.
Sin embargo, antes de tomar cualquier medida en contra del fabricante, es necesario contestar
algunas preguntas:
¾es la frecuencia de falla constante e igual a dos durante mil horas?
Aun si lo anterior fuese cierto, ¾es el medio de operación el mismo bajo el cual el
fabricante hizo sus pruebas?
Esto es, ¾es posible tener factores externos, introducidos de manera inadvertida, que
estén causando un número tan alto de fallas?
Las preguntas anteriores sólo pueden constestarse con una comprensión completa de la
situación.
■
Sea X una variable aleatoria con distribución Poisson, X ∼ P oiss(λ), entonces la esperanza y la
varianza de la v.a. X viene dada por el siguiente teorema:
Teorema 1. Si X es una variable aleatoria que posee una distribución de Poisson con parámetro
λ, entonces:
E(X) = λ
V ar(X) = λ
Una forma común de encontrar una variable aleatoria con una distribución Poisson espor medio
de un modelo llamado proceso Poisson, que es un modelo apropiado para situaciones como la que
se describe al principio de esta sección.
Si observamos un proceso Poisson y λ es el número medio de sucesos por unidad (longitud, área,
etc.), entonces Y = número de sucesos en a unidades, tiene una distribución Poisson con media
aλ, lo cual se justica bajo la suposición clave en el desarrollo de la teoría del proceso Poisson que
es la independencia de los números de sucesos en intervalos inconexos (áreas, etc.).
13
El número de accidentes industriales por mes se considera una v.a. Poisson con X ∼ P oiss(3)
Luego, sea Y el número de accidentes industriales que ocurren en dos meses, entonces
Y ∼ P oiss(2(3)); por lo tanto Y ∼ P oiss(6).
Para determinar que tan probable es que ocurran 10 accidentes en dos meses, calculamos:
Por tanto, el resultado observado no es tan alto, pero puede no ser suciente para garantizar
una investigación.
Otra manera de analizar este resultado es partiendo de la regla empírica que dice que
deberíamos esperar que Y tome valores en el intervalo µ ± 2σ con una alta probabilidad.
En este caso, este intervalo viene dado por:
√
6 ± 2( 6) =⇒ Y ∈ (1.10, 10.9)
14