Lectura 11

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 14

Lecture 11: Algunas Distribuciones Discretas

Aracelis Hernández
Escuela de Matemáticas y Ciencias Computacionales
Universidad Yachay Tech, Ecuador
[email protected]
PROBABILIDADES Y ESTADÍSTICA

1. Introducción

En esta sección se examinarán con detalle algunas distribuciones especícas de probabilidad que
han demostrado, empíricamente, ser modelos útiles para diversos problemas prácticos cuando la
variable de interés es una variable aleatoria discreta.

Tales distribuciones presentan un carácter teórico en el sentido en que sus funciones de probabi-
lidad se deducen matemáticamente con base en ciertas hipótesis que se suponen válidas para los
fenómenos aleatorios.

La elección de una distribución de probabilidad para representar un fenómeno de interés práctico,


debe estar motivada tanto por la comprensión de la naturaleza del fenómeno en sí, como por la
posible vericación de la distribución seleccionada a través de la evidencia empírica.

Se examinarán varias distribuciones para variables aleatorias discretas que son las más comunes,
y en cada caso se expondrán detalladamente las características distintivas de las distribuciones
particulares de probabilidad y se deducirán o se establecerán sus medias, varianzas, factores de
forma, y otras medidas descriptivas numéricas.

Una distribución de probabilidad está caracterizada, de manera general, por una o más cantidades
que reciben el nombre de parámetros de la distribución. Un parámetro puede tomar cualquier valor
de un conjunto dado y, en ese sentido, dene una familia de distribuciones de probabilidad, que
tendrán la misma función genérica de probabilidad. Se tratarán varios tipos de parámetros tales
como el conteo, la proporción, la rapidez, la localización y la forma.

Se examinarán con detalle cuatro familias de distribuciones de probabilidad discreta y se harán


comentarios sobre su aplicación. Estas son las distribuciones uniforme discreta, Bernoulli, binomial,
Poisson, hipergeométrica y la binomial negativa.

1
2. Distribución Uniforme Discreta

Denición 1. Una variable aleatoria X sigue una distribución uniforme discreta si cada uno de los
n valores en su rango x1 , . . . , x n tienen igual probabilidad, entonces, la distribución de probabilidad

viene dada por:

1
P (X = xi ) =
n
y la denotamos como X ∼ U{x1 ,x2 ,...,xn }

La distribución uniforme discreta describe el comportamiento de una variable discreta que puede
tomar n valores distintos con la misma probabilidad cada uno de ellos.

Esta distribución asigna igual probabilidad a todos los valores enteros entre el límite inferior y el
límite superior que denen el recorrido de la variable. Si la variable puede tomar valores entre a
y b, debe ocurrir que b sea mayor que a, y la variable toma los valores enteros empezando por a,
a + 1, a + 2, etc., hasta el valor máximo b.

EJEMPLO: Distribución uniforme discreta


Consideremos el lanzamiento de un dado no cargado, entonces la v.a. X que denota los
resultados posibles que podemos obtener:

X = 1, 2, 3, 4, 5, 6

sigue una distribución uniforme discreta con


1
P (X = i) = , con i = 1, 2, 3, 4, 5, 6
6

Así, si por ejemplo, queremos calcular:


1 1 1
P (X ≥ 5) = P (X = 5) + P (X = 6) = + =
6 6 3

EJEMPLO: Distribución uniforme discreta


El temario de un examen para un proceso selectivo contiene 50 temas, de los cuales se elegirá
uno por sorteo. Si una persona no ha estudiado los 15 últimos temas, ¾cuál es la probabilidad
de que salga un tema que haya estudiado?
La variable aleatoria X que representa el número del tema seleccionado para el examen sigue
una distribución uniforme:
1
X ∼ U{1,2,...,50} , con P (X = i) = , i = 1, 2, . . . , 50
50

2
Como la persona no ha estudiado los últimos 15 temas, entonces la probabilidad de que salga
seleccionado un tema de los ha estudiado, es:
35 35
X X 1 35
P (X ≤ 35) = P (X = i) = = = 0.7
i=1 i=1
50 50

Por lo tanto, la persona tiene una probabilidad del 70 % de que el tema elegido sea uno de
los que haya estudiado.

2.1. Esperanza y Varianza de la Distribución Uniforme Discreta

Si X ∼ U{x1 ,x2 ,...,xn } , entonces:


xn xn xn
X X 1 1 X
µ = E(X) = x P (X = x) = x = x = X̄
x=x1 x=x1
n n x=x
1

Por otra parte


xn xn xn
2
X
2
X
21 1 X
E(X ) = x P (X = x) = x = x2
x=x1 x=x1
n n x=x
1

Luego
xn
2 2 1 X 2
σ = V ar(X) = E(X ) − (E(X)) = x2 − (X̄)2
n x=x
1

EJEMPLO: Esperanza y varianza de una distribución uniforme discreta


La variable aleatoria X denota el número de 48 líneas de voces que se utilizan en un momento
determinado. Supongamos que X es una variable aleatoria uniforme discreta:
X ∼ U{1,2,...,48}
Hallar la media y la varianza.
Entonces:
48
1 X 1176
µ = E(X) = x= = 24.5
48 x=1 48
48
1 X 2
σ 2 = V ar(X) = x − (24.5)2 = 191.92
48 x=1

Luego, la desviación estándar es:


p √
σ= V ar(X) = 191.92 = 13.85

3
3. Distribución Bernoulli

La distribución de Bernoulli, también conocida como distribución dicotómica, es una distribución


de probabilidad que representa una variable discreta la cual solo puede tener dos resultados: éxito
o fracaso.

En la distribución de Bernoulli, el éxito es el resultado que esperamos que ocurra y en este caso la
variable aleatoria toma el valor de 1, mientras que el resultado de fracaso es un resultado distinto
al esperado, y la variable aleatoria toma el valor de 0.

Al denir la función de probabilidad, tenemos:


P (X = 1) = p
P (X = 0) = 1 − p
donde p representa la probabilidad de éxito.

Entonces, si X se distribuye Bernoulli, la denotamos como X ∼ Ber(p), y la representamos como:


1 con probabilidad p

X=
0 con probabilidad 1 − p
donde p representa el parámetro de la distribución Bernoulli, con 0 ≤ p ≤ 1.

Luego, si X ∼ Ber(p) , entonces la función de probabilidad viene dada por:


P (X = x) = px (1 − p)x , para x = 0, 1

si X = 1

p
=⇒ P (X = x) =
1 − p si X = 0
Una variable aleatoria Bernoulli, por sí sola, tiene poco interés en las aplicaciones de ingeniería.
En cambio la realización de una serie de experimentos Bernoulli conduce a varias distribuciones
de probabilidad discretas muy útiles.

EJEMPLO: Distribución Bernoulli


En experimentos y ensayos clínicos, la distribución de Bernoulli a veces se utiliza para modelar
a un solo individuo que experimenta un evento como la muerte, una enfermedad o una
exposición a una enfermedad. El modelo es un excelente indicador de la probabilidad de que
una persona tenga el evento en cuestión.
Así, la situación de un individuo, se modela así:
1 con probabilidad p

X=
0 con probabilidad 1 − p
donde X = 1 representa al individuo que contrajo la enfermedad, o muere o está expuesto a
una epidemia, mientras que X = 0 representa la situación de que el individuo no contrae la
enfermedad, no muere o no está expuesto a una epidemia.

4

3.1. Esperanza y Varianza de la Distribución Bernoulli

Sea X una variable aleatoria con distribución X ∼ Ber(p), entonces:


E(X) = (0)P (X = 0) + (1)P (X = 1) = p =⇒ E(X) = p
Por otra parte
E(X 2 ) = (02 )P (X = 0) + (12 )P (X = 1) = p =⇒ E(X 2 ) = p
Por lo tanto
V ar(X) = E(X 2 ) − (E(X))2 = p − p2 = p(1 − p) =⇒ V ar(X) = p(1 − p)

4. Distribución Binomial

La distribución Binomial es una de las distribuciones discretas de probabilidad más útiles. Sus
áreas de aplicación incluyen inspección de calidad, ventas, mercadotecnia, medicina, investigación
de opiniones y otras.

La idea detrás de la distrubución Binomial, es realizar ensayos Bernoulli n veces de manera inde-
pendientes, donde en cada ensayo Bernoulli hay un éxito con probabilidad constante p y un fracaso
con probabilidad constante 1 − p. Entonces la v.a. X denida como el número de éxitos obtenidos
en las n realizaciones o n ensayos Bernoulli, sigue una distribución Binomial con parámetros n y
p, que denotamos como X ∼ B(n, p).

Un experimento binomial presenta las siguientes propiedades:


1. consiste en un número jo, n, de pruebas idénticas,
2. cada prueba resulta en uno de dos resultados: éxito o fracaso, que representa un ensayo de
Bernoulli,
3. la probabilidad de éxito en una sola prueba es igual a p y es el mismo de una prueba a la
otra; y la probabilidad de fracaso es 1 − p,
4. las pruebas son independientes, y
5. la variable aleatoria de interés es X , que representa el número de éxitos observado durante
las n pruebas.
En consecuencia, esta variable puede tomar los valores 0, 1, . . . , n y su función de probabilidad
viene dada por:
 
n x
P (X = x) = p (1 − p)n−x , para x = 0, 1, 2, . . . , n y 0 ≤ p ≤ 1
x

5
Otra manera de denir una variable aleatoria con distribución Binomial, es partiendo del hecho de
que las n repeticiones corresponden a ensayos o pruebas Bernoulli con la misma probabilidad p de
éxito. En este sentido, si X ∼ Bin(n, p), podemos escribir:
n
con Yi ∼ Ber(p), para i = 1, 2, . . . , n
X
X= Yi ,
i=1

EJEMPLO: Distribución Binomial


La experiencia ha demostrado que 30 % de todas las personas afectadas por cierta enfermedad
se recuperan. Una empresa fabricante de medicamentos ha inventado una nueva medicina.
Diez personas con la enfermedad se seleccionaron al azar y recibieron la medicina; nueve se
recuperaron al poco tiempo. Suponga que la medicina no es ecaz en absoluto. ¾Cuál es la
probabilidad de que se recuperen al menos nueve de entre diez que recibieron la medicina?.
Sea X el número de personas que se recuperan. Si la medicina no funciona, la probabilidad
de que una sola persona enferma se recupere es:
p = 0.3

entonces X ∼ Bin(10, 0.3), representa cuantas personas enfermas de las 10, se recuperen
después de tomar la medicina.
Por lo tanto,
P (X ≥ 9) = P (X = 9) + P (X = 10) =
   
10 9 1 10
= (0.3) (0.7) + (0.3)10 (0.7)0 =
9 10
= 0.000138 + 0.000006 = 0.000144

Si la medicina no es ecaz, la probabilidad de observar al menos nueve que se recuperen


es sumamente pequeña. Si administramos la medicina a diez personas y observamos que al
menos nueve se recuperan, entonces puede ocurrir que:
ˆ la medicina no sirve y hemos observado un evento raro o bien
ˆ la medicina es en verdad útil para curar la enfermedad.

Nos apegamos a la segunda conclusión.


4.1. Esperanza y Varianza de la Distribución Binomial

Sea X una variable aleatoria con distribución binomial:


X ∼ Bin(n, p)

6
entonces podemos escribir a la variable aleatoria X como la suma de n variables aleatorias
Bernoulli:
n
con Yi ∼ Ber(p), para i = 1, 2, . . . , n
X
X= Yi ,
i=1
n
! n n
X X X
=⇒ E(X) = E Yi = E(Yi ) = p = np
i=1 i=1 i=1
=⇒ E(X) = np
Por otra parte
n
! n n
X X X
V ar(X) = V ar Yi = V ar(Yi ) = p(1 − p) = np(1 − p)
i=1 i=1 i=1
=⇒ V ar(X) = np(1 − p)
En el cálculo de la varianza para la variable aleatoria Binomial, recordemos que los ensayos Ber-
noulli son independiente, lo que justica que la varianza de la suma de variables aleatorias es igual
a la suma de las varianzas de cada uno de los términos de la suma.

EJEMPLO: Distribución Binomial


Un club nacional de automovilistas comienza una campaña telefónica con el propósito de
aumentar el número de miembros. Con base en experiencia previa, se sabe que una de cada
20 personas que reciben la llamada se une al club. Si en un día 25 personas reciben la llamada
telefónica, ¾cuál es la probabilidad de que por lo menos dos de ellas se inscriban al club? y
¾cuál es el número esperado?
Como de cada 20 personas que reciben la llamada, se suscriben una al club, entonces p = 0.05.
Además, si se supone que las 25 personas constituyen un conjunto de ensayos independientes
(una suposición muy razonable en este caso) con una probabilidad constante p = 0.05 de
suscribirse al club, y si la variable aleatoria X es el número de personas, de entren 25, que
termina suscribiéndose al club, entonces:
X ∼ Bin(25, 0.05)

Entonces, la probabilidad de que al menos dos de las personas se suscriban al club de las 25,
se calcula como:
P (X ≥ 2) = 1 − P (X < 2) = 1 − (P (X = 0) + P (X = 1)) =
   
25 0 25 25
= (0.05) (0.95) + (0.05)1 (0.95)24 = 0.3576
0 1
El número esperado de persona que se pueden suscribirse al club automovilístico, es:
E(X) = np = (25)(0,05) = 1.25

7
5. Distribución Geométrica

La distribución geométrica modela el comportamiento probabilístico del número de intentos reali-


zados hasta que se tiene el primer éxito en una sucesión de intentos o ensayos independientes de
Bernoulli.

De manera que si X representa el número de intentos independientes antes de obtener el primer


éxito, entonces si cada intento lo denotamos como una variable Bernoulli Yi :

P (X = x) = P (Y1 = 0)P (Y2 = 0) . . . P (Yx−1 = 0)P (Yx = 1) =


= (1 − p)(1 − p) . . . (1 − p)p = (1 − p)x−1 p

donde los valores de la variable aleatoria es X = 1, 2, 3, . . ., con 0 ≤ p ≤ 1, y la denotamos como


X ∼ Geo(p).

Está distribución se emplea con frecuencia para modelar los tiempos de espera en teoría de colas.

EJEMPLO: Distribución Geométrica


Supongamos que se sabe que la probabilidad de que una determinada empresa experimente
una falla en la red en una semana determinada es del 10 %. Supongamos que al director
ejecutivo de la empresa le gustaría conocer la probabilidad de que la empresa pueda pasar 5
semanas o más sin experimentar una falla en la red.
Entonces, sea X el número de semanas antes de presentarse una falla en la red en la empresa,
y donde la probabilidad de presentarse una falla en la red en una semana determinada es
p = 0.1.

Por lo tanto

X ∼ Geo(0.1)

y la probabilidad de que la empresa pueda pasar 5 semanas o más sin presentar fallas en la
red, la podemos calcular como:

P (X ≥ 5) = 1 − P (X < 5) = 1 − (P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)) =
= 1 − [(0.9)1−1 0.1 + (0.9)2−1 0.1 + (0.9)3−1 0.1 + (0.9)4−1 0.1] =
= 0.59

por lo tanto, hay un 59 % de probabilidad de que pasen más de 5 semanas sin fallas de red
en la empresa.

8
5.1. Esperanza y Varianza de la Distribución Geométrica

Si X es una variable aleatoria con X ∼ Geo(p), entonces:


1
E(X) =
p

1−p
V ar(X) =
p2
EJEMPLO: Esperanza y Varianza de la Distribución Geométrica
Continuando con el ejemplo anterior, el número esperado de semanas antes de presentarse la
primera falla, es:
1 1
µ = E(X) = = = 10
p 0.1
y
1−p 1
σ 2 = V ar(X) = 2
= = 100
p (0.1)2
σ = 10

Por lo tanto, se espera que en la empresa el sistema funciones sin fallas en la red alrededor
de 10 semanas pero con una variabilidad muy alta de aprimadamente 10 semanas.

6. Distribución Hipergeométrica

Sea N el número total de objetos en una población nita, de manera tal que r de estos objetos
son de un tipo, y N − r son de otro tipo. Si se selecciona una muestra aleatoria de tamaño n de la
población, entonces la probabilidad de que x sean de un tipo, y n − x sean del otro tipo, se modela
usando lo que conocemos como una distribuciónhipergeométrica.

Se dice que una variable aleatoria X tiene una distribución de probabilidad hipergeométrica si:
r N −r
 
x n−x
P (X = x) = N
 , x = 0, 1 . . . n, x ≤ r, n−x≤r
n

donde N , n, y r son enteros positivos.

EJEMPLO: Distribución Hipergeométrica

9
Un fabricante de automóviles que compra motores a una compañía, donde se fabrican bajo
estrictas especicaciones. El fabricante recibe un lote de 40 motores. Su plan para aceptar
el lote consiste en seleccionar 8 motores, de manera aleatoria, y someterlos a prueba. Si
encuentra que ninguno de los motores presenta serios defectos, el fabricante acepta el lote, de
otra forma lo rechaza. Si lote contiene dos motores con serios defectos, ¾cuál es la probabilidad
de que sea aceptado el lote?.
Sea X la variable aleatoria que cuenta el número de motores defectuosos en la muestra de
motores seleccionados aleatoriamente, donde N = 40, n = 8, r = 2, entonces la variable
aleatoria X sigue una distribución hipergeométrica, y en consecuencia la probabilidad de
que el fabricante de automóviles acepte el lote de motores de la compañía, se calcula como:
2 38
 
0
P (X = 0) = 40
8 = 0.6359
8

Por lo tanto, hay un 63.59 % de probabilidad de que el fabricante de vehículos acepte el lote
de motores.

6.1. Esperanza y Varianza de la Distribución Hipergeométrica

Si X es una variable alaeatoria con distribución hipergeométrica, entonces:


nr
E(X) =
N

nr(N − r)(N − n)
V ar(X) =
N 2 (N − 1)

EJEMPLO: Esperanza de la Distribución Hipergeométrica


Continuando con el ejemplo anterior, el número esperado de motores defectusos en el lote
que revisa el fabricante de vehículos, es:
(8)(2)
E(X) = = 0.4
40

Así que la esperanza del fabricante de vehículos, de obtener unidades defectuosas es de 0.4 o
un 40 %.

10
7. Distribución Poisson

La distribución Poisson es una distribución discreta de probabilidad muy útil para modelar el
comportamiento de una variable aleatoria que representa el número de eventos independientes que
ocurren a una velocidad constante. Muchos eventos aleatorios ocurren de manera independiente
con una velocidad constante en el tiempo o en el espacio.

Algunos ejemplos típicos son el número de personas que llegan a una tienda de auto servicio en un
tiempo determinado, el número de defectos en piezas similares, el número de bacterias en un cul-
tivo, el número de solicitudes de seguro procesadas por una compañía en un periodo especíco, etc..

De hecho, la distribución Poisson es el principal modelo de probabilidad empleado para analizar


problemas de líneas de espera de atención. Además, ofrece una aproximación excelente a la función
de probabilidad Binomial cuando p es pequeño y n es grande.

Por lo tanto, la distribución Poisson:


1. cuenta el número de sucesos independientes ocurridos en una unidad de tiempo, así X toma
los valores 0, 1, 2, . . .,
2. supone que el número de sucesos independientes ocurridos en una unidad de tiempo es
independiente de los sucesos ocurridos en otras unidades de tiempo,
3. la probabilidad de que un suceso ocurra en una unidad de tiempo es la misma para todas las
unidades de tiempo, y
4. el promedio de sucesos en cada unidad de tiempo, que se representa por λ, permanece
constante.
Sea X una variable aleatoria que representa el número de eventos aleatorios independientes que
ocurren a una rapidez constante sobre el tiempo o el espacio. Se dice entonces que la variable
aleatoria X tiene una distribución de Poisson con función de probabilidad dada por:
λx e−λ
P (X = x) = , X = 0, 1 . . . , λ>0
x!

El parámetro de la distribución de Poisson es λ, que representa el número promedio de ocurrencias


del evento aleatorio por unidad de tiempo. Por lo tanto, si X sigue una distribución Poisson de
parámetro λ, la denotamos como X ∼ P oiss(λ).

EJEMPLO: Distribución Poisson


Cierto tipo de árbol tiene plantas que han crecido de semillas dispersas al azar en una
supercie grande, con la densidad media de plantas siendo aproximadamente de cinco por
yarda cuadrada. Si en esa zona, un guardabosques localiza al azar diez regiones de muestreo
de 1 yarda cuadrada, encuentre la probabilidad de que ninguna de las regiones contenga
plantas que hayan crecido de semillas.

11
Sea X el número de plantas por región, si las plantas realmente están dispersas al azar,
entonces X se puede modelar como una variable aleatoria con distribución Poisson de
parámetro λ = 5, dado que la densidad promedio es de cinco por yarda cuadrada, así:

X ∼ P oiss(5)

Entonces, la probabilidad de que ninguna de las regiones contenga plantas que hayan crecido
de semillas, se calcula como:
50 e−5
P (X = 0) = = e−5 = 0.006738
0!

La probabilidad de que X = 0 en diez regiones seleccionadas de manera independiente es


entonces:

P (X1 = 0, . . . , X10 = 0) = P (X1 = 0) . . . P (X10 = 0) = (e−5 )10

porque la probabilidad de la intersección de eventos independientes es igual al productode


las probabilidades respectivas.
Como observamos, la probabilidad resultante es en extremo pequeña. Entonces, de acuerdo
al resultado obteneido, si este evento ocurriera en realidad, se cuestionaría seriamente la
suposición de aleatoriedad, o la densidad promedio de plantas expresada o ambos.

EJEMPLO: Distribución Poisson


Después de una prueba de laboratorio muy rigurosa con cierto componente eléctrico, el
fabricante determina que en promedio, sólo fallarán dos componentes antes de tener 1000
horas de operación. Un comprador observa que son cinco los que fallan antes de las 1000
horas. Si el número de componentes que fallan es una variable aleatoria de Poisson, ¾existe
suciente evidencia para dudar de la conclusión del fabricante?
En este caso, sea X el número de componentes que fallan antes de las 1000 horas de operación,
y de acuerdo a las especicaciones del fabricante, se determina en promedio que sólo dos
componentes fallarán antes de las 1000 horas de operación, así que la tasa promedio es
λ = 2, con X ∼ P oiss(2).

Para determinar silas especicaciones del fabricantes son ciertas, calculamos:


25 e−2
P (X = 5) = = 0.0361
5!
y la probabilidad de que por lo menos fallen cinco en 1000 horas es:

P (X ≥ 5) = 1 − P (X < 5) = 1 − [P (X = 0) + . . . + P (X = 4)] = 0.0527

12
Ambas probabilidades son, de manera relativa, pequeñas. Por lo tanto, si el número de fallas
en mil horas está descrita de manera apropiada por la distribución de Poisson con una
frecuencia constante de dos, existe una probabilidad de observar exactamente cinco unidades
defectuosas de 0.0361 y una probabilidad de 0.0527 de observar por lo menos cinco en el
mismo periodo de operación.
Sin embargo, antes de tomar cualquier medida en contra del fabricante, es necesario contestar
algunas preguntas:
ˆ ¾es la frecuencia de falla constante e igual a dos durante mil horas?
ˆ Aun si lo anterior fuese cierto, ¾es el medio de operación el mismo bajo el cual el
fabricante hizo sus pruebas?
ˆ Esto es, ¾es posible tener factores externos, introducidos de manera inadvertida, que
estén causando un número tan alto de fallas?
Las preguntas anteriores sólo pueden constestarse con una comprensión completa de la
situación.

7.1. Esperanza y Varianza de la Distribución Poisson

Sea X una variable aleatoria con distribución Poisson, X ∼ P oiss(λ), entonces la esperanza y la
varianza de la v.a. X viene dada por el siguiente teorema:
Teorema 1. Si X es una variable aleatoria que posee una distribución de Poisson con parámetro

λ, entonces:

E(X) = λ
V ar(X) = λ

Una forma común de encontrar una variable aleatoria con una distribución Poisson espor medio
de un modelo llamado proceso Poisson, que es un modelo apropiado para situaciones como la que
se describe al principio de esta sección.

Si observamos un proceso Poisson y λ es el número medio de sucesos por unidad (longitud, área,
etc.), entonces Y = número de sucesos en a unidades, tiene una distribución Poisson con media
aλ, lo cual se justica bajo la suposición clave en el desarrollo de la teoría del proceso Poisson que
es la independencia de los números de sucesos en intervalos inconexos (áreas, etc.).

EJEMPLO: Distribución Poisson


Ocurren accidentes industriales de acuerdo con un proceso Poisson con un promedio de tres
accidentes por mes. Durante los últimos dos meses ocurrieron diez accidentes. ¾Este número
parece altamente improbable si el número promedio de accidentes por mes, µ, es todavía
igual a 3?. ¾Indica un aumento en el número medio de accidentes por mes?

13
El número de accidentes industriales por mes se considera una v.a. Poisson con X ∼ P oiss(3)
Luego, sea Y el número de accidentes industriales que ocurren en dos meses, entonces
Y ∼ P oiss(2(3)); por lo tanto Y ∼ P oiss(6).

Para determinar que tan probable es que ocurran 10 accidentes en dos meses, calculamos:

P (Y ≥ 10) = 1 − P (Y < 10) = 1 − [P (Y = 0) + . . . + P (Y = 9)] = 0.08392402

Por tanto, el resultado observado no es tan alto, pero puede no ser suciente para garantizar
una investigación.
Otra manera de analizar este resultado es partiendo de la regla empírica que dice que
deberíamos esperar que Y tome valores en el intervalo µ ± 2σ con una alta probabilidad.
En este caso, este intervalo viene dado por:

6 ± 2( 6) =⇒ Y ∈ (1.10, 10.9)

Como observamos, el número de accidentes en dos meses, Y = 10, no está a más de 2σ de µ,


pero está cerca de la frontera.
Igualmente, como se concluyó antes, el resultado observado no es altamente improbable, pero
puede ser sucientemente improbable para garantizar una investigación.

14

También podría gustarte