Tema 5
Tema 5
Tema 5
5.1. INTRODUCCIÓN.
5.2. DISTRIBUCIÓN BINOMIAL.
5.3. DISTRIBUCIÓN HIPERGEOMÉTRICA.
5.4. DISTRIBUCIÓN DE POISSON.
5.1.- INTRODUCCIÓN.
Hasta ahora se ha visto cómo es posible introducir funciones matemáticas para representar distribuciones
de probabilidad de variables aleatorias.
Para ello ya se dijo que la distribución de probabilidad en variable aleatoria discreta debía cumplir las
siguientes condiciones:
1) 𝑓(𝑥𝑖 ) ≥ 0 ∀ 𝑖 = 1, … , 𝑛
2) ∑𝑛𝑖=1 𝑓(𝑥𝑖 ) = 1
La expresión matemática de la distribución de probabilidad de un fenómeno aleatorio permitió el cálculo
de sus características (promedio, dispersión etc.) mediante el concepto de esperanza matemática y de la
función generatriz de momentos.
Ahora pasamos a otra etapa: sistematizar las distribuciones de probabilidad más importantes que surgen
de los experimentos aleatorios.
Sería imposible analizar todas las distribuciones que podrían surgir en la realidad. Por ello, nos
limitaremos a un determinado tipo, las de mayor uso, que nos servirán de modelos para explicar la
realidad del experimento que estamos estudiando. Todo modelo es una simplificación de la realidad, por
lo que a veces el ajuste entre ambos puede no ser muy satisfactorio y otras sí.
Por tanto, comenzamos a estudiar los modelos de probabilidad para variables aleatorias discretas más
usados en la práctica estadística.
1
𝑋 es la variable aleatoria que mide el número de éxitos en 𝑛 pruebas de Bernoulli realizadas
independientemente.
Vamos a poner un ejemplo: Se lanza una moneda 𝑛 veces y se observa el número de caras que se
obtienen. Vemos que:
2.- En cada una de ellas tenemos los resultados posibles: éxito (obtener cara) y fracaso (no obtener cara).
La función o ley o modelo de probabilidad que nos da estas probabilidades es la distribución binomial.
Sea 𝐸 un experimento aleatorio que repetimos n veces consecutivas, observando en cada prueba si se
presenta un determinado resultado (𝐸, de éxito) o no se presenta (𝐹, de fracaso), y sea p la probabilidad
de ocurrencia del resultado 𝐸 en cada una de las pruebas del experimento, y llamaremos q a la
probabilidad de ocurrencia de 𝐹 en cada una de las n pruebas.
Los resultados obtenidos en cada prueba son independientes unos de otros, entonces, si una vez realizado
el experimento tenemos:
𝐸, 𝐸, … , 𝐸, 𝐹, … , 𝐹
𝑥 éxitos 𝑛 − 𝑥 fracasos
Esta probabilidad que se ha calculado es para una ordenación cualquiera de de los 𝑥 éxitos y (𝑛 − 𝑥)
fracasos. Cada ordenación posible es equiprobable.
El interés está en conocer la probabilidad de ocurrencia de 𝑥 éxitos en cualquier orden. Por esta razón,
vemos cuál es la fórmula que nos proporciona el número de permutaciones posibles (con repetición):
El número de permutaciones de n elementos, en que se tiene dos elementos distintos que se repiten 𝑥 y
𝑛 − 𝑥 veces, es:
n! n
Pxn,n x
x! (n x)! x
Luego la probabilidad vendrá dada por:
n! n!
P( X x) p x (1 p) n x p x q n x x 0,1,2,...,n
x! (n x)! x! (n x)!
Esta distribución recibe el nombre de binomial, y, como puede verse, fijado el número de éxitos (x),
basta con saber dos parámetro: n y p, ya que q = (1-p). Se suele expresar: X ~ B(n , p)
2
Función de cuantía:
n
f ( x) p x q n x x 0,1,2,..., n
x
ó
n x n x
p q si x 0,1,2,..., n
x
f ( x) P( X x)
0 en el resto
n
2) f ( x) 1
x 0
Precisamente el hecho de que cada probabilidad de la distribución binomial sea un término del desarrollo
del binomio ( p q ) n es lo que ha motivado el nombre de la distribución, binomial.
Función de distribución
0 si x 0
x
n i n i
F ( x) P( X x) p q
i
si 0 x n
i 0
1 si x n
e tx n
n
M X (t ) E e tX
x
tx
f ( x) e
x 0
p x q n x e t p q
x
n
t
A partir de la función generatriz de momentos M X (t ) e t p q n se pueden calcular la esperanza
matemática y la varianza de una variable que sigue una distribución binomial.
1.- Esperanza:
dM X (t )
E ( X ) 1' 1 ' M X' (0) n p
dt t 0
E( X ) n p
3
2.- Varianza.
d 2 M X (t )
Var ( X ) 2 2' 2 2' M X' ' (0) 2
dt t 0
Var ( X ) 2 n p np 2
Var ( X ) 2 n pq
4
3.- Cuando 𝑛 crece, la distribución tiende a ser simétrica. Si n tiende a infinito, el coeficiente de asimetría
tiende a cero.
4.- Cuando 𝑛 tiende a infinito, el coeficiente de apuntamiento tiende a cero y la distribución binomial
tiende a aproximarse a una normal.
0.044
0.04
0.036
0.032
0.028
f(x)
0.024
0.02
0.016
0.012
0.008
0.004
0
60 70 80 90 100 110 120
x
El problema del cálculo de probabilidades en una distribución binomial, cuando n es grande se puede a
veces resolver mediante aproximaciones facilitadas por la distribución de Poisson (𝑝 → 0) y la
distribución normal (𝑝 ≈ 0’5). Esto se verá más adelante.
Propiedad reproductiva
Si 𝑋1 y 𝑋2 son dos variables aleatorias independientes distribuidas según una 𝐵(𝑛1 , 𝑝) y 𝐵(𝑛2 , 𝑝)
(importante, con el mismo 𝑝) respectivamente, entonces 𝑋 = 𝑋1 + 𝑋2 se distribuye:
𝑋 ~ 𝐵 (𝑛1 + 𝑛2 , 𝑝)
M X (t ) M X1 X 2 (t ) E e t X 1 X 2 E e t X1 e t X 2
E e t X1 E e t X 2
por independencia
de X 1 y X 2
et p q e
n1 t
pq n2
et p q n1 n2
Luego la distribución binomial se reproduce por adición de variables aleatorias independientes respecto
al parámetro 𝑛.
5
Ejemplo
Una máquina fabrica una determinada pieza y se sabe que produce un 15% de piezas defectuosas. Hallar
la probabilidad de que al examinar 10 piezas:
a) Sólo una sea defectuosa.
b) Se encuentren como máximo dos defectuosas.
𝑋 ~ 𝐵 (10, 0,15)
n
P( X x) f ( x) p x q n x
x
10
a) f (1) P( X 1) 0,151 0,859 0,3474
1
También podemos obtener directamente esta probabilidad a partir de las tablas de la función de
probabilidad binomial, para 𝑛 = 10, 𝑝 = 0,15 y 𝑥 = 1
b)
P( X 2) P ( X 0) P ( X 1) P ( X 2)
También podemos obtener estas probabilidades a partir de las tablas de la función de probabilidad
binomial, para 𝑛 = 10, 𝑝 = 0,15 y 𝑥 = 0, 𝑥 = 1 𝑦 𝑥 = 2.
Además, para simplificar cálculos también podemos obtener directamente el valor tabulado para la
función de distribución para 𝑛 = 10, 𝑝 = 0,15 y 𝑥 = 2:
P( X 2) F (2) 0,8202
1Más adelante se verá que cuando la población de estudio es muy grande, aunque se realicen las prebas sin reposición, se puede
utilizar la binomial, realizando una aproximación.
6
determinada característica, de tal forma que la población (de tamaño 𝑁) queda dividida en dos
subpoblaciones:
La variable aleatoria 𝑋 que recoge el número de éxitos (elementos de una determinada característica) en
la muestra de tamaño n obtenida de una población de tamaño 𝑁 sigue una distribución de probabilidad
hipergométrica.
Notación: 𝑋 ~ 𝐻 (𝑁, 𝑛, 𝑝)
Np N Np
x n x max(0, n ( N Np )) x min(n, Np )
N
f ( x) n
0 en el resto
N
= número de casos posibles; es el número de muestras distintas de tamaño 𝑛 obtenidas de la
n
población total, de tamaño 𝑁.
Np
= número de formas posibles de obtener x elementos de la subpoblación que posee la
x
característica, que tiene 𝑁𝑝 elementos.
N Np
= número de formas posibles de obtener (𝑛 − 𝑥) elementos de la segunda subpoblación, de
nx
la que no posee la característica, que tiene (𝑁 − 𝑁𝑝) elementos.
Np N Np
Luego = número de casos favorables; número de formas de obtener una muestra con 𝑥
x nx
elementos de la primera subpoblación (la que posee la característica) y (𝑛 −
𝑥) de la segunda.
7
¿Qué significan los límites de la función de cuantía?
xn El número de éxitos tiene que ser menor o igual que el número de elementos de
la muestra, lógicamente.
x Np El número de éxitos tiene que ser menor o igual que el número de elementos
con esa característica en la población.
x0 El número de éxitos tiene que ser mayor o igual que cero.
x N Np n
x n ( N Np )
Ejemplos:
Explicación: Hay 2 elementos en la población que presentan la característica, luego, aunque haya
10 elementos en la muestra, el número máximo de éxitos será 2.
8
Comprobación de que es función de cuantía:
Esperanza E ( x) n p
N n
Varianza Var( X ) 2 n p q
N 1
La varianza del modelo hipergeométrico es menor que la de la distribución binomial ya que el factor
N n
es menor que la unidad. Este factor se llama factor de corrección en muestreo con poblaciones
N 1
finitas.
Cuando N tiende a ∞, este factor tiende a uno. Luego, para 𝑁 suficientemente grande comparado con n,
ambas distribuciones, binomial e hipergeométrica tienden a hacerse idénticas por lo que, en ese caso, es
poco relevante que la muestra de tamaño n sea con reposición o sin reposición.
1.- Se extrae una muestra de 3 elementos de una población de 20 elementos. La extracción es con
reposición. La probabilidad de éxito (tener una determinada característica) es 1/2. 𝑁 = 20, 𝑝 =
1/2, 𝑛 = 3.
Al ser con reposición, se trata de una distribución binomial. Cuando se va a calcular la probabilidad de
tener 3 éxitos, se ve que la probabilidad de éxito en la primera extracción es 1/2, en la segunda y en la
tercera también. (Es decir, son independientes las extracciones).
2.- Imaginemos ahora que en esa misma población la extracción para la muestra se hace sin reposición.
𝑁 = 20, 𝑝 = 1/2, 𝑁𝑝 = 10, 𝑛 = 3.
3.- Si resultara que se tiene una población de 𝑁 = 1.000 y 𝑁𝑝 = 10, entonces, en el caso de extracción
sin reposición, la probabilidad de éxito en la primera extracción es 10/1.000, en la segunda 9/999 y en
la tercera 8/998, luego las diferencias son pequeñas, es casi como si se mantuviera constante y puede
utilizarse la distribución binomial en lugar del modelo hipergeométrico, sin cometer mucho error.
9
Ejemplos:
1) Un fabricante de automóviles compra los motores a una compañía donde se fabrican bajo estrictas
especificaciones. El fabricante recibe un lote de de 40 motores. Su plan para aceptar el lote consiste en
seleccionar 8, de manera aleatoria y someterlos a prueba. Si encuentra que ninguno de los motores
presenta serios defectos, el fabricante acepta el lote, de otra forma lo rechaza. Si el lote contiene dos
motores con serios defectos ¿Cuál es la probabilidad de que sea aceptado?
𝑁 = 40𝑁𝑝 = 2𝑛 = 8
Np N Np 2 38
x n x x8 x
f ( x) x 0, 1, 2
N 40
n 8
2 38 38!
1
f (0) P( X 0)
0 8 8! 30!
0,6359
40 40!
8 8! 32!
2) Un fabricante asegura que sólo el 1% de su producción total se encuentra defectuosa. Supóngase que
tiene 1.000 artículos y se seleccionan 25 al azar para inspeccionarlos. Si el fabricante se encuentra en lo
correcto ¿cuál es la probabilidad de observar dos o más defectuosos en la muestra?
𝑋
= ”𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑎𝑟𝑡í𝑐𝑢𝑙𝑜𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜𝑠 𝑒𝑛 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑑𝑒 25 𝑜𝑏𝑡𝑒𝑛𝑖𝑑𝑎 𝑑𝑒 𝑢𝑛𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑑𝑒 1.000”
Np N Np 10 990
x n x x 25 x
f ( x) x 0,1,2,3,4,5,6,7,8,9,10
N 1000
n 25
P( X 2) 1 P( X 2) 1 P( X 0) P( X 1)
10
10 990 990!
P ( X 0)
0 25 25! (990 25 )!
1000 1000 !
?
25 25! 975!
Como vemos, estas probabilidades son de cálculo complicado, por el elevado valor de los factoriales.
25
X~B (n=25, p=0,01) f ( x) 0,01x 0,99( n x )
x
25
p( X 0) f (0) 0,010 0,99 25 0,7778
0
25
p( X 1) f (1) 0,011 0,99 24 0,1964
1
Vamos a utilizar el ejemplo que acabamos de hacer (con 𝑁 = 1.000, 𝑛 = 25 y 𝑝 = 0,01) para ilustrar
gráficamente la aproximación de ladistribución hipergeométrica a la binomial cuando 𝑛 < 0,1 · 𝑁:
11
5.4.- DISTRIBUCIÓN DE POISSON
La distribución de Poisson es conocida como la ley de los sucesos raros.
Se emplea en la resolución de problemas que surgen al contar la frecuencia con que ocurren sucesos
aleatorios, relativamente raros e independientes entre sí, en un intervalo fijo de tiempo, de espacio o
similar (longitud, volumen, etc.)
- Número de accidentes automovilísticos que ocurren por unidad de tiempo (semana, día, etc.) en
un cruce de carreteras.
- Número de llamadas telefónicas recibidas durante una hora (unidad de tiempo) por la
recepcionista de un hotel
- Número de bacterias en un cm2 de cierta preparación
- Número de clientes que llegan a un almacén la tarde de un jueves
- Número de llegadas de aviones a un aeropuerto en una hora.
Estos son fenómenos que no responden a una ley binomial. En el caso típico binomial tenemos un
experimento que se repite 𝑛 veces de forma independiente y del que podemos determinar tanto el número
de éxitos como el número de fracasos.
Sin embargo, hay sucesos aleatorios que no ocurren como resultados de pruebas de un experimento sino
más bien en puntos aleatorios del tiempo o del espacio.
Para tales sucesos, tiene sentido contar el número de éxitos por unidad de tiempo o espacio. Pero no
tiene sentido hablar de fracasos. Por ejemplo, si se observa el número de llegadas de aviones a un
aeropuerto durante una hora, podemos cuantificar cuantos llegaron pero no cuantos no llegaron. De igual
forma ocurre con cualquiera de los ejemplos dados anteriormente.
La variable 𝑋 que sigue una distribución de Poisson tiene la siguiente función de cuantía (ley de
probabilidad).
e x
si x 0,1,2,.. 0.
x!
f ( x) P( X x)
0 en el resto
donde es el parámetro que caracteriza a la distribución. Es el número medio de veces que ocurre el
suceso aleatorio por unidad de tiempo o espacio.
12
En primer lugar se va a comprobar que es función de cuantía:
2).- f ( x) 1
x 0
Función de distribución:
0 si x0
F ( x) P( X x)
x
i
e
i!
si x 0,1,2,...
i 0
e
M X (t ) E e t X tx
f ( x) e t x e
x
x!
e e 1
t
t
x x
M X (t ) e e 1
t
t
1.- Esperanza:
dM X (t )
E ( X ) 1' 1 ' M X' (0)
dt t 0
E (X )
2.- Varianza.
d 2 M X (t )
Var ( X ) 2 2' 2 2' M X' ' (0) 2
dt t 0
Var (X ) 2
13
Si las variables 𝑋1 y 𝑋2 son variables aleatorias independientes que se distribuyen como una distribución
de Poisson, con, 𝑋1 ~ P 1 y 𝑋2 ~ P 2 , entonces, la variable aleatoria 𝑋 = 𝑋1 + 𝑋2 se distribuye
como una Poisson de parámetro 1 2 , es decir, 𝑋 ~ P 1 2
M X (t ) M X 1 X 2 (t ) E e t X 1 X 2 E e t X 1 e t X 2
E et X 1 E et X 2
por independen cia
de X 1 y X 2
t
e t 1
e 1 e 1 e 2 e 1 2 e 1
t
Muy importante para la práctica: Estas propiedades llevan a que si dada 𝑋 ~ P 1 dónde 1 es el
número medio de veces que aparece un suceso en un intervalo de amplitud t de tiempo (o espacio) y se
desea obtener la probabilidad de ocurrencia de ese suceso para otro intervalo de tiempo de amplitud
k t , entonces la distribución a utilizar será P 2 dónde 2 k 1 .
Podemos utilizar cualquier amplitud que se desee para el tiempo o el espacio pero antes hay que ajustar
para ese intervalo. Es decir, la media de una distribución de Poisson es proporcional a la amplitud
del intervalo considerado.
Ejemplo:
El número de llamadas recibidas en un minuto en una línea telefónica sigue una distribución de Poisson
con media igual a cuatro. Calcule:
a) La probabilidad de que no se reciba ninguna llamada en un minuto.
b) La probabilidad de que en un minuto se reciban menos de 2 llamadas.
c) La probabilidad de que no se produzca ninguna llamada en dos minutos.
d) La probabilidad de que no se reciba ninguna llamada en un intervalo de treinta segundos.
14
a) 𝑋 = ”𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑙𝑎𝑚𝑎𝑑𝑎𝑠 𝑟𝑒𝑐𝑖𝑏𝑖𝑑𝑎𝑠 𝑒𝑛 𝑢𝑛 𝑚𝑖𝑛𝑢𝑡𝑜” 𝑋 ~ 𝑃 (4)
e 4 4 x
f ( x) x 0, 1, 2,...
x!
e 4 4 0
p( X 0) f (0) 0,0183
0!
También podemos obtener directamente esta probabilidad a partir de las tablas de la función de
probabilidad Poisson, para µ=4 y x=0.
e 4 40 e 4 41
b) P( X 2) P ( X 0) P ( X 1) f (0) f (1) 0, 0183 0, 0733 0, 0916
0! 1!
También podemos obtener estas probabilidades a partir de las tablas de la función de probabilidad
Poisson, para µ=4, y x=0 ó x=1.
Además, para simplificar cálculos, también podemos obtener directamente el valor tabulado para la
función de distribución para µ=4 y x=1:
P( X 2) P( X 1) F (1) 0,0916
e 8 8 y
f ( y) y 0, 1, 2,...
y!
e 8 8 0
f (Y 0) f (0) 0,0003
0!
(valor que también podemos obtener en las tablas de la función de probabilidad Poisson, para µ=8 ).
1
𝑊~𝑃( · 4) es decir, 𝑊 ~ 𝑃(2)
2
e 2 2 w
f ( w) w 0, 1, 2,...
w!
e 2 2 0
f (W 0) f (0) 0,1353
0!
(valor que también podemos obtrener en las tablas de la función de probabilidad Poisson, para µ=2).
15
Aproximación de la distribución binomial a la distribución de Poisson
Teorema: Si X es una variable aleatoria discreta que se distribuye según una distribución binomial
𝐵(𝑛, 𝑝), y la probabilidad de éxito p tiende a cero, mientras que el número de pruebas, n, tiende a
infinito, de tal forma que np permanece constante, entonces, la distribución binomial se aproxima a una
Poisson con media np .
La distribución de Poisson puede servir para obtener valores aproximados de las probabilidades
binomiales, cuando 𝑛 es muy grande y 𝑝 muy pequeño. En las aplicaciones prácticas se reemplaza
habitualmente el modelo binomial por el de Poisson cuando, simultáneamente, 𝑛 ≥ 50 y 𝑝 ≤ 0,1.
Para estos límites, por ejemplo, la probabilidad 𝑃(𝑋 = 5), según el modelo binomial en que 𝑛 = 50 y
𝑝 = 0,1, es:
𝐵 (𝑛 = 50, 𝑝 = 0,1) 𝑃(𝑋 = 5) = (50
5
)0,15 0,945 = 0,1849
Lo que da una aproximación de la probabilidad binomial; aproximación que es bastante buena a pesar
de haber tomado los valores mínimo de 𝑛 y máximo de 𝑝.
Si se ensaya ahora el caso que 𝑛 = 500 y 𝑝 = 0,01 veremos que los resultados son mucho más cercanos:
De esta forma se ve que la aproximación es cada vez mejor a medida que 𝑛 crece y 𝑝 decrece.
Comparamos gráficamente una binomial 𝐵(500, 0,01) con una Poisson 𝑃(5)
Vemos como es muy lógico que las probabilidades que se nos piden sean tan próximas.
16
Ejemplos:
1) Una máquina produce piezas en grandes cantidades y se sabe que la probabilidad de que las piezas
sean defectuosas es 𝑝 = 0,01. Se toma una muestra aleatoria de 100 piezas. ¿Cual es la probabilidad de
que se obtengan dos piezas defectuosas?
100
𝑃(𝑋 = 2) = ( ) 0,012 0,9998 = 0,1849
2
𝑒 −1 12
𝑃(𝑋 = 2) = = 0,1839
2!
2) Una compañía de seguros ha descubierto que alrededor del 0,1% de la población tiene cierto tipo de
accidente cada año. Si los 10.000 asegurados fueran seleccionados aleatoriamente en la población ¿Cuál
sería la probabilidad de que no más de 5 tengan este tipo de accidente en el próximo año?
5
𝑒 −10 12
𝑃(𝑋 ≤ 5) = ∑ = 𝐹(5) = 0,0671
2!
𝑥=0
17