0% encontró este documento útil (0 votos)
24 vistas17 páginas

Tema 5

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 17

ESTADÍSTICA I

TEMA 5.- MODELOS DE DISTRIBUCIÓN PARA VARIABLES DISCRETAS.

5.1. INTRODUCCIÓN.
5.2. DISTRIBUCIÓN BINOMIAL.
5.3. DISTRIBUCIÓN HIPERGEOMÉTRICA.
5.4. DISTRIBUCIÓN DE POISSON.

5.1.- INTRODUCCIÓN.
Hasta ahora se ha visto cómo es posible introducir funciones matemáticas para representar distribuciones
de probabilidad de variables aleatorias.

Para ello ya se dijo que la distribución de probabilidad en variable aleatoria discreta debía cumplir las
siguientes condiciones:

1) 𝑓(𝑥𝑖 ) ≥ 0 ∀ 𝑖 = 1, … , 𝑛
2) ∑𝑛𝑖=1 𝑓(𝑥𝑖 ) = 1
La expresión matemática de la distribución de probabilidad de un fenómeno aleatorio permitió el cálculo
de sus características (promedio, dispersión etc.) mediante el concepto de esperanza matemática y de la
función generatriz de momentos.

Ahora pasamos a otra etapa: sistematizar las distribuciones de probabilidad más importantes que surgen
de los experimentos aleatorios.

Sería imposible analizar todas las distribuciones que podrían surgir en la realidad. Por ello, nos
limitaremos a un determinado tipo, las de mayor uso, que nos servirán de modelos para explicar la
realidad del experimento que estamos estudiando. Todo modelo es una simplificación de la realidad, por
lo que a veces el ajuste entre ambos puede no ser muy satisfactorio y otras sí.

Por tanto, comenzamos a estudiar los modelos de probabilidad para variables aleatorias discretas más
usados en la práctica estadística.

5.2.- DISTRIBUCIÓN BINOMIAL


Es una de las distribuciones discretas más utilizadas. Se usa para experimentos en los que hay sólo dos
resultados posibles: la ocurrencia o no ocurrencia de un suceso (le llamaremos éxito y fracaso,
respectivamente). Además, el experimento se repite 𝑛 veces, con las siguientes condiciones:
1.- El número de pruebas, 𝑛, es finito.
2.- El resultado en cualquier prueba del experimento es independiente del resultado en cualquier otra
prueba. Es decir, la probabilidad de éxito en cada prueba es siempre la misma.

Lo que interesa conocer es el número de éxitos que se obtendrán al realizar n pruebas.

(Cada una de las pruebas se denomina prueba de Bernoulli).


Este número (de éxitos) vendrá dado por una variable aleatoria que llamaremos 𝑋 y nuestro objetivo
será ver cuál es la función de probabilidad que la define.

1
𝑋 es la variable aleatoria que mide el número de éxitos en 𝑛 pruebas de Bernoulli realizadas
independientemente.

Vamos a poner un ejemplo: Se lanza una moneda 𝑛 veces y se observa el número de caras que se
obtienen. Vemos que:

1.- Se trata de 𝑛 pruebas independientes.

2.- En cada una de ellas tenemos los resultados posibles: éxito (obtener cara) y fracaso (no obtener cara).

Buscamos ahora: 𝑃(𝑋 = 𝑥), es decir, f(x).

La función o ley o modelo de probabilidad que nos da estas probabilidades es la distribución binomial.

Sea 𝐸 un experimento aleatorio que repetimos n veces consecutivas, observando en cada prueba si se
presenta un determinado resultado (𝐸, de éxito) o no se presenta (𝐹, de fracaso), y sea p la probabilidad
de ocurrencia del resultado 𝐸 en cada una de las pruebas del experimento, y llamaremos q a la
probabilidad de ocurrencia de 𝐹 en cada una de las n pruebas.

Los resultados obtenidos en cada prueba son independientes unos de otros, entonces, si una vez realizado
el experimento tenemos:

𝐸, 𝐸, … , 𝐸, 𝐹, … , 𝐹

Llamaremos 𝑥 al número de éxitos y 𝑛 − 𝑥 al número de fracasos.

La probabilidad de este suceso concreto sería:


𝑃(𝐸, 𝐸,(𝑥 (𝑛−𝑥
… , 𝐸, 𝐹,… , 𝐹) =
= 𝑃(𝐸) · 𝑃(𝐸) ·… · 𝑃(𝐸) · 𝑃(𝐹) · 𝑃(𝐹) ·(𝑛−𝑥
(𝑥
… · 𝑃(𝐹) = 𝑝 𝑥 · 𝑞 𝑛−𝑥

𝑥 éxitos 𝑛 − 𝑥 fracasos

Esta probabilidad que se ha calculado es para una ordenación cualquiera de de los 𝑥 éxitos y (𝑛 − 𝑥)
fracasos. Cada ordenación posible es equiprobable.

El interés está en conocer la probabilidad de ocurrencia de 𝑥 éxitos en cualquier orden. Por esta razón,
vemos cuál es la fórmula que nos proporciona el número de permutaciones posibles (con repetición):

El número de permutaciones de n elementos, en que se tiene dos elementos distintos que se repiten 𝑥 y
𝑛 − 𝑥 veces, es:
n!  n
Pxn,n x    
x! (n  x)!  x 
Luego la probabilidad vendrá dada por:
n! n!
P( X  x)  p x (1  p) n  x  p x q n x x  0,1,2,...,n
x! (n  x)! x! (n  x)!

Esta distribución recibe el nombre de binomial, y, como puede verse, fijado el número de éxitos (x),
basta con saber dos parámetro: n y p, ya que q = (1-p). Se suele expresar: X ~ B(n , p)

2
Función de cuantía:
 n
f ( x)    p x q n x x  0,1,2,..., n
 x

ó
 n  x n  x
  p q si x  0,1,2,..., n
  x 

f ( x)  P( X  x)  
0 en el resto



Para ver si es efectivamente una función de cuantía:

1) f ( x)  0 x Sí se cumple, ya que es el producto de tres factores positivos o es 0.

n
2)  f ( x)  1
x 0

Precisamente el hecho de que cada probabilidad de la distribución binomial sea un término del desarrollo
del binomio ( p  q ) n es lo que ha motivado el nombre de la distribución, binomial.

Función de distribución

0 si x  0
 x
  n  i n i
F ( x)  P( X  x)      p q
i
si 0  x  n
 i 0
1 si x  n

Los valores de la función de cuantía y de la función de distribución de la Binomial se encuentran


tabulados para n  20, lo cual nos facilita el cálculo de probabilidades en estos casos.

Función generatriz de momentos:

  e tx  n 
 
n
M X (t )  E e tX 
x
tx
f ( x)  e
x 0
  p x q n x  e t p  q
 x
n
t 

 
A partir de la función generatriz de momentos M X (t )  e t p  q n se pueden calcular la esperanza
matemática y la varianza de una variable que sigue una distribución binomial.

1.- Esperanza:
 dM X (t ) 
E ( X )     1' 1 '  M X' (0)    n p
 dt  t 0

E( X )    n p

Luego la media de la distribución binomial es   np . El número medio de éxitos en 𝑛 pruebas se


obtiene multiplicando 𝑛 por la probabilidad de éxito.

3
2.- Varianza.
 d 2 M X (t ) 
Var ( X )   2   2'   2  2'  M X' ' (0)   2 
 dt  t 0

Var ( X )   2  n p  np 2

Var ( X )   2  n pq

Un vez que se han estudiado la media y la varianza, se puede describir el comportamiento de un


experimento binomial:

1.- Su media, varianza y su forma dependen de los parámetros del modelo: 𝑛 y 𝑝.

2.- La distribución es:


 Simétrica si 𝑝 = 𝑞.
 Asimétrica a la derecha si 𝑞 > 𝑝 (probabilidad pequeña de obtener éxito)
 Asimétrica a la izquierda si 𝑝 > 𝑞.

4
3.- Cuando 𝑛 crece, la distribución tiende a ser simétrica. Si n tiende a infinito, el coeficiente de asimetría
tiende a cero.

4.- Cuando 𝑛 tiende a infinito, el coeficiente de apuntamiento tiende a cero y la distribución binomial
tiende a aproximarse a una normal.

Función de densidad de probabilidad

0.044
0.04
0.036
0.032
0.028
f(x)

0.024
0.02
0.016
0.012
0.008
0.004
0
60 70 80 90 100 110 120
x

Binomial (900; 0.1)

El problema del cálculo de probabilidades en una distribución binomial, cuando n es grande se puede a
veces resolver mediante aproximaciones facilitadas por la distribución de Poisson (𝑝 → 0) y la
distribución normal (𝑝 ≈ 0’5). Esto se verá más adelante.

Propiedad reproductiva
Si 𝑋1 y 𝑋2 son dos variables aleatorias independientes distribuidas según una 𝐵(𝑛1 , 𝑝) y 𝐵(𝑛2 , 𝑝)
(importante, con el mismo 𝑝) respectivamente, entonces 𝑋 = 𝑋1 + 𝑋2 se distribuye:

𝑋 ~ 𝐵 (𝑛1 + 𝑛2 , 𝑝)

Demostración (a título ilustrativo):

  
M X (t )  M X1  X 2 (t )  E e t  X 1 X 2   E e t X1  e t X 2  
    
E e t X1  E e t X 2 
por independencia
de X 1 y X 2


 et p  q   e
n1 t
pq  n2

 et p  q  n1  n2

Esta es la función generatriz de momentos de una distribución binomial de parámetros 𝑛1 + 𝑛2 , y 𝑝, es


decir, que 𝑋 ~ 𝐵 (𝑛1 + 𝑛2 , 𝑝), por el teorema de la unicidad de la función generatriz de momentos.

Luego la distribución binomial se reproduce por adición de variables aleatorias independientes respecto
al parámetro 𝑛.

5
Ejemplo

Una máquina fabrica una determinada pieza y se sabe que produce un 15% de piezas defectuosas. Hallar
la probabilidad de que al examinar 10 piezas:
a) Sólo una sea defectuosa.
b) Se encuentren como máximo dos defectuosas.

𝑋 = “𝑃𝑖𝑒𝑧𝑎𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑎𝑠 𝑝𝑟𝑜𝑑𝑢𝑐𝑖𝑑𝑎𝑠 𝑒𝑛 𝑢𝑛 𝑙𝑜𝑡𝑒 𝑑𝑒 10”

𝑋 ~ 𝐵 (10, 0,15)

 n
P( X  x)  f ( x)    p x q n x
 x

10 
a) f (1)  P( X  1)    0,151 0,859  0,3474
1

También podemos obtener directamente esta probabilidad a partir de las tablas de la función de
probabilidad binomial, para 𝑛 = 10, 𝑝 = 0,15 y 𝑥 = 1

b)
P( X  2)  P ( X  0)  P ( X  1)  P ( X  2) 

10  10  10 


   0 '150 0,8510    0 '151 0,859    0 '152 0,858  0,8202
0 1 2

También podemos obtener estas probabilidades a partir de las tablas de la función de probabilidad
binomial, para 𝑛 = 10, 𝑝 = 0,15 y 𝑥 = 0, 𝑥 = 1 𝑦 𝑥 = 2.

Además, para simplificar cálculos también podemos obtener directamente el valor tabulado para la
función de distribución para 𝑛 = 10, 𝑝 = 0,15 y 𝑥 = 2:

P( X  2)  F (2)  0,8202

5.3.- DISTRIBUCIÓN HIPERGEOMÉTRICA


En la distribución binomial se tenía un experimento aleatorio en el que se realizaban 𝑛 pruebas
independientes con dos resultados posibles. La distribución hipergeométrica es una alternativa a la
distribución binomial cuando las pruebas no son independientes (por ejemplo, si el experimento consiste
en seleccionar individuos de una población, las pruebas se hacen sin reposición y por lo tanto, no son
independientes)1.

En la distribución hipergeométrica se tiene una población de tamaño 𝑁 y se van a elegir 𝑛 elementos


(es decir, se realizan n pruebas), 𝑝 va a ser la proporción de elementos de la población que poseen una

1Más adelante se verá que cuando la población de estudio es muy grande, aunque se realicen las prebas sin reposición, se puede
utilizar la binomial, realizando una aproximación.

6
determinada característica, de tal forma que la población (de tamaño 𝑁) queda dividida en dos
subpoblaciones:

 La que posee la característica, de tamaño 𝑁𝑝


 La que no posee la característica, de tamaño 𝑁 − 𝑁𝑝

La variable aleatoria 𝑋 que recoge el número de éxitos (elementos de una determinada característica) en
la muestra de tamaño n obtenida de una población de tamaño 𝑁 sigue una distribución de probabilidad
hipergométrica.

Notación: 𝑋 ~ 𝐻 (𝑁, 𝑛, 𝑝)

La función de cuantía viene dada por:

  Np  N  Np 
   
  x  n  x  max(0, n  ( N  Np ))  x  min(n, Np )
 N
  
f ( x)   n


 0 en el resto

La fórmula de la función de cuantía se obtiene como aplicación de la regla de Laplace, donde la


probabilidad viene dada por el cociente de número de casos favorables entre el número de casos posibles.

N
  = número de casos posibles; es el número de muestras distintas de tamaño 𝑛 obtenidas de la
n
población total, de tamaño 𝑁.

 Np 
  = número de formas posibles de obtener x elementos de la subpoblación que posee la
 x 
característica, que tiene 𝑁𝑝 elementos.

 N  Np 
  = número de formas posibles de obtener (𝑛 − 𝑥) elementos de la segunda subpoblación, de
 nx 
la que no posee la característica, que tiene (𝑁 − 𝑁𝑝) elementos.

 Np   N  Np 
Luego     = número de casos favorables; número de formas de obtener una muestra con 𝑥
 x   nx 
elementos de la primera subpoblación (la que posee la característica) y (𝑛 −
𝑥) de la segunda.

7
¿Qué significan los límites de la función de cuantía?

1.- Se tiene que cumplir:

xn El número de éxitos tiene que ser menor o igual que el número de elementos de
la muestra, lógicamente.

x  Np El número de éxitos tiene que ser menor o igual que el número de elementos
con esa característica en la población.

Por esa razón: x  min (n, Np )

2.- Se tiene que cumplir:

x0 El número de éxitos tiene que ser mayor o igual que cero.

(n  x)  ( N  Np ) El número de fracasos en la muestra (elementos de la muestra que no


poseen la característica) tiene que ser menor o igual que el número de
elementos de la población que no poseen la característica.

Despejando de esta última expresión se tiene:

 x  N  Np  n

x  n  ( N  Np )

Y, por lo tanto, x  max (0, n  ( N  Np ))

Ejemplos:

a) 𝑁 = 20 ¿Qué valores puede tomar 𝑥?


𝑁𝑝 = 2 x  min (n, Np )  x  min (10 , 2); x  2
𝑛 = 10 x  max (0, n  ( N  Np ))  x  max (0, 10  18); x  0
(luego, 𝑝 = 0,1) Luego, 𝑥 = 0, 1, 2

Explicación: Hay 2 elementos en la población que presentan la característica, luego, aunque haya
10 elementos en la muestra, el número máximo de éxitos será 2.

b) 𝑁 = 1.000 ¿Qué valores puede tomar 𝑥?


𝑁𝑝 = 30 x  min (n, Np )  x  min (10,30); x  10
𝑛 = 10 x  max (0, n  ( N  Np ))  x  max (0, 10  970 ); x  0
(luego, 𝑝 = 0,03) Luego, 𝑥 = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10

Explicación: Hay 30 elementos en la población que presentan la característica, pero en la muestra


hay 10 elementos, luego el número máximo de éxitos será 10.

8
Comprobación de que es función de cuantía:

a) 𝑓(𝑥𝑖 ) ≥ 0 ∀ 𝑖 = 1, … , 𝑛, ya que no existe ningún número combinatorio que sea cero.


b) ∑𝑛𝑖=1 𝑓(𝑥𝑖 ) = 1

Las características de la distribución hipergeométrica son:

Esperanza E ( x)    n p

N n
Varianza Var( X )   2  n p q
N 1

Nos fijamos en que la esperanza matemática es la misma que la de la distribución binomial.

La varianza del modelo hipergeométrico es menor que la de la distribución binomial ya que el factor
N n
es menor que la unidad. Este factor se llama factor de corrección en muestreo con poblaciones
N 1
finitas.

Cuando N tiende a ∞, este factor tiende a uno. Luego, para 𝑁 suficientemente grande comparado con n,
ambas distribuciones, binomial e hipergeométrica tienden a hacerse idénticas por lo que, en ese caso, es
poco relevante que la muestra de tamaño n sea con reposición o sin reposición.

En la práctica se toma como límite 𝑛 < 0,1 · 𝑁.

Imaginemos las siguientes situaciones:

1.- Se extrae una muestra de 3 elementos de una población de 20 elementos. La extracción es con
reposición. La probabilidad de éxito (tener una determinada característica) es 1/2. 𝑁 = 20, 𝑝 =
1/2, 𝑛 = 3.

Al ser con reposición, se trata de una distribución binomial. Cuando se va a calcular la probabilidad de
tener 3 éxitos, se ve que la probabilidad de éxito en la primera extracción es 1/2, en la segunda y en la
tercera también. (Es decir, son independientes las extracciones).

2.- Imaginemos ahora que en esa misma población la extracción para la muestra se hace sin reposición.
𝑁 = 20, 𝑝 = 1/2, 𝑁𝑝 = 10, 𝑛 = 3.

Cuando se calcula la probabilidad de tener 3 éxitos, se ve que: la probabilidad de éxito en la primera


extracción es 10/20, en la segunda es 9/19 y en la tercera es 8/18. (Aquí, al no haber reposición, las
extracciones no son independientes). En este caso, para ver la probabilidad de tres éxitos se usa la
distribución hipergeométrica.

3.- Si resultara que se tiene una población de 𝑁 = 1.000 y 𝑁𝑝 = 10, entonces, en el caso de extracción
sin reposición, la probabilidad de éxito en la primera extracción es 10/1.000, en la segunda 9/999 y en
la tercera 8/998, luego las diferencias son pequeñas, es casi como si se mantuviera constante y puede
utilizarse la distribución binomial en lugar del modelo hipergeométrico, sin cometer mucho error.

La distribución hipergeométrica se suele aplicar al control de calidad.

9
Ejemplos:

1) Un fabricante de automóviles compra los motores a una compañía donde se fabrican bajo estrictas
especificaciones. El fabricante recibe un lote de de 40 motores. Su plan para aceptar el lote consiste en
seleccionar 8, de manera aleatoria y someterlos a prueba. Si encuentra que ninguno de los motores
presenta serios defectos, el fabricante acepta el lote, de otra forma lo rechaza. Si el lote contiene dos
motores con serios defectos ¿Cuál es la probabilidad de que sea aceptado?

𝑋 = ”𝑁º 𝑑𝑒 𝑚𝑜𝑡𝑜𝑟𝑒𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜𝑠 𝑒𝑛 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑑𝑒 𝑡𝑎𝑚𝑎ñ𝑜


𝑛 = 8 𝑜𝑏𝑡𝑒𝑛𝑖𝑑𝑎 𝑑𝑒 𝑢𝑛𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑐𝑜𝑛 𝑁 = 40”

𝑁 = 40𝑁𝑝 = 2𝑛 = 8

¿Qué valores puede tomar 𝑋? x  min (n, Np )  x  min (8, 2); x  2


x  max (0, n  ( N  Np ))  x  max (0, 8  38); x  0
x = 0, 1, 2

 Np   N  Np   2   38 
       
 x   n  x   x8  x
f ( x)   x  0, 1, 2
N  40 
   
n 8

El lote es aceptado si no tiene ningún defecto:

 2   38  38!
    1 
f (0)  P( X  0)      
0 8 8! 30!
 0,6359
 40  40!
 
8 8! 32!

2) Un fabricante asegura que sólo el 1% de su producción total se encuentra defectuosa. Supóngase que
tiene 1.000 artículos y se seleccionan 25 al azar para inspeccionarlos. Si el fabricante se encuentra en lo
correcto ¿cuál es la probabilidad de observar dos o más defectuosos en la muestra?

𝑋
= ”𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑎𝑟𝑡í𝑐𝑢𝑙𝑜𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜𝑠 𝑒𝑛 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑑𝑒 25 𝑜𝑏𝑡𝑒𝑛𝑖𝑑𝑎 𝑑𝑒 𝑢𝑛𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑑𝑒 1.000”

𝑁 = 1.000𝑁 = 25𝑝 = 0,01 → 𝑁𝑝 = 10

 Np  N  Np  10  990 
     
 x  n  x   x  25  x 
f ( x)   x  0,1,2,3,4,5,6,7,8,9,10
N 1000 
   
n  25 

P( X  2)  1  P( X  2)  1  P( X  0)  P( X  1)

10
10   990  990!
   
P ( X  0)    
0 25   25! (990  25 )! 
1000  1000 !
?
 
 25  25! 975!

10   990  990!


    10 
24! (990  24 )!
P ( X  1)    
1 24 
1000 

1000 !
 ?
 
 25  25! 975!

Como vemos, estas probabilidades son de cálculo complicado, por el elevado valor de los factoriales.

Si utilizamos el modelo binomial:

 25
X~B (n=25, p=0,01) f ( x)    0,01x 0,99( n x )
x

P( X  2)  1  P( X  2)  1  P( X  0)  P( X  1)  1  0,7778  0,1964   0,0258

 25 
p( X  0)  f (0)    0,010 0,99 25  0,7778
0

 25 
p( X  1)  f (1)    0,011 0,99 24  0,1964
1

Vamos a utilizar el ejemplo que acabamos de hacer (con 𝑁 = 1.000, 𝑛 = 25 y 𝑝 = 0,01) para ilustrar
gráficamente la aproximación de ladistribución hipergeométrica a la binomial cuando 𝑛 < 0,1 · 𝑁:

11
5.4.- DISTRIBUCIÓN DE POISSON
La distribución de Poisson es conocida como la ley de los sucesos raros.

Se emplea en la resolución de problemas que surgen al contar la frecuencia con que ocurren sucesos
aleatorios, relativamente raros e independientes entre sí, en un intervalo fijo de tiempo, de espacio o
similar (longitud, volumen, etc.)

Ejemplos de variables aleatorias que se distribuyen según el modelo de Poisson son:

- Número de accidentes automovilísticos que ocurren por unidad de tiempo (semana, día, etc.) en
un cruce de carreteras.
- Número de llamadas telefónicas recibidas durante una hora (unidad de tiempo) por la
recepcionista de un hotel
- Número de bacterias en un cm2 de cierta preparación
- Número de clientes que llegan a un almacén la tarde de un jueves
- Número de llegadas de aviones a un aeropuerto en una hora.

Estos son fenómenos que no responden a una ley binomial. En el caso típico binomial tenemos un
experimento que se repite 𝑛 veces de forma independiente y del que podemos determinar tanto el número
de éxitos como el número de fracasos.

Sin embargo, hay sucesos aleatorios que no ocurren como resultados de pruebas de un experimento sino
más bien en puntos aleatorios del tiempo o del espacio.

Para tales sucesos, tiene sentido contar el número de éxitos por unidad de tiempo o espacio. Pero no
tiene sentido hablar de fracasos. Por ejemplo, si se observa el número de llegadas de aviones a un
aeropuerto durante una hora, podemos cuantificar cuantos llegaron pero no cuantos no llegaron. De igual
forma ocurre con cualquiera de los ejemplos dados anteriormente.

Estos experimentos presentan, de forma resumida, las siguientes características:

1. El número de sucesos en dos intervalos disjuntos siempre es independiente.


2. La probabilidad de que un suceso ocurra en un intervalo es proporcional a la longitud del
intervalo.
3. La probabilidad de que ocurra más de un suceso en un intervalo suficientemente pequeño es
despreciable (no se producirán sucesos simultáneos).

La variable 𝑋 que sigue una distribución de Poisson tiene la siguiente función de cuantía (ley de
probabilidad).

 e   x
 si x  0,1,2,..   0.
 x!
f ( x)  P( X  x)  
 0 en el resto



donde  es el parámetro que caracteriza a la distribución. Es el número medio de veces que ocurre el
suceso aleatorio por unidad de tiempo o espacio.

De forma abreviada se suele escribir: X ~ P(  )

12
En primer lugar se va a comprobar que es función de cuantía:

1.- f ( x)  0 x Sí se cumple, ya que es el producto de factores positivos o es 0.


2).-  f ( x)  1
x 0

Función de distribución:



 0 si x0

F ( x)  P( X  x)  
 x
i

 
e 
i!
si x  0,1,2,...
 i 0

Los valores de la función de cuantía y de la función de distribución de una Poisson se encuentran


tabulados para determinados valores de µ, lo cual nos facilita el cálculo de probabilidades en estos casos.

Función generatriz de momentos:

   e
M X (t )  E e t X tx
f ( x)   e t x e 
x
x!
 e   e 1
t
t
x x

M X (t )  e   e 1
t
t

A partir de la función generatriz de momentos vamos a ver el cálculo de la esperanza y la varianza de


una variable que sigue una distribución de Poisson.

1.- Esperanza:

 dM X (t ) 
E ( X )     1' 1 '  M X' (0)    
 dt  t 0

E (X )  

2.- Varianza.

 d 2 M X (t ) 
Var ( X )   2   2'   2  2'  M X' ' (0)   2 
 dt  t 0

Var (X )   2  

Propiedad importante de la distribución de Poisson: la media es igual a la varianza.


Propiedad reproductiva:

13
Si las variables 𝑋1 y 𝑋2 son variables aleatorias independientes que se distribuyen como una distribución
de Poisson, con, 𝑋1 ~ P 1  y 𝑋2 ~ P  2  , entonces, la variable aleatoria 𝑋 = 𝑋1 + 𝑋2 se distribuye
como una Poisson de parámetro 1   2 , es decir, 𝑋 ~ P 1   2 

Demostración (a título ilustrativo):

  
M X (t )  M X 1  X 2 (t )  E e t  X 1 X 2   E e t X 1  e t X 2  
    
E et X 1  E et X 2 
por independen cia
de X 1 y X 2

 
t  
 e t 1
 e 1 e 1  e 2  e 1   2  e 1
t
 

Luego 𝑋 ~ P 1   2  , por el teorema de unicidad de la función generatriz de momentos.

Esta propiedad es generalizable a la suma de n distribuciones de Poisson independientes.

También se cumple la recíproca: Si 𝑋1 y 𝑋2 son dos variables aleatorias independientes y la variable


aleatoria 𝑋 = 𝑋1 + 𝑋2 se distribuye como una Poisson, entonces cada una de las variables 𝑋1 y 𝑋2 sigue
una distribución de Poisson.

Muy importante para la práctica: Estas propiedades llevan a que si dada 𝑋 ~ P 1  dónde  1 es el
número medio de veces que aparece un suceso en un intervalo de amplitud t de tiempo (o espacio) y se
desea obtener la probabilidad de ocurrencia de ese suceso para otro intervalo de tiempo de amplitud
k  t , entonces la distribución a utilizar será P  2  dónde  2  k  1 .

Podemos utilizar cualquier amplitud que se desee para el tiempo o el espacio pero antes hay que ajustar
 para ese intervalo. Es decir, la media de una distribución de Poisson es proporcional a la amplitud
del intervalo considerado.

Ejemplo:

El número de llamadas recibidas en un minuto en una línea telefónica sigue una distribución de Poisson
con media igual a cuatro. Calcule:
a) La probabilidad de que no se reciba ninguna llamada en un minuto.
b) La probabilidad de que en un minuto se reciban menos de 2 llamadas.
c) La probabilidad de que no se produzca ninguna llamada en dos minutos.
d) La probabilidad de que no se reciba ninguna llamada en un intervalo de treinta segundos.

14
a) 𝑋 = ”𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑙𝑎𝑚𝑎𝑑𝑎𝑠 𝑟𝑒𝑐𝑖𝑏𝑖𝑑𝑎𝑠 𝑒𝑛 𝑢𝑛 𝑚𝑖𝑛𝑢𝑡𝑜” 𝑋 ~ 𝑃 (4)

e 4 4 x
f ( x)  x  0, 1, 2,...
x!

e 4 4 0
p( X  0)  f (0)   0,0183
0!

También podemos obtener directamente esta probabilidad a partir de las tablas de la función de
probabilidad Poisson, para µ=4 y x=0.

e  4 40 e  4 41
b) P( X  2)  P ( X  0)  P ( X  1)  f (0)  f (1)    0, 0183  0, 0733  0, 0916
0! 1!

También podemos obtener estas probabilidades a partir de las tablas de la función de probabilidad
Poisson, para µ=4, y x=0 ó x=1.

Además, para simplificar cálculos, también podemos obtener directamente el valor tabulado para la
función de distribución para µ=4 y x=1:

P( X  2)  P( X  1)  F (1)  0,0916

c) 𝑌 = ”𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑙𝑎𝑚𝑎𝑑𝑎𝑠 𝑟𝑒𝑐𝑖𝑏𝑖𝑑𝑎𝑠 𝑒𝑛 𝒅𝒐𝒔 𝑚𝑖𝑛𝑢𝑡𝑜𝑠” 𝑘=2

𝑌 ~ 𝑃(2 · 4) es decir, 𝑌 ~ 𝑃(8)

e 8 8 y
f ( y)  y  0, 1, 2,...
y!

e 8 8 0
f (Y  0)  f (0)   0,0003
0!

(valor que también podemos obtener en las tablas de la función de probabilidad Poisson, para µ=8 ).

d) 𝑊 = ”𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑙𝑎𝑚𝑎𝑑𝑎𝑠 𝑟𝑒𝑐𝑖𝑏𝑖𝑑𝑎𝑠 𝑒𝑛 𝒕𝒓𝒆𝒊𝒏𝒕𝒂 𝒔𝒆𝒈𝒖𝒏𝒅𝒐𝒔” 𝑘 = 1/2

1
𝑊~𝑃( · 4) es decir, 𝑊 ~ 𝑃(2)
2

e 2 2 w
f ( w)  w  0, 1, 2,...
w!

e 2 2 0
f (W  0)  f (0)   0,1353
0!

(valor que también podemos obtrener en las tablas de la función de probabilidad Poisson, para µ=2).

15
Aproximación de la distribución binomial a la distribución de Poisson
Teorema: Si X es una variable aleatoria discreta que se distribuye según una distribución binomial
𝐵(𝑛, 𝑝), y la probabilidad de éxito p tiende a cero, mientras que el número de pruebas, n, tiende a
infinito, de tal forma que np permanece constante, entonces, la distribución binomial se aproxima a una
Poisson con media   np .

Esto se ve porque el límite cuando 𝑛   y 𝑝  0 de la función de cuantía de la binomial es la función


de cuantía de Poisson, con media   np .

La distribución de Poisson puede servir para obtener valores aproximados de las probabilidades
binomiales, cuando 𝑛 es muy grande y 𝑝 muy pequeño. En las aplicaciones prácticas se reemplaza
habitualmente el modelo binomial por el de Poisson cuando, simultáneamente, 𝑛 ≥ 50 y 𝑝 ≤ 0,1.

Para estos límites, por ejemplo, la probabilidad 𝑃(𝑋 = 5), según el modelo binomial en que 𝑛 = 50 y
𝑝 = 0,1, es:
𝐵 (𝑛 = 50, 𝑝 = 0,1) 𝑃(𝑋 = 5) = (50
5
)0,15 0,945 = 0,1849

Según el modelo de Poisson en que   np  5 , la probabilidad es:


𝑒 −5 55
𝑃(𝑋 = 5) = = 0,1755
5!

Lo que da una aproximación de la probabilidad binomial; aproximación que es bastante buena a pesar
de haber tomado los valores mínimo de 𝑛 y máximo de 𝑝.

Si se ensaya ahora el caso que 𝑛 = 500 y 𝑝 = 0,01 veremos que los resultados son mucho más cercanos:

La probabilidad 𝑃(𝑋 = 5) es, según el modelo binomial en que 𝑛 = 500 y 𝑝 = 0,01

𝐵(𝑛 = 500, 𝑝 = 0,01) 𝑃(𝑋 = 5) = (500


5
)0,015 0,99495 = 0,1764

Según el modelo de Poisson en que   np  5 , la probabilidad es:


𝑒 −5 55
𝑃(𝑋 = 5) = = 0,1755
5!

De esta forma se ve que la aproximación es cada vez mejor a medida que 𝑛 crece y 𝑝 decrece.

Comparamos gráficamente una binomial 𝐵(500, 0,01) con una Poisson 𝑃(5)

Vemos como es muy lógico que las probabilidades que se nos piden sean tan próximas.

16
Ejemplos:

1) Una máquina produce piezas en grandes cantidades y se sabe que la probabilidad de que las piezas
sean defectuosas es 𝑝 = 0,01. Se toma una muestra aleatoria de 100 piezas. ¿Cual es la probabilidad de
que se obtengan dos piezas defectuosas?

En principio se usa la distribución binomial:

𝑋 = ”𝑛º 𝑑𝑒 𝑝𝑖𝑒𝑧𝑎𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑎𝑠 𝑒𝑛 𝑢𝑛𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑑𝑒 𝑛 = 100” 𝑋~𝐵(𝑛 = 100, 𝑝 = 0,01)

100
𝑃(𝑋 = 2) = ( ) 0,012 0,9998 = 0,1849
2

Si se utiliza la aproximación de Poisson con   n  p  100  0,01  1 :

𝑒 −1 12
𝑃(𝑋 = 2) = = 0,1839
2!

El modelo de Poisson da una buena aproximación de la distribución binomial.

2) Una compañía de seguros ha descubierto que alrededor del 0,1% de la población tiene cierto tipo de
accidente cada año. Si los 10.000 asegurados fueran seleccionados aleatoriamente en la población ¿Cuál
sería la probabilidad de que no más de 5 tengan este tipo de accidente en el próximo año?

𝑋 = ”𝑛º 𝑑𝑒 𝑎𝑠𝑒𝑔𝑢𝑟𝑎𝑑𝑜𝑠 𝑞𝑢𝑒 𝑡𝑖𝑒𝑛𝑒𝑛 𝑒𝑙 𝑎𝑐𝑐𝑖𝑑𝑒𝑛𝑡𝑒 𝑒𝑛 𝑢𝑛𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑑𝑒 𝑛 = 10.000”

𝑋~𝐵(𝑛 = 10.000, 𝑝 = 0,001)


5
10.000
𝑃(𝑋 ≤ 5) = ∑ (
𝑥
) 0,001𝑥 0,99910000−𝑥 = ?
𝑥=0

Si se utiliza la aproximación de Poisson con   n  p  10000  0,001  10 :

5
𝑒 −10 12
𝑃(𝑋 ≤ 5) = ∑ = 𝐹(5) = 0,0671
2!
𝑥=0

(este valor se puede obtener directamente en las tablas de la función de distribución).

17

También podría gustarte