Distribuciones Discretas - 2023B
Distribuciones Discretas - 2023B
Distribuciones Discretas - 2023B
D ISTRIBUCIONES D ISCRETAS
1.1. L EY DE B ERNOULLI
Bernoulli, es el esquema más simple de las leyes de probabilidad discreta y consiste en lo siguien-
te:
Cuando ocurre el evento, se dice que se tiene un éxito (E), mientras que, cuando no ocurre el evento,
se dice que se tiene un fracaso (F).
Sea X, la variable aleatoria discreta de Bernoulli que cuenta el número de éxitos que se obtienen
del experimento. Como tal puede tomar dos valores 0 y 1, equivalente a fracaso y éxito respectiva-
mente.
Por ejemplo, se lanza un dado, y se plantea el evento que salga la cara marcada con el número
cuatro. Si sale el número cuatro, se dice que se tiene un éxito, en caso contrario (si sale el uno o el dos
o el tres o el cinco o el seis), se tiene un fracaso.
P(éxito) = P( E) = P( X = 1) = p,
P(fracaso) = P( F ) = P( X = 0) = q,
donde p + q = 1.
P( X = x ) = p x q1− x , x ∈ {0, 1}
3
Probabilidad y Estadística CAPÍTULO 1. DISTRIBUCIONES DISCRETAS
Para el ejemplo planteado, se tiene un éxito si sale la cara marcada con el número cuatro, entonces:
1
P( E) = p = 6 (por la definición básica de probabilidad), y
5
P( F ) = q = 6 (ya que p + q = 1).
Veamos la tendencia central y la dispersión de esta ley de probabilidad. Para esto se utiliza la defini-
ción de esperanza matemática (o promedio) y varianza para una variable aleatoria discreta (v.a.d.).
Siendo X la v.a.d. de Bernoullí, la tabla de distribución de probabilidades es:
X 0 1
P( X = x ) q p
La esperanza es
E( X ) = 1 · p + 0 · q
= p.
La varianza es
V ( X ) = (1 − p )2 · p + (0 − p )2 · q
= q2 p + p2 q
= pq( p + q)
= pq.
√
La desviación estándar es D ( X ) = pq.
1.2. L EY B INOMIAL
Supongamos ahora, que se realizan n experimentos de Bernoulli, cada uno de ellos de forma
independiente. Consideremos en este caso la variable aleatoria discreta X, que representa la suma de
éxitos obtenidos en los n experimentos de Bernoulli. Los posibles resultados de suma de éxitos que
pueden tenerse son: 0 éxitos, 1 éxito, 2 éxitos, 3 éxitos, ..., hasta n éxitos.
Así, bajo este esquema se plantea lo siguiente, ¿cuál será la probabilidad de obtener x éxitos,
como resultado de n experimentos de Bernoulli?
Se realizan n experimentos de Bernoulli, de los cuales x son éxitos (y por lo tanto se tienen n − x
fracasos). Supongamos que ocurrió la siguiente serie de x éxitos y n − x fracasos.
E E F F E F······ E F E E
i i i i i i i i i
Luego, la probabilidad de tener x éxitos para esta serie de eventos de Bernoulli es:
P( B1 ) = P( E ∩ E ∩ F ∩ F ∩ E ∩ F ∩ . . . ∩ E ∩ F ∩ E ∩ E)
= P( E) P( E) P( F ) P( F ) P( E) P( F ) . . . P( E) P( F ) P( E) P( E)
= p · p · q · q · p · q · . . . · p · q · p · p.
Supongamos ahora que, de los n eventos de Bernoulli, los primeros x eventos fueron éxitos, y los
restantes n − x fracasos. Veamos si cambia la probabilidad, para este esquema, como puede apreciarse
en la siguiente figura:
E E E E E E······ F F F F
i i i i i i i i i
Nuevamente, la probabilidad de tener x éxitos para esta serie, está dada por:
P( B1 ) = P( E ∩ E ∩ E ∩ E ∩ E ∩ E ∩ . . . ∩ E ∩ F ∩ E ∩ E)
= P( E) P( E) P( E) P( E) P( E) P( E) . . . P( F ) P( F ) P( F ) P( F )
= p · p · p · p · p · p · . . . · q · q · q · q.
Se aprecia que la probabilidad no cambia. Sin embargo, no interesan solamente las series B1 y B2
de eventos, sino todas las combinaciones posibles, puesto que se desea calcular la probabilidad de
tener x éxitos en n eventos de Bernoulli en cualquier orden que aparezcan.
Luego, la suma de todas las combinaciones posibles de estas probabilidades da la ley binomial
de probabilidades de parámetros n y p:
X 0 1 ... x ... n
n 0 n −0 n 1 n −1 n x n− x n n n−n
P( X = x ) p q p q ... p q ... p q
0 1 x n
Así, utilizando nuevamente las definiciones de los momentos estadísticos, el valor esperado y la
varianza de una variable aleatoria binomial X están dados por:
n
µ = E( X ) = ∑ xk pk
k =1
n
n k n−k
= ∑ k
k
p q
k =1
= np
σ2 = V ( X ) = npq
En resumen,
Teorema 1 – Media y Varianza Distribución Binomial
La media y la varianza de la distribución binomial de parámetros n y p son
µ = np y σ2 = npq.
Puede apreciarse que si se aplica esta ley para n = 1, se tiene la ley de Bernoulli.
Ejemplo 1. Se lanza un dado 20 veces, ¿cual será la probabilidad de que salga la cara marcada con el
cuatro en 15 ocasiones?
Solución. Este problema se ajusta al esquema binomial de probabilidades. Así, un lanzamiento del
dado puede ser visto como un evento de Bernoulli, en donde el éxito es cuando sale la cara marcada
con el cuatro y fracaso en caso contrario. Luego, tenemos 20 eventos de Bernoulli, y queremos la
probabilidad de que ocurran 15 éxitos.
La probabilidad de un éxito está dada por la probabilidad de que salga la cara marcada con el
1 5
cuatro al lanzar el dado, P( E) = p = 6, yq = 6. Utilizando la ley binomial de probabilidades
tenemos que la probabilidad de que salga la cara marcada con el cuatro en 15 ocasiones es:
15 20−15
20 1 5
P( X = 15) = = 0.000 000 013
15 6 6
Podemos apreciar que la probabilidad de que ocurra tal situación es bastante baja, casi nula.
Notas Complementarias
I) Recordando del tema de conteo de elementos, se tiene que a partir de un conjunto de la forma
Ω = { a, a, a, b, c, c, d, e, e}, con n elementos, de los cuales al menos uno se repite un cierto núme-
ro de veces, el número de grupos posibles de tamaño n que se pueden formar (k = n), y que se
llaman permutaciones está dado por:
n n2 ...,nq n!
Pn 1 =
n1 !n2 ! . . . nq !
Siendo n1 el número de veces que se repite el primer elemento, n2 las veces que se repite el
segundo elemento del conjunto base, y así sucesivamente. Además, n1 + n2 + n3 + . . . + nq = n.
Así, siendo n1 = x éxitos, y n2 = n − x fracasos, el número de grupos posibles son (de acuerdo
n! n!
grupos posibles = = = combinaciones sin repetición (n, x)
n1 !n2 ! x!(n − x )!
Es decir, en el caso de tener 2 elementos que se repiten un cierto número de veces, el número
de permutaciones coinciden con el conteo de combinaciones sin repetición.
II ) El modelo Binomial de probabilidades (caracterizado por dos grupos que los podemos llamar
G1 = ÉXITOS y, G2 =FRACASOS), se puede generalizar para más de dos grupos.
Sean:
Este esquema (para dos o más grupos) se conoce como la ley multinomial y la probabilidad
está dada por:
n!
P(n, x1 , x2 , . . . xk ) = p x1 p x2 . . . pkxk .
x1 !x2 ! . . . xk ! 1 2
III ) La suma de todas las probabilidades sabemos que es igual a uno. En el caso de las probabilida-
des de la Ley Binomial se tiene:
n n
n
∑ P ( X = x ) = ∑ x p x qn− x = ( p + q )n .
x =0 x =0
Es decir, este modelo viene del desarrollo del Binomio de Newton de ( p + q)n
Recordemos nuevamente el modelo Binomial (de la sección anterior). Este modelo se basa en
realizar n experimentos de Bernoulli (fijos), y se plantea la probabilidad de obtener x éxitos (donde x
puede tomar los valores 0, 1, 2, . . . , n, es decir, los éxitos x es el componente variable).
Consideremos ahora la situación contraria, es decir, mantenemos fijos los éxitos, digamos k, y se
plantea la probabilidad de realizar n experimentos (variable) de Bernoulli para lograr obtener los k
éxitos (fijos). Este esquema es lo que se conoce como el modelo Binomial Negativo o Ley de Pascal.
Debe notarse que si se realizan n experimentos de Bernoulli para obtener k éxitos (fijos de an-
temano), entonces n toma los valores k, k + 1, k + 2, . . . , puesto que necesitamos realizar al menos k
experimentos de Bernoulli para obtener k éxitos (fijos). El modelo de probabilidad que da esta pro-
babilidad, y que es conocido también como modelo o ley de Pascal, es:
n − 1 k n−k
P( X = n) = p q
k−1
Para evitar alguna confusión con esto de que n toma los valores desde k hasta el infinito, se hace la
transformación siguiente: n = x + k, donde k son los éxitos fijos, y x vienen a representar los fracasos
de los eventos de Bernoulli y, por lo tanto, esta variable X toma los valores 0, 1, 2, . . .. Por ejemplo, si
x = 0, entonces n = k, o si x = 1, n = k + 1, etc, que es equivalente a lo descrito en el párrafo anterior.
Reemplazando n = x + k en la expresión anterior, se obtiene la ley Binomial Negativa:
x+k−1 k x
P( X = x ) = p q ,
k−1
kq kq
µ= y σ2 = .
p p2
Ejemplo 2. Una persona realiza el lanzamiento de una moneda y registra el lanzamiento. Encuentre
la probabilidad de obtener la tercera cara en el séptimo lanzamiento;
4+3−1
P ( X = 4) = · (0.5)3 · (0.5)4
3−1
6
= · (0.5)7
2
= 0.1172
Una situación interesante que surge de este modelo en la gestión y análisis de algunos proyectos
es cuando se tiene un solo éxito, es decir, k = 1, obteniendo lo que se llama el modelo geométrico de
probabilidades, que se describe a continuación.
1.4. L EY G EOMÉTRICA
Este modelo se basa en repetir un experimento de Bernoulli mientras el resultado sea fracaso,
hasta que ocurre un éxito. Gráficamente se tiene:
F F F F F F······ F F F E
i i i i i i i i i
Luego, si se realizan m experimentos de Bernoulli, significa que se dieron m − 1 fracasos y 1 éxito (al
final y es cuando termina el proceso). Esto es equivalente a tomar el modelo Binomial Negativo con
k = 1 (un éxito fijo), y x = m − 1 fracasos.
Siendo X la variable aleatoria discreta que sigue una distribución Geométrica que representa el
número de fracasos de eventos de Bernoulli realizados hasta obtener un éxito (k = 1), se plantea
calcular la probabilidad P( X = x ) para x = 0, 1, 2, 3, . . ..
Se realizan x + 1 experimentos de Bernoulli, de los cuales los primeros x tiene como resultado
FRACASO, y el último es ÉXITO, entonces:
P( X = x ) = P( F ∩ F ∩ F ∩ F ∩ F ∩ F ∩ . . . ∩ F ∩ F ∩ F ∩ E)
= P( F ) P( F ) P( F ) P( F ) P( F ) P( F ) . . . P( F ) P( F ) P( F ) P( E)
= q·q·q·q·q·q·...·q·q·q· p
= q x p.
X 0 1 2 3 4 5 ...
P q0 p q1 p q2 p q3 p q4 p q5 p . . .
La esperanza es:
∞
E( X ) = ∑ kqk p
k =1
q
pero, 1 + 2q + 3q2 + . . . es la derivada de q + q2 + q3 + . . . = 1− q .
∞ 2
q
V (X) = ∑ k− qk p
k =1
p
= E ( X 2 ) − E2 ( X )
2
2 q
= E( X ) −
p
∞
q2
= ∑ k2 qk p − 2
k =1
p
q2
= p(q + 4q2 + 9q3 + . . .) −
p2
1+q q2
= pq −
(1 − q )3 p2
1+q q2
=q −
p2 p2
q
= 2.
p
En resumen,
Teorema 3 – Media y Varianza Distribución Geométrica
La media y la varianza de la distribución geométrica de parámetro p son
q q
µ= y σ2 = .
p p2
Ejemplo 3. Continuando con el ejemplo anterior del lanzamiento de un moneda, encuentre la proba-
bilidad de obtener la primera cara en el cuarto lanzamiento;
P( X = 3) = (0.5) · (0.5)3
1
= .
16
1.5. L EY H IPERGEOMÉTRICA
Esta ley se basa en el esquema siguiente: se tiene una población N de elementos, la cual está
caracterizada o definida por dos grupos o clases (G1 y G2 ), y digamos que K elementos pertenecen al
grupo G1 y N − K elementos pertenecen al grupo G2 .
De esta población, se toma al azar una muestra sin reposición de n elementos (n 6 N), y se plantea
calcular la probabilidad de que esta muestra esté formada por x elementos que pertenecen al grupo
G1 , y n − x elementos al grupo G2 .
x elementos n − x elementos
Siendo X, la variable aleatoria discreta que representa el número de elementos x que pertenecen
al grupo 1, la probabilidad de que hayan x elementos de la muestra n, y que pertenecen al grupo 1
está dada por:
N−k
K
x n−x
P( X = x ) =
N
n
K
Siendo p = N la proporción de elementos del Grupo 1, el valor esperado y la varianza de la
variable aleatoria discreta Hipergeométrica X, están dados por:
Teorema 4 – Media y Varianza Distribución Hipergeométrica
La media y la varianza de la distribución hipergeométrica de parámetros N, K y n son
K N−n
µ=n = np y σ2 = np(1 − p)
N N−1
Ejemplo 4. Se tiene un grupo 20 personas, compuesto por 10 hombres y 10 mujeres. Se toma al azar
un grupo de 2 personas. ¿Cuál será la probabilidad de que el grupo tomado al azar esté compuesto
por 1 hombre y 1 mujer?
Ë N = 20 (población total)
Ë K = 10, (N − K = 10)
Ë n = 2 (muestra al azar)
Ë x = 1 (n − x = 1)
Vamos a resolver este mismo ejercicio, con base en la definición básica de probabilidades
Para esto debemos definir el espacio muestral (conjunto de posibles resultados), y de este con-
junto, contamos cuantos elementos cumplen la condición (grupos de 2 personas, compuestos por un
hombre y una mujer). Veamos el siguiente gráfico para ayudarnos a establecer el espacio muestral:
1 2 3 4 5 6 7 8 9 10
i i i i i i i i i i
1 2 3 4 5 6 7 8 9 10
i i i i i i i i i i
El espacio muestral esta formado por todas las combinaciones posibles de dos personas que pue-
den darse de entre las 20 totales.
Así, del gráfico podemos ver, por ejemplo, que el primer hombre puede combinarse o hacer gru-
pos de dos, con cada una de las 10 mujeres, y con cada uno de los nueve hombres restantes.
Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son 100, ya que son
las combinaciones de cada uno de los 10 hombres con cada una de las 10 mujeres (10 · 10).
Pero también, por ser tomados al azar, pueden formarse grupos de dos hombres o dos mujeres.
Y, podemos ver que el primer hombre se puede agrupar con los otros nueve hombres, teniendo así 9
grupos; luego el segundo hombre se puede combinar con los 8 hombres restantes, teniendo 8 grupos
posibles más, y así sucesivamente, hasta llegar al penúltimo que forma un grupo más con el último.
Luego, el espacio muestral está formado por un conjunto de 190 elementos (grupos posibles de 2
personas), de los cuales, 100 están compuestos por 1 hombre y una mujer, 45 están formados por 2
hombres, y 45 están formados por 2 mujeres.
Por definición de probabilidad, tenemos que 100 elementos (de los 190 posibles), cumplen la
condición (grupos de 2 personas formado por un hombre y una mujer).
100
Por lo tanto P( A) = 190 = 0.526 315 8, que es el mismo resultado que se obtuvo con la ley Hiper-
geométrica.
Sin embargo, este ejercicio resulta fácil de resolver por la definición básica de probabilidad debido
solamente a que se toma un grupo de dos personas. Para el caso en que se tomara, por ejemplo, 7
personas al azar, de las cuales 3 sean hombres, y 4 mujeres, resulta difícil resolver con la definición
básica de probabilidad, pero en cambio es muy fácil hacerlo con la ley Hipergeométrica que modela
tal situación.
7 personas, la probabilidad de que el grupo esté formado por 3 hombres y 4 mujeres, está dada por:
Nota complementaria
De una forma similar a como se generalizó la Ley Binomial para obtener la Ley Multinomial,
también se puede generalizar la Ley Hipergeométrica para más de dos grupos. Recordemos:
Grupo 1 Grupo 2
N1 elementos N2 elementos
x1 elementos x2 elementos
Cambiando la notación, digamos que el Grupo 1 tiene N1 elementos, y el Grupo 2 tiene N2 elemen-
tos (con N1 + N2 = N). Se selecciona al azar una muestra (sin reposición) de n elementos, entonces la
probabilidad de que esta muestra esté compuesta por x1 elementos que pertenecen al Grupo 1 y, x2
elementos al Grupo 2, (con x1 + x2 = n), está dada por:
N − N1
N1 N2 N1
x1 x x1 n−x
P ( X = x1 ) = 2 = 1
N N
n n
Ahora planteamos lo siguiente: se tiene una población N de elementos, la cual está caracterizada o
definida por k grupos o clases (G1 , G2 , . . . , Gk ), y digamos que N1 elementos pertenecen al grupo G1 ,
N2 elementos al grupo G2 , . . . ., y Nk elementos pertenecen al grupo Gk (con N1 + N2 + . . . + Nk = N)
De esta población, se toma al azar una muestra sin reposición de n elementos (n 6 N), y se plantea
calcular la probabilidad de que esta muestra esté formada por x1 elementos que pertenezcan al grupo
G1 , x2 elementos al grupo G2 , . . ., y xk elementos al grupo Gk (con x1 + x2 + . . . + xk = n ; y xi 6 Ni
para todo i = 1, 2, . . . , k). Gráficamente se tiene:
G1 G2 G3 ...... Gk
......
N1 N2 N3 Nk
x1 x2 x3 ...... xk
Así, esta probabilidad está dada por la Ley Hipergeométrica generalizada siguiente:
N1 N2 Nk
...
x1 x2 xk
P(n, x1 , x2 , . . . xk ) = .
N
n
1.6. L EY DE P OISSON
Existen eventos o esquemas en los cuales se tiene arribos o llegadas de elementos a un sistema,
por ejemplo:
Sistema
b b b b b b b b b
Se pueden modelar algunas de estas situaciones, digamos raras, en el sentido que muchas de ellas no
tienen control sobre la forma como arriban los elementos, como es el caso de los carros que llegan a
una determinada esquina.
Luego, un esquema o sistema que cumpla con estas tres condiciones a la vez, se llama proceso
físico de Poisson2 .
Por ejemplo, la llegada de aviones a un aeropuerto: el aeropuerto viene a ser el sistema; los avio-
nes son los elementos que arriban al sistema. Muchos elementos pueden ser independientes entre sí
(si son de compañías aéreas diferentes), sin embargo, los aviones no llegan en forma aleatoria, de-
bido a que tienen horarios establecidos, y por lo tanto, este esquema o sistema, no es un proceso de
Poisson.
Analicemos ahora el caso de los carros que llegan a una determinada esquina de la cuidad. La
esquina con los semáforos es el sistema, y los carros son los elementos que arriban al sistema (la es-
quina o la intersección de calles), donde son “atendidos” y continúan. Los carros, en general, llegan o
pasan por el lugar en forma aleatoria, son independientes entre sí, y también, en general, los tiempos
entre arribos podemos decir que son aleatorios, y por lo tanto, puede establecerse que este es un pro-
ceso de Poisson. Pero como se modela una situación como ésta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir, de manera permanente.
Para modelar este proceso, se establece un cierto intervalo de tiempo para el análisis, por ejem-
plo, un minuto, o una hora, etc., y se plantea ¿cuál será la probabilidad de que al sistema arriben x
elementos (en el intervalo de tiempo acordado para el análisis)?
Siendo X, la variable aleatoria discreta que representa el número de elementos x que arriban al
sistema durante el intervalo de tiempo establecido, se define la Ley de probabilidades de Poisson
de parámetro λ por:
e−λ λ x
P( X = x ) = ;
x!
donde
Los valores que puede tomar esta variable aleatoria teóricamente van desde cero hasta el infinito,
es decir, x ∈ {0, 1, 2, 3, . . .}.
Una de las cosas interesantes que podemos notar en estos procesos de Poisson es que los elemen-
tos pueden forman colas si el tiempo de atención en el sistema tarda, como es el caso típico al ir a un
Banco, a un centro comercial, una llamada en espera, el tráfico vehicular, etc. Así, con este modelo,
puede estudiarse lo que suele denominarse “teoría de cola”.
Teorema 5 – Media y Varianza Distribución de Poisson
El valor esperado y la varianza de la variable aleatoria discreta de Poisson de parámetro λ son:
µ=λ y σ2 = λ.
2 Suele decirse que esta ley sirve para modelar eventos raros.
Ejemplo 5. Supongamos que por una determinada esquina de la ciudad, pasan en promedio 7 carros
cada dos minutos. ¿Cuál será la probabilidad de que no pase ningún carro?, ¿cuál será la probabilidad
de que pasen 5 carros?, y ¿cuál será la probabilidad de que pasen 20 carros?
Solución. Asumiendo que se cumplen las condiciones de un proceso de Poisson, tenemos que el inter-
valo de análisis es dos minutos, y el parámetro de Poisson es λ = 7 (siete carros pasan en promedio
cada 2 minutos).
Luego, tenemos:
70 e − 7
Ë Probabilidad que no pase ningún carro: P( X = 0) = 0! ≈ 0.000 912.
75 e − 5
Ë Probabilidad que pasen 5 carros: P( X = 5) = 5! ≈ 0.127 717.
720 e−20
Ë Probabilidad que pasen 20 carros: P( X = 20) = 20! ≈ 0.000 030.