Apartado 4
Apartado 4
Apartado 4
i=1
I
i
con
I
i
=
_
1 si se tiene exito en la prueba i
0 si se tiene fracaso en la prueba i ,
es decir, como una suma de n variables aleatorias independientes e identicamente distribuidas (i.i.d)
seg un I
i
Be(p).
De la Proposicion 4.3 se deducen las siguientes propiedades.
Proposicion 4.4 Si X B(n, p) entonces
E[X] = np,
V ar[X] = npq.
Proposicion 4.5 Dadas X B(n, p), Y B(m, p) independientes entonces X +Y B(n +m, p).
Como ejemplos de variables que siguen una distribucion binomial podemos citar: n umero de veces
que aparece el resultado cara al lanzar una moneda diez veces; n umero de exitos en la recepcion de
un mensaje enviado a 100 destinatarios; n umero de ordenadores en una subred que han sido infectados
por un determinado virus, etc.
Ejemplo 4.4 La probabilidad de que cierta clase de componente sobreviva a una prueba de choque
dada es 3/4. Calcular la probabilidad de que sobrevivan exactamente dos de los cuatro componentes
que se prueban.
Supongamos que las pruebas realizadas son independientes y con probabilidad de exito p=3/4 para
cada una de las 4 pruebas, por tanto la variable X B(4, 3/4); tenemos que calcular
P [X = 2] =
_
4
2
__
3
4
_
2
_
1
4
_
2
=
4!
2!2!
3
2
4
4
=
27
128
= 0.2109,
Podemos calcular tambien la media y la varianza
E[X] = 3,
V ar[X] =
3
4
.
Nota 4.1 La distribucion binomial encuentra aplicaciones en muchos campos cientcos. Dentro de la
ingeniera es normal estudiar la proporcion de elementos defectuosos dentro de un proceso industrial;
las mediciones de control de calidad y los esquemas de muestreo se basan en la distribucion binomial.
Esta se aplica en cualquier situacion industrial donde el resultado es un proceso dicotomico y los
resultados del proceso son independientes y la probabilidad de exito es constante de una prueba a otra.
4.4 2
o
Ing. Informatica
4.2. Modelos de distribuciones discretas
4.2.4 Distribucion Multinomial
En muchas aplicaciones hay mas de dos resultados posibles. A menudo la dicotoma defectuoso o
no defectuoso en situaciones de ingeniera es una simplicacion de la realidad, donde suele haber mas
de dos categoras que caracterizan artculos o partes de una lnea de produccion. Para estas situaciones
el experimento binomial se convierte en experimento multinomial cuando cada prueba tiene mas de
dos resultados posibles. Si un experimento puede tener como consecuencia k posibles resultados
E
1,
E
2,...,
E
k
con probabilidades p
1,
p
2,...,
p
k
, entonces la distribucion multinomial dara la probabilidad
de que E
1
ocurra x
1
veces, E
2
ocurra x
2
veces,. . . , E
k
ocurra x
k
veces en n pruebas independientes,
donde
x
1
+x
2
+... +x
k
= n.
La funcion de probabilidad de las variables aleatorias X
1,
X
2,...,
X
k
, que representan el n umero de
ocurrencias para E
1,
E
2,...,
E
k
en n pruebas independientes es
P[X
1
= x
1
, X
2
= x
2
, . . . , X
k
= x
k
] =
n!
x
1
!x
2
! . . . x
k
!
p
x
1
1
p
x
2
2
. . . p
x
k
k
con
k
i=1
x
i
= n
y
k
i=1
p
i
= 1
A la variable (X
1
, . . . , X
n
) se le dice que sigue una distribucion multinomial y se denota por
M(p
1
, p
2
, . . . , p
k
; n)
Ejemplo 4.5 Los fallos de impresion de un libro se pueden clasicar en erratas tipogracas (E), mala
impresion (M) y hojas en blanco (H). Un editor presenta en los fallos de sus publicaciones un 80% de
erratas, un 15% de hojas mal impresas y solo un 5% de hojas en blanco. Calcular la probabilidad de
que de 10 fallos encontrados en un libro, 6 sean erratas y 3 carencias de impresion.
Al considerar 10 fallos, 6 corresponden a erratas, 3 a carencias de impresion, el fallo restante
corresponde a una hoja en blanco. Por lo tanto
P [X
1
= 6; X
2
= 3; X
3
= 1] =
10!
6!3!1!
0.80
6
0.15
3
0.05 = 0.03716.
4.2.5 Distribucion Hipergeometrica
La diferencia entre la distribucion binomial y la distribucion hipergeometrica esta en la forma en
que se realiza el muestreo. En el caso de la binomial se requiere independencia entre las pruebas, es
decir, el muestreo se realiza con reemplazamiento. Por otro lado, la distribucion hipergeometrica no
requiere independencia y el muestreo se realiza sin reemplazamiento. Las aplicaciones de la distribucion
hipergeometrica se encuentran en muchas areas, con gran uso en control de calidad.
Consideramos un conjunto de N elementos en el que tenemos N
1
elementos del tipo 1 y N N
1
elementos de tipo 2. Extraemos n sin reemplazamiento y denimos la variable aleatoria:
Estadstica 4.5
Tema 4. Modelos de distribuciones
X = n umero de elementos del tipo 1 en los n extrados. El modelo de distribucion que sigue
esta variable aleatoria es una hipergeometrica.
Denicion 4.4 Se dice que una variable aleatoria discreta X sigue una distribucion hipergeometrica
de parametros N, N
1
y n con n N, si se verica:
rg(X) = {m ax(0, n (N N
1
)) , ..., mn(n, N
1
)}
y la funcion de probabilidad de X es
P[X = k] =
_
N
1
k
__
NN
1
nk
_
_
N
n
_ , k rg(X)
con 0 k N
1
, 0 n k N N
1
. Se denota X H(N, N
1
, n).
Proposicion 4.6 Si X H(N, N
1
, n) entonces
E[X] = n
N
1
N
,
V ar[X] = n
N
1
N
_
1
N
1
N
__
N n
N 1
_
.
Ejemplo 4.6 Un fabricante de chips de silicio los empaqueta en lotes de 25. El comprador los ins-
pecciona tomando 3 chips y acepta un lote si encuentra menos de 2 chips defectuosos.
(a) Calcular la probabilidad de que el comprador acepte un lote con 6 chips defectuosos.
(b) Cual es el n umero esperado y la varianza de chips defectuosos en los 3 inspeccionados?
(a) Se tiene un conjunto de N = 25 chips, en los que hay N
1
= 6 defectuosos, y N N
1
= 19 no
defectuosos. Extraemos n = 3 sin reemplazamiento. Consideramos la variable aleatoria X = n umero
de chips defectuosos en los 3 seleccionados,
X H(N = 25, N
1
= 6, n = 3) .
La probabilidad de que el comprador acepte el lote es:
P[X < 2] = P[X = 0] +P[X = 1] =
_
6
0
__
19
3
_
_
25
3
_ +
_
6
1
__
19
2
_
_
25
3
_ = 0.8674,
E[X] = 3
6
25
= 0.72 ,
V ar[X] = 3
_
6
25
_
_
19
25
_
_
22
24
_
= 0.5016 .
Ejemplo 4.7 Se dispone de una urna con 3 bolas blancas y 7 negras. Extraemos 4 bolas al azar
y queremos contar el n umero de bolas blancas en las 4 extracciones. Enunciar los modelos que se
obtendran al realizar el experimento con y sin reemplazamiento.
Si existe reemplazamiento, la probabilidad de extraer una bola blanca no varia en el tiempo, y por
tanto
X B
_
4,
3
10
_
.
4.6 2
o
Ing. Informatica
4.2. Modelos de distribuciones discretas
Si no se realiza reemplazamiento, las probabilidades variaran en el tiempo ya que cambia la com-
posicion de la urna y, por lo tanto,
X H(10, 3, 4) .
4.2.6 Distribucion Geometrica
Realizamos una serie de pruebas de Bernoulli independientes e identicamente distribuidas con la
misma probabilidad de exito, p, en cada prueba. Denimos:
X = n umero de fracasos antes de obtener el primer exito. Entonces se tiene un tipo de distri-
bucion denominada geometrica.
Denicion 4.5 Se dice que una variable aleatoria discreta X sigue una distribucion geometrica de
parametro p (0, 1] si se verica:
rg(X) = {0, 1, 2, . . .}
y la funcion de probabilidad es:
P[X = k] = q
k
p , k = 0, 1, ...., k rg(X).
Se denotara como X Ge(p), con 0 < p 1.
Comprobamos que es funcion de probabilidad:
k=0
P[X = k] =
k=0
q
k
p = p
k=0
q
k
= p
1
1 q
= p
1
p
= 1 ,
pues 0 q < 1 .
Proposicion 4.7 Si X Ge(p), entonces
E[X] =
q
p
,
V ar[X] =
q
p
2
.
Proposicion 4.8 Si X Ge(p), entonces
P [X k +j|X k] = P[X j] = q
j
, k, j = 0, 1, 2, ... .
Se dice que la distribucion geometrica carece de memoria.
Ejemplo 4.8 En un proceso de fabricacion se puede suponer por estudios previos que la probabilidad
de que un artculo sea defectuoso es p = 0.01. Inspeccionamos artculos secuencialmente hasta en-
contrar uno defectuoso. Calcular la probabilidad de que el quinto artculo seleccionado sea el primero
defectuoso.
Denimos X = n umero de artculos seleccionados antes de encontrar el primero defectuoso,
X Ge(0.01).
Estadstica 4.7
Tema 4. Modelos de distribuciones
P[el quinto artculo seleccionado sea el primero defectuoso] = P[X = 4]
= 0.99
4
0.01 = 0.0096 .
Calculamos tambien la media y la varianza
E[X] =
q
p
=
0.99
0.01
= 99 ,
V ar[X] =
q
p
2
=
0.99
(0.01)
2
= 9900 .
Nota 4.2 Algunos autores denen la distribucion geometrica como Y = n umero de la prueba en que
obtengo el primer exito. Notese que Y = X + 1, siendo X la variable con la que hemos trabajado
antes, por lo que la funcion de probabilidad y caractersticas se deducen de forma inmediata.
P[Y = k] = P[X = k 1] ,
E[Y ] = E[X] + 1 ,
V ar[Y ] = V ar[X + 1] = V ar[X] .
Nota 4.3 Como area de aplicacion de la distribucion geometrica, podemos citar situaciones donde los
ingenieros intentan determinar la ecacia de un sistema de conmutacion telefonica durante periodos
ocupados. En este caso, el exito representa la conexion al sistema de conmutacion. La variable sera
el n umero de intentos fracasados antes de una conexion al sistema (exito).
4.2.7 Distribucion de Poisson
La distribucion de Poisson es una distribucion discreta de gran utilidad donde la variable aleatoria
suele estudiar el n umero de eventos independientes que ocurren a velocidad constante en un intervalo
de tiempo o espacio. El intervalo puede ser de cualquier longitud, como un minuto, un da, una
semana. Por ejemplo, el n umero de llamada telefonicas por hora que llegan a una ocina, el n umero
de mensajes que llegan a un servidor de correos durante una hora, etc.
Denicion 4.6 Una variable aleatoria X discreta, sigue una distribucion de Poisson de parametro
> 0, X P(), si:
rg(X) = {0, 1, 2, . . .}
y la funcion de probabilidad viene dada por:
P[X = k] = e
k
k!
, k = 0, 1, 2, ... ,
Comprobamos que es funcion de probabilidad:
k=0
P[X = k] =
k=0
e
k
k!
= e
k=0
k
k!
= e
= 1 .
4.8 2
o
Ing. Informatica
4.2. Modelos de distribuciones discretas
Proposicion 4.9 Si X P() entonces
E[X] = ,
V ar[X] = .
Proposicion 4.10 Dadas X P(
1
) e Y P(
2
) independientes entonces X +Y P(
1
+
2
) .
Corolario 4.1 Dadas X
1
P(),..., X
n
P() independientes e identicamente distribuidas enton-
ces S = X
1
+.. +X
n
P(n) .
Ejemplo 4.9 El n umero medio de camiones que llega cada da a la darsena de descarga de un puerto
es 10, ( = 10). Con las instalaciones de que dispone el puerto no se pueden descargar mas de 15
camiones en un da. Calcular la probabilidad de que en un da determinado haya camiones que no
puedan ser descargados.
Sea X = n umero de camiones que llegan en un da. La variable aleatoria X P( = 10).
P[en un da determinado haya camiones que no puedan ser descargados] =
P[X > 15] = 1 P[X 15] = 1 0.9513 = 0.0487 .
Nota 4.4 La distribucion de Poisson se utiliza a menudo para aproximar las probabilidades de una
B(n, p), cuando n es grande y p peque no, aproximandose por una P( = np). En la practica, la
aproximacion es buena cuando p < 0.1 y np 5
En la siguiente tabla representamos en la segunda columna la P[X = x] para una distribucion
Binomial con parametros n = 40 y p = 0.05, la tercera columna corresponde a la probabilidad para la
distribucion de Poisson con parametro = 40 0.05 = 2.
x B(n = 40, p = 0.05) P( = 2)
0 0.1285 0.1353
1 0.2706 0.2707
2 0.2777 0.2707
3 0.1851 0.1804
4 0.0901 0.0902
5 0.0342 0.0361
6 0.0105 0.0120
Tabla 4.1: Aproximacion de la binomial por la Poisson
Ejemplo 4.10 En un proceso de fabricacion de productos de vidrio se producen rara vez burbujas que
dejan al producto defectuoso para su venta. Se ha observado que uno de cada 1000 artculos que se
producen tienen burbujas, es decir, la probabilidad de que un producto sea defectuoso podemos suponer
que es p = 0.001 ). Cual es la probabilidad de que en un lote de 8000 artculos haya menos de 4
defectuosos?
Sea X = n umero de artculos defectuosos en 8000.
Estadstica 4.9
Tema 4. Modelos de distribuciones
Podemos suponer
X B(n = 8000, p = 0.001) .
Puesto que n es muy grande y p esta muy proximo a cero podemos aproximar B(n, p) P( = np),
es decir,
X P( = n p = 8)
P[haya menos de 4 defectuosos] = P[X < 4] =
3
k=0
P[X = k] = 0.0424.
4.3 Modelos de distribuciones continuas
En esta parte del tema se estudiaran algunas de las distribuciones mas comunes, que se pueden
aplicar a una gran diversidad de situaciones en los que se estudian problemas de naturaleza continua.
Para describir este tipo de variables aleatorias basta proporcionar la funcion de densidad.
4.3.1 Distribucion Uniforme
Denicion 4.7 Se dice que una variable aleatoria continua X sigue una distribucion uniforme en el
intervalo (a,b), si su funcion de densidad esta denida como
f(x) =
_
1
ba
si a < x < b
0 c.c.
Se denota por X U(a, b)
Proposicion 4.11 Si X U(a, b) entonces
E [X] =
a +b
2
,
V ar[X] =
(b a)
2
12
.
.
Ejemplo 4.11 El volumen de ventas de un almacen se distribuye uniformemente entre 38 y 120 miles
de euros. Calcular
(a) La probabilidad de que las ventas sean superiores a 100000 euros.
(b) La esperanza matematica y varianza de las ventas
Sea X= Volumen de ventas del almacen en miles de euros U(38, 120).
(a) La funcion de densidad de esta variable
f(x) =
1
120 38
=
1
82
si 38 < x < 120
Por tanto, como la variable esta denida en miles de euros
4.10 2
o
Ing. Informatica
4.3. Modelos de distribuciones continuas
P [X > 100] =
_
+
100
f(x)dx =
_
120
100
1
82
dx =
1
82
[x]
120
100
=
20
82
= 0.2439
(b)
E[X] =
a +b
2
=
38 + 120
2
= 79
.
V ar[X] =
(b a)
2
12
=
(120 38)
2
12
= 560.333
4.3.2 Distribucion Exponencial
Denicion 4.8 Se dice que la variable aleatoria continua X sigue una distribucion exponencial de
parametro , con > 0 si su funcion de densidad es
f(x) =
_
e
x
si x > 0
0 c.c.
Se denota por X Exp()
Proposicion 4.12 Si X Exp() entonces
E[X] =
1
,
V ar[X] =
1
2
.
Como ejemplos de una distribucion exponencial podemos citar el tiempo que tarda en fallar un
sistema electr onico, tiempo transcurrido entre la llegada de dos mensajes de correos consecutivos, etc.
Proposicion 4.13 Si X Exp() entonces
F(x) =
_
1 e
x
, si x > 0
0 c.c.
P [X > x] = e
x
, x > 0.
Proposicion 4.14 Si X Exp() entonces
P [X x +t|X t] = P[X x] = e
x
, x, t > 0.
Se dice que la distribucion exponencial no tiene memoria. Por ello, esta distribucion se suele
utilizar cuando medimos el tiempo de vida restante de poblaciones que no envejecen con el tiempo.
Estadstica 4.11
Tema 4. Modelos de distribuciones
Ejemplo 4.12 Se ha comprobado que la duracion de vida de cierto tipo de circuitos sigue una distri-
bucion exponencial con media 8 a nos. Calcular:
(a) La probabilidad de que un circuito tenga una vida entre 3 y 12 a nos.
(b) La probabilidad de que un circuito que ha vivido mas de 10 a nos, viva 15 a nos mas.
(a) Sea X=Tiempo de vida de los circuitos, como la media de la variable aleatoria es 8,
X Exp( =
1
8
), por tanto la funcion de densidad
f(t) =
1
8
e
t
8
, t > 0
donde t va medido en a nos. Entonces:
P [3 < X < 12] =
_
12
3
1
8
e
t
8
dt =
_
e
t
8
_
12
3
= 0.69 0.22 = 0.46
(b) Utilizando la Proposicion 1.14:
P [X > 25|X > 10] =
P [X > 25]
P [X > 10]
= e
15
Por tanto
P [X > 25|X > 10] = P [X > 15]
Luego podemos armar que la variable aleatoria X no tiene memoria.
4.3.3 Distribucion Normal
Es la mas importante de las distribuciones continuas ya que permite describir un n umero muy
grande de fenomenos aleatorios, como por ejemplo aquellos en los que intervienen un n umero elevado
de factores no controlables, que act uan de manera independiente y con efectos peque nos.
Denicion 4.9 Se dice que una variable aleatoria X sigue una distribucion normal de parametros
R y
2
> 0, si su funcion de densidad es
f(x) =
1
2
exp
_
(x )
2
2
2
_
, x R,
se denota por X N(,
2
)
Proposicion 4.15 Si X N(,
2
) entonces
E[X] = ,
V ar[X] =
2
.
La graca de la funcion de densidad, se denomina curva normal (o campana de Gauss), es una
curva con forma de campana, la cual describe aproximadamente muchos fenomenos que se utilizan en
4.12 2
o
Ing. Informatica
4.3. Modelos de distribuciones continuas
la vida cotidiana. Por ejemplo, las mediciones fsicas en areas como los experimentos metereologicos,
estudios de lluvia, errores en las mediciones cientcas, etc.
A continuacion se muestra la graca de la funcion de densidad para una distribucion normal con
media 0 y desviacion tpica igual a 1.
Gracamente se observa que presenta un maximo en , tiene puntos de inexion en y +
y es simetrica respecto a . Se aproxima al eje horizontal de manera asintotica conforme nos alejamos
de la media en cualquier direccion. El area total entre la curva y el eje horizontal es igual a 1.
Proposicion 4.16
(a)Si X N(,
2
) entonces aX +b N(a +b, a
2
2
) con a, b R, a = 0.
(b) En particular, si X N(,
2
) entonces Z =
X
N(0, 1)
Por tanto, la funcion de distribucion de cualquier N(,
2
) se puede calcular utilizando la distri-
bucion N(0, 1) de la siguiente forma
P [X x] = P
_
X
_
= P
_
Z
x
_
donde Z =
X
_
(b)
P [a < X < b] =
_
b
_
a
_
Estadstica 4.13
Tema 4. Modelos de distribuciones
Teorema 4.1 Sea Z N(0, 1) con funcion de distribucion . Entonces (z) = 1(z), z R
Teorema 4.2 Sean X N(
1
,
2
1
) e Y N(
2
,
2
2
) independientes. Entonces
(a)
X +Y N(
1
+
2
,
2
1
+
2
2
)
(b)
X Y N(
1
2
,
2
1
+
2
2
)
Corolario 4.2 Dadas X
1,...,
X
n
variables aleatorias independientes e identicamente distribuidas seg un
N(,
2
) entonces
n
i=1
X
i
N(n, n
2
).
Ejemplo 4.13 Dada una distribucion normal con = 50 y = 10, calcular la probabilidad de que X
tome una valor entre 45 y 62.
P[45 < X < 62] = P
_
45 50
10
< Z <
62 50
10
_
= P [0.5 < Z < 1.2]
= (1.2) (0.5)
= 0.8849 0.3085 = 0.5764
Ejemplo 4.14 Sea una distribucion normal con = 300 y = 50, obtener la probabilidad de que X
tome un valor mayor que 362.
P [X > 362] = P
_
Z >
362 300
50
_
= P [Z > 1.24] = 1 (1.24) = 1 0.8925 = 0.1075
La distribucion normal encuentra una gran aplicacion como distribucion lmite, es decir, bajo cier-
tas condiciones la distribucion normal proporciona una buena aproximacion continua a otras distribu-
ciones. Puede utilizarse para aproximar probabilidades de variables binomiales cuando n es grande,
y p no este muy cercano a cero o uno, en general esta aproximacion se utiliza para np > 5. Entonces
aproximamos por una N( = np,
2
= npq). La distribucion normal tambien puede aproximar a la
distribucion de Poisson, P(), cuando es elevado, considerando N( = ,
2
= ).
4.14 2
o
Ing. Informatica
4.4. Apendice: Correccion de continuidad
4.3.4 Otras Distribuciones
Existen otras distribuciones que aunque no vamos a desarrollar en el tema pueden tener cierto
interes por su utilidad dentro de algunas areas de la ingeniera como el control de calidad y abilidad
de procesos. La distribucion gamma es una generalizacion de la distribucion exponencial y representa
el tiempo transcurrido hasta que cierto suceso aparece k veces. Por tanto la distribucion gamma
se puede expresar como suma de exponenciales. La distribucion gamma no tiene en cuenta que el
envejecimiento de un sistema, incrementa su probabilidad de fallo. Para incluir esta condicion en
el modelo probabilstico resulta util emplear la distribucion de Weibull. Esta distribucion se emplea a
menudo en ingeniera ya que, seleccionado los valores adecuados para los parametros asociados a esta
distribuci on, se puede caracterizar la abilidad de un gran n umero de sistemas.
4.4 Apendice: Correccion de continuidad
Cuando aproximamos una distribucion discreta (binomial o Poisson) por una distribucion normal
es aconsejable realizar una correccion por continuidad. Sabemos que en una variable aleatoria discreta
la P[X = x] > 0, x rg(X), en cambio, cuando la variable es continua la P[X = x] = 0. Por ello
al aproximar una variable aleatoria discreta por una continua debemos evitar los problemas en los
puntos, considerando intervalos de la siguiente forma:
P[X = a] P[a 1/2 < X a + 1/2]
A continuacion se detalla un ejemplo donde incluimos la correccion de continuidad:
Ejemplo 4.15 Unos grandes almacenes estiman que el 60% de sus clientes paga con dinero en efec-
tivo, y el resto recurre a otros medios. Calcular la probabilidad de que de 30 clientes exactamente 20
paguen en efectivo.
Sea X=N umero de clientes que pagan en efectivo entre 30 clientes, por tanto la variable aleatoria
X sigue una distribucion binomial que la vamos a aproximar a una distribucion normal, es decir,
X B(30, 0.6) N(18, 7.2).
Tenemos que calcular la P[X = 20], como hemos pasado de una distribucion discreta a una
continua aplicamos la correccion de continuidad, luego
P[X = 20] = P[19.5 < X 20.5] = P[X 20.5] P[X 19.5] =
=
_
20.5 18
2.68
_
_
19.5 18
2.68
_
= 0.115.
Estadstica 4.15