Cadenas Markov
Cadenas Markov
Cadenas Markov
FENÓMENOS DE ESPERA
• Procesos estocásticos.
• Procesos de Poisson
• Procesos de renovación
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 326
Las cadenas de Markov fueron introducidas por el matemático ruso
Andrei Markov (1856‐1922) alrededor de 1905, con el objetivo de
crear un modelo probabilístico parara analizar la frecuencia con la
que aparecen las vocales en poemas y textos literarios.
Las cadenas de Markov pueden aplicarse a una amplia gama de
fenómenos cientificos y sociales.
Andrei Markov fue alumno de la universidad de San
Petersburgo, discipulo de Chebyshev como Liapunov, después
de su doctorado en 1886 accedió como adjunto a la Academia
de Ciencias de San Petersburgo, a propuesta del propio
Chebyshev.
En 1989, cuando Chebyshev dejó la universidad, le sustituyó
en los cursos de teoría de probabilidad. En 1925 Andrei
Markov dejó definitivamente la universidad.
Aparte de su perfil académico, Andrei Markov fue un activista político oponiéndose
a los privilegios de la nobleza zarista, llegando a rechazar las condecaraciones del
zar en protesta por decisiones políticas relacionadas con la Academia de Ciencias.
Andrei Markov influyó sobre diversos campos de las matemáticas, sobresaliendo
con la teoría de la probabilidad.
En 1887 completó la prueba que permitía generalizar el teorema central del límite
que ya había avanzado Chebyshev, aunque su aportación más conocida se
encuentra en los procesos estocásticos, elaborando un instrumento matemático
que actualmente se conoce como cadena de Markov, instrumento que, hoy en día,
se consideran una herramienta esencial en disciplinas como la economía, la
ingeniería, la investigación de operaciones y muchas otras.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 327
PROCESOS ESTOCÁSTICOS: CADENA DE MARKOV EN TIEMPO DISCRETO
Un proceso estocástico o proceso aleatorio X(t) es un concepto matemático que se
utiliza para usar magnitudes aleatorias que varían con el tiempo o para caracterizar
una sucesión de variables aleatorias o estocásticas que varían en función de otra
variable, generalmente el tiempo.
Cada variable o conjunto de variables sometidas a influencias o efectos aleatorios
constituyen un proceso estocástico.
En teoría de la probabilidad, una cadena de Markov en tiempo discreto (CMTD) es
un tipo especial de proceso estocástico discreto en el que la probabilidad de que
ocurra un suceso depende solamente del suceso inmediatamente anterior. Esta
característica de falta de memoria se conoce como propiedad de Markov (recibe el
nombre del matemático ruso Andrei Markov, que lo introdujo en 1907).
Una cadena de Markov es una secuencia (X1 , X 2 , X 3 , , Xn ) de variables
aleatorias, el dominio de estas variables es el llamado espacio estado.
El valor Xn es el estado del proceso en el tiempo n.
La distribución de la probabilidad condicionada de Xn + 1 en estados pasados es una
función de Xn por sí sola, siendo x i el estado del proceso en el instante i‐ésimo:
P ⎡⎣ Xn + 1 = x n + 1 Xn = x n , Xn − 1 = x n − 1 , , X 2 = x 2 , X1 = x 1 ⎤⎦ = P ⎡⎣ Xn + 1 = x n + 1 Xn = x n ⎤⎦
{
para cualesquiera n ≥ 0 y x n + 1 , x 1 , x 2 , }
, xn ∈ S
CADENAS HOMOGÉNEAS Y NO HOMOGÉNEAS: Una cadena de Markov se dice
homogénea si la probabilidad de ir del estado i al estado j en un paso no depende
del tiempo en el que se encuentra la cadena
Si para alguna pareja de estados y para algún tiempo n la propiedad mencionada no
se cumple se dice que la cadena de Markov es no homogénea.
PROBABILIDAD DE TRANSICIÓN Y MATRIZ DE TRANSICIÓN: Si una cadena de
Markov está en el estado i‐ésimo, hay una probabilidad pij de pasar al próximo
estado j‐ésimo, a esta probabilidad pij se la llama probabilidad de transición.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 328
(
probabilidad de transición de i a j: pij = Prob Xn + 1 = j Xn = i )
Las probabilidades de transición conforman la matriz de transición P, que es con
rigor una matriz (finita) sólo para cadenas de Markov finitas, aunque también se
conserva el nombre y la notación para cadenas de Markov infinitas.
Cada fila de la matriz de transición debe sumar 1 por las propiedades básicas de
probabilidad.
∑ p = ∑ P(X
j∈ S
ij
j∈ S
1 = j X 0 = 1) = P(X1 ∈ S X 0 = i) = 1
El modelo para redes se puede considerar una cadena de Markov donde S son los
vértices del grafo dirigido y pij es el inverso del número de aristas salientes desde i
cuando hay una arista de i a j y cero en otro caso.
La matriz de transición en un solo paso, dada una cadena de Markov con k estados
posibles S = (s1 , s2 , ,sk ) y probabilidades de transición estacionarias, viene
dada por la expresión:
⎜ ⎟
⎜ ⎟
⎝ pk1 pk2 pkk ⎠
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 329
Calcular la matriz de transición asociada a los grafos:
Solución:
Estado 1 2 3 4
1 ⎡0 1 0 0⎤
2 ⎢0 0 1 0⎥
P= ⎢ ⎥
3 ⎢1 0 0 0⎥
⎢ ⎥
4 ⎣1 0 0 0⎦
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 330
MATRIZ DE TRANSICIÓN EN PLAZOS
El Vector distribución es un vector fila no negativo con una entrada para cada
estado del sistema.
Distribución después del 1 paso: vP
Distribución después del 2 paso: (vP)P = vP2
Distribución después del 3 paso: (vP2 )P = vP3
‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐
Distribución después de n pasos: vPn
Una notación conveniente para representar las probabilidades de transición de n
pasos es la matriz de transición de n pasos:
⎛ p11
(n) (n)
p12 (n)
p1k ⎞
⎜ (n) (n) (n) ⎟
⎜ p21 p22 p2k ⎟
P =
(n)
⎜ ⎟
⎜⎜ (n) (n) (n) ⎟
⎟
⎝ pk1 pk2 pkk ⎠
La probabilidad de transición en una fila y columna dadas es la transición del estado
en esa fila al estado en la columna. Cuando n = 1 el superíndice n no se escribe y se
hace referencia a ésta como una matriz de transición.
♦ Las probabilidades de transición en n pasos son las probabilidades de transición
del estado i al estado j en n pasos, denotándose como:
ij = pij
= P(Xn = j X 0 = i) = P(Xn + m = j Xm = i) , por tanto, p(1)
(n)
pij
Las cadenas de Markov que se analizan a continuación tienen las propiedades:
• Un número finito de estados.
• Probabilidades de transición estacionarias.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 331
PANTEAMIENTO Y ESTUDIO DE LA CADENA DE MARKOV
Se introduce un ratón en una de las celdas del laberinto de
forma aleatoria. Dentro del laberinto, el ratón va a
cualquier celda contigua o se queda en la celda que está
con la misma probabilidad.
a) Probabilidad de estar en cierta celda en el instante 1
b) Probabilidad de estar en cierta celda en el instante 2
Solución:
a) Se definen las variables aleatorias: Xn ≡ celda ocupada en el instante n
Los posibles estados son S = {1, 2, 3, 4, 5, 6}
• Desde el estado 1
• Desde el estado 2
p21 = P ⎡⎣ Xn + 1 = 1 Xn = 2 ⎤⎦ p22 = P ⎡⎣ Xn + 1 = 2 Xn = 2 ⎤⎦
p23 = P ⎡⎣ Xn + 1 = 3 Xn = 2 ⎤⎦ = 0 p24 = P ⎡⎣ Xn + 1 = 4 Xn = 2 ⎤⎦ = 0
p25 = P ⎡⎣ Xn + 1 = 5 Xn = 2 ⎤⎦ = 0 p26 = P ⎡⎣ Xn + 1 = 6 Xn = 2 ⎤⎦ = 0
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 332
• Desde el estado 3
p31 = P ⎡⎣ Xn + 1 = 1 Xn = 3 ⎤⎦ = 0 p32 = P ⎡⎣ Xn + 1 = 2 Xn = 3 ⎤⎦ = 0
p33 = P ⎡⎣ Xn + 1 = 3 Xn = 3 ⎤⎦ p34 = P ⎡⎣ Xn + 1 = 4 Xn = 3 ⎤⎦ = 0
p35 = P ⎡⎣ Xn + 1 = 5 Xn = 3 ⎤⎦ = 0 p36 = P ⎡⎣ Xn + 1 = 6 Xn = 3 ⎤⎦
• Desde el estado 4
p 41 = P ⎡⎣ Xn + 1 = 1 Xn = 4 ⎤⎦ p42 = P ⎡⎣ Xn + 1 = 2 Xn = 4 ⎤⎦ = 0
p 43 = P ⎡⎣ Xn + 1 = 3 Xn = 4 ⎤⎦ = 0 p 44 = P ⎡⎣ Xn + 1 = 4 Xn = 4 ⎤⎦
p 45 = P ⎡⎣ Xn + 1 = 5 Xn = 4 ⎤⎦ = 0 p 46 = P ⎡⎣ Xn + 1 = 6 Xn = 4 ⎤⎦ = 0
• Desde el estado 5
p51 = P ⎡⎣ Xn + 1 = 1 Xn = 5 ⎤⎦ = 0 p52 = P ⎡⎣ Xn + 1 = 2 Xn = 5 ⎤⎦ = 0
p53 = P ⎡⎣ Xn + 1 = 3 Xn = 5 ⎤⎦ = 0 p54 = P ⎡⎣ Xn + 1 = 4 Xn = 5 ⎤⎦ = 0
p55 = P ⎡⎣ Xn + 1 = 5 Xn = 5 ⎤⎦ p56 = P ⎡⎣ Xn + 1 = 6 Xn = 5 ⎤⎦
• Desde el estado 6
p61 = P ⎡⎣ Xn + 1 = 1 Xn = 6 ⎤⎦ = 0 p62 = P ⎡⎣ Xn + 1 = 2 Xn = 6 ⎤⎦ = 0
p63 = P ⎡⎣ Xn + 1 = 3 Xn = 6 ⎤⎦ p64 = P ⎡⎣ Xn + 1 = 4 Xn = 6 ⎤⎦ = 0
p65 = P ⎡⎣ Xn + 1 = 5 Xn = 6 ⎤⎦ p66 = P ⎡⎣ Xn + 1 = 6 Xn = 6 ⎤⎦
⎛1 1 1 1 1 1⎞
El vector de probabilidad inicial v = ⎜ , , , , , ⎟ , probabilidad de estar en
⎝6 6 6 6 6 6⎠
cierta celda en el instante de tiempo 1.
Como el ratón va a cualquier celda contigua o se queda en la celda que está con la
misma probabilidad, la matriz de transición es:
Estados 1 2 3 4 5 6
1 ⎛1 / 3 1 / 3 0 1/3 0 0 ⎞ p11 = p12 = p14 = 1 / 3
2 ⎜⎜ 1 / 2 1 / 2 0 0 0 0 ⎟⎟ p21 = p22 = 1 / 2
3⎜ 0 0 1/2 0 0 1 / 2 ⎟ p33 = p36 = 1 / 2
P = ⎜ ⎟
4 ⎜1 / 2 0 0 1/2 0 0 ⎟ p 41 = p 44 = 1 / 2
5⎜ 0 0 0 0 1 / 2 1 / 2 ⎟ p55 = p56 = 1 / 2
⎜⎜ ⎟
6⎝ 0 0 1/3 0 1 / 3 1 / 3 ⎟⎠ p63 = p65 = p66 = 1 / 3
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 333
b) Para calcular la probabilidad de estar en cierta celda en el instante 2 se tiene
que recurrir al poducto (vP)
⎛1/3 1 /3 0 1/3 0 0 ⎞
⎜1/2 1 /2 0 0 0 0 ⎟⎟
⎜
⎛1 1 1 1 1 1⎞⎜ 0 0 1/2 0 0 1 / 2⎟
vP = ⎜ ⎟ ⎜1/2 ⎟=
⎝6 6 6 6 6 6⎠⎜ 0 0 1/2 0 0 ⎟
⎜ 0 0 0 0 1 / 2 1 / 2⎟
⎜⎜ ⎟⎟
⎝ 0 0 1 / 3 0 1 / 3 1 / 3 ⎠
⎛2 5 5 5 5 2⎞
= ⎜ ⎟
⎝ 9 36 36 36 36 9 ⎠
El vector de probabilidad de estar en cierta celda en el instante de tiempo 2 es
⎛2 5 5 5 5 2⎞
vP = ⎜ , , , , , ⎟
⎝ 9 36 36 36 36 9 ⎠
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 334
ECUACIONES DE CHAPMAN‐KOMOGOROV
Las ecuaciones de Chapman‐Kolmogorov proporcionan un método para calcular las
probabilidades de transición de n pasos p(n)
ij
ij = ∑ pik pkj
(m) (n− m)
p(n) i, j = 0, 1, ..., M ; m = 0, 1, ..., n − 1 ; n = m + 1, m + 2, ...
k=0
Estas ecuaciones señalan que al ir del estado i al estado j en n pasos. El proceso
estará en algún estado k después de exactamente m pasos ( m < n ).
(n− m)
De esta forma, p(m)
ik pkj es sólo la probabilidad condicional de que, si comienza en
el estado i, el proceso vaya al estado k después de m pasos y después al estado j en
(n − m) pasos. En consecuencia, al resumir estas probabilidades condicionadas
sobre todos los estados posibles k se debe obtener p(n)
ij .
Para n = 2 , para todos los estados i y j, estas expresiones se convierten en
M
Denotar que estos elementos también se obtienen al multiplicar la matriz de
transición de un paso por sí misma, es decir: P(2) = P x P = P2
ij cuando m = 1 y m = n − 1
Del mismo modo, las expresiones anteriores de p(n)
indican que la matriz de probabilidades de transición de n pasos es:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 335
DISTRIBUCIÓN MARGINAL DEL PASO N‐ÉSIMO
Conocidas las probabilidades de transición en n pasos se calcula la distribución
marginal del paso n‐ésimo:
i i
La distribución de probabilidad inicial de X 0 es:
La distribución de probabilidad en n pasos será:
Por tanto, πn = π 0 Pn
ESTADO ESPERADO:
• Estado esperado en el instante n suponiendo que se parte del estado i:
∞ ∞
P(Xn X 0 = i) = ∑ j P(Xn = j X 0 = i) = ∑ j p(n)
ij
j=0 j=0
• Estado esperado en el instante n:
∞ ∞
P(Xn = j) = ∑ j P(Xn = j) = ∑ j ∑ p(n)
ij π i
0
j=0 j=0 i
VECTOR DE PROBABILIDAD ESTACIONARIO: Un vector de probabilidad π (finito o
infinito numerable) se dice estacionario para una cadena de Markov en tiempo
discreto (CMTD) si cualquier transición de acuerdo con la matriz P verifica:
∞ ∞
π j = ∑π p
i=0
i ij j≥ 0 ∑π = 1
j=0
j
π j ≡ probabilidad estacionaria de estar en el estado j
1
μj = ≡ frecuencia que tarda en ser visitado el estado j
πj
Al vector de probabilidad estacionario π también se le denomina distribución
estacionaria o distribución de equilibrio.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 336
ESTADO ESTABLE
Las cadenas de Markov poseen una propiedad notable en cuanto a que tienden a
aproximarse a lo que se llama estado estable.
El estado estable se determina resolviendo la ecuación π P = π , añadiendo la
∞
ecuación ∑ π j = 1
j=0
VECTOR DE PROBABILIDAD LÍMITE:
• El vector de probabilidades π de una cadena de Markov en tiempo discreto se
dice el único vector de probabilidades de equilibrio de la cadena sí Pn y πn
convergen independientemente de la distribución inicial π 0 , cada probabilidad es
mayor estrictamente que cero.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 337
En una región el clima solo puede ser soleado (S) o nublado (N), suponiendo que
las condiciones climaticas en días sucesivos forman una cadena de Markov con
probabilidades estacionarias, siendo la matriz de transición:
S N
S ⎛ 0,7 0,3 ⎞
P=
N ⎜⎝ 0,6 0, 4 ⎟⎠
a) Si el martes está nublado, ¿cuál es la probabilidad de que esté nublado el
miércoles?
b) Si el martes está nublado, ¿cuál es la probabilidad de que el jueves haga sol?
c) Suponiendo que la probabilidad de que el martes haga sol es 0,2 y la
probabilidad de que esté nublado es 0,8. Calcular:
♦ Probabilidad de que esté nublado el miércoles.
♦ Probabilidad de que esté nublado el jueves
♦ Probabilidad de que esté nublado el viernes.
Solución:
a) Si el martes está nublado, la probabilidad de que esté nublado el miércoles es
p22 = 0, 4
b) Si el martes está nublado para calcular la probabilidad de que el jueves haga sol
se necesita calcular la matriz de transición en 2 pasos:
S N
⎛ 0,7 0,3 ⎞ ⎛ 0,7 0,3 ⎞ S ⎛ 0,67 0,33 ⎞
P2 = ⎜ ⎟ ⎜ 0,6 0, 4 ⎟ = N ⎜ 0,66 0,34 ⎟
⎝ 0,6 0, 4 ⎠⎝ ⎠ ⎝ ⎠
La probabilidad del jueves con sol es 0,66
c) Si el martes la probabilidad de sol es 0,2 y la probabilidad nublado 0,8, esto es,
π = (0,2, 0,8) ; el miércoles está nublado (después del 1 paso):
⎛ 0,7 0,3 ⎞
π P = (0,2, 0,8) ⎜ ⎟ = (0,62 , 0,38) probabilidad = 0,38 miércoles nublado
⎝ 0,6 0, 4 ⎠ S N
♦ Para calcular la probabilidad de que el jueves esté nublado:
⎛ 0,67 0,33 ⎞
π P2 = (0,2, 0,8) ⎜ ⎟ = (0,662 , 0,338)
⎝ 0,66 0,34 ⎠ S N
La probabilidad del jueves nublado es 0,338
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 338
♦ Para calcular la probabilidad de que el viernes esté nublado:
⎛ 0,667 0,333 ⎞
π P3 = (0,2, 0,8) ⎜ ⎟ = (0,6662 , 0,3338)
⎝ 0,666 0,334 ⎠ S N
La probabilidad del viernes nublado es 0,3338
Se sabe que un sistema de comunicaciones falla o no dependiendo si ha fallado
o no el día anterior. La probabilidad de que falle un día sabiendo que ha fallado el
día anterior es de 0,6, pero si no ha fallado el día anterior es de 0,4.
a) ¿Cuál es la probabilidad de que el sistema falle dentro de cuatro días sabiendo
que hoy no ha fallado?
b) ¿Cuál es la probabilidad de que el sistema falle el cuarto día sabiendo que
inicialmente la probabilidad de fallar es de 0,3 y la de no fallar es de 0,7?
c) ¿Cuál es el vector de probabilidades de equilibrio?
Solución:
Estado 0 1
0 ⎛ 0,6 0, 4 ⎞
P= ⎜ 0, 4 0,6 ⎟
1 ⎝ ⎠
(4)
La probabilidad pedida es p10 = P(X 4 = 0 X 0 = 1)
(4)
p10 = P(X 4 = 0 X 0 = 1) = 0, 4992
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 339
b) La distribución de probabilidad inicial es π 0 = (0,3 , 0,7) y la distribución de
probabilidad en 4 pasos será π 4 = π 0 P 4
1
⎛ 0,5008 ⎞
P(X 4 = 0) = ∑ p(4)
i0 π 0
i = ( 0,3 0,7 ) ⎜ 0, 4992 ⎟ = 0,5008 x 0,3 + 0, 4992 x 0,7 = 0, 49968
i=0 ⎝ ⎠
⎛ 0,6 0, 4 ⎞
π1 = π 0 P = ( 0,3 0,7 ) ⎜ ⎟ = ( 0, 46 0,54 )
⎝ 0, 4 0,6 ⎠
⎛ 0,52 0, 48 ⎞
π 2 = π 0 P2 = ( 0,3 0,7 ) ⎜ ⎟ = ( 0, 492 0,508 )
⎝ 0, 48 0,52 ⎠
⎛ 0,504 0, 496 ⎞
π 3 = π 0 P3 = ( 0,3 0,7 ) ⎜ ⎟ = ( 0, 4984 0,5016 )
⎝ 0, 496 0,504 ⎠
⎛ 0,5008 0, 4992 ⎞
π 4 = π 0 P 4 = ( 0,3 0,7 ) ⎜ ⎟ = ( 0, 49968 0,50032 )
⎝ 0, 4992 0,5008 ⎠
P(X 4 = 0) = π 04 = 0, 49968
La matriz a largo plazo de transición:
n
⎛ 0,6 0, 4 ⎞ ⎛ 0,5 0,5 ⎞
P = lim P = lim ⎜
n
=
n→∞ n → ∞ 0, 4
⎝ 0,6 ⎟⎠ ⎜⎝ 0,5 0,5 ⎟⎠
⎛ 0,6 0, 4 ⎞
de modo que, π P = ( 0,5 0,5 ) ⎜ ⎟ = ( 0,5 0,5 ) = π
⎝ 0, 4 0,6 ⎠
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 340
CÁLCULO DE Pn DE FORMA EFICIENTE
D es la matriz de los autovalores, es decir, las ráices de su polinomio característico:
P − λI = 0
⎛ λ1 0 0⎞
⎜0 λ2 0 ⎟⎟
D = ⎜
⎜ ⎟
⎜ ⎟
⎝0 0 0 λn ⎠
⎛ a⎞
⎜ ⎟
H es la matriz de los autovectores: (P − λ i I)v = 0 , donde H = ( v1 v2 v3 ) , v = ⎜ b ⎟
⎜c⎟
⎝ ⎠
Aunque el método es útil resulta pesado al realizar los cálculos
⎛1 1 1⎞
⎜4 2 4⎟
9 Calcular los autovalores y autovectores de la matriz ⎜ ⎟
1 1 1⎟
estócastica y calcular Pn y lim Pn P=⎜
n→∞
⎜2 4 4⎟
⎜1 1 1⎟
⎜ ⎟
⎝4 4 2⎠
Los autovalores se calculan a partir de P − λ I = 0
1 1 1
−λ
4 2 4
1 1 1
P − λ I = −λ =0
2 4 4
1 1 1
−λ
4 4 2
1 − 4λ 2 4 − 4λ
1 2 1
1 1
P − λI = 2 1 − 4λ 1 = 4 − 4λ 1 − 4λ 1 =
64 64
1 1 2 − 4λ 4 − 4λ 1 2 − 4λ
1 2 1 1 2 1
1−λ 1−λ 1
= 1 1 − 4λ 1 = 0 −1 − 4λ 0 = (1 − λ ) (−1 − 4λ ) (1 − 4λ ) = 0
16 16 16
1 1 2 − 4λ 0 −1 1 − 4λ
1 1
Los autovalores son λ 1 = 1 λ 2 = λ3 = −
4 4
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 341
Los autovectotes (P − λ i I)v = 0 asociados a los autovalores serán:
⎛ 3 1 1 ⎞
⎜−4 2 4 ⎟ ⎛ a⎞ ⎛ 0 ⎞
⎜ ⎟ ⎛ 1⎞
1 3 1 ⎟⎜ ⎟ ⎜ ⎟ ⎜ ⎟
λ1 = 1 ⇒⎜ − ⎜ b ⎟ = ⎜ 0 ⎟ → v1 = ⎜ 1 ⎟
⎜ 2 4 4 ⎟⎜ ⎟ ⎜ ⎟
⎜ 1 ⎜ 1⎟
1 1 ⎟ ⎝ c⎠ ⎝0⎠ ⎝ ⎠
⎜ − ⎟
⎝ 4 4 2⎠
⎛ 1 1⎞
⎜0 2 4 ⎟ ⎛ a⎞ ⎛ 0⎞
⎜ ⎟ ⎛ −1 ⎞
1 1 1⎟⎜ ⎟ ⎜ ⎟ ⎜ ⎟
λ1 = ⇒⎜ 0 ⎜ b ⎟ = ⎜ 0 ⎟ → v 2 = ⎜ −1 ⎟
4 ⎜2 4⎟⎜ ⎟ ⎜ ⎟
⎜1 ⎜ 2⎟
1 1 ⎟ ⎝ c⎠ ⎝0⎠ ⎝ ⎠
⎜ ⎟
⎝4 4 4⎠
⎛1 1⎞
1
⎜2 4 ⎟ ⎛ a⎞ ⎛ 0⎞
2
⎜ ⎟ ⎛ 1⎞
1 1 1⎟⎜ ⎟ ⎜ ⎟
1 ⎜ ⎟
λ1 = − ⇒⎜ b = 0 → v = ⎜ −1 ⎟
⎜2 4 ⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
3
4 2 ⎜ 0⎟
⎜1 3 ⎟ ⎝ c⎠ ⎝0⎠
1 ⎝ ⎠
⎜ ⎟
⎝4 4⎠
4
⎛ 1 −1 1 ⎞
⎜ ⎟
La matriz de los autovectores H = ( v1 v 2 v3 ) = ⎜ 1 −1 −1 ⎟
⎜1 2 0 ⎟
⎝ ⎠
⎛1 0 0 ⎞ ⎛1 0 0⎞
⎜ ⎟ n→∞ ⎜ ⎟
De este modo, D = ⎜ 0 (1 / 4)n
n
0 ⎟ ⎯⎯⎯→ ⎜ 0 0 0 ⎟
⎜0 0 (−1 / 4)n ⎟⎠ ⎜ 0 0 0⎟
⎝ ⎝ ⎠
−1
⎛ 1 −1 1 ⎞ ⎛ 1 0 0 ⎞ ⎛ 1 −1 1 ⎞
⎜ ⎟⎜ ⎟⎜ ⎟
Pn = H Dn H−1 = ⎜ 1 −1 −1 ⎟ ⎜ 0 (1 / 4)n 0 ⎟ ⎜ 1 −1 −1 ⎟
⎜1 2 0 ⎟ ⎜0 0 (−1 / 4)n ⎟⎠ ⎜⎝ 1 2 0 ⎟⎠
⎝ ⎠⎝
−1
⎛ 1 −1 1 ⎞ ⎛ 1 0 0 ⎞ ⎛ 1 −1 1 ⎞
⎜ ⎟⎜ ⎟⎜ ⎟
lim Pn = ⎜ 1 −1 −1 ⎟ ⎜ 0 0 0 ⎟ ⎜ 1 −1 −1 ⎟ =
n→∞
⎜1 2 0 ⎟ ⎜0 0 0⎟ ⎜1 2 0 ⎟
⎝ ⎠⎝ ⎠⎝ ⎠
⎛1 0 0⎞ ⎛ 1 / 3 1 / 3 1 / 3⎞ ⎛1 / 3 1 / 3 1 / 3⎞
⎜ ⎟⎜ ⎟ ⎜ ⎟
= ⎜ 1 0 0 ⎟ ⎜ −1 / 6 −1 / 6 1 / 3 ⎟ = ⎜ 1 / 3 1 / 3 1 / 3 ⎟
⎜ 1 0 0 ⎟ ⎜ 1 / 2 −1 / 2 0 ⎟⎠ ⎜⎝ 1 / 3 1 / 3 1 / 3 ⎟⎠
⎝ ⎠⎝
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 342
CLASIFICACIÓN DE ESTADOS
algún n ≥ 0
• Dos estados i y j comunican, denotado por i ↔ j , si son acessibles entre sí.
⎧⎪p(0) ⎡ ⎤
ii = P ⎣ X 0 = i X 0 = i ⎦ = 1
Denotando ⎨ (0)
⎪⎩ pij = P ⎣⎡ X 0 = j X 0 = i⎦⎤ = 0 si i ≠ j
La relación de comunicación es una relación de equivalencia, esto es, verifican las
propiedades reflexiva, simétrica y transitiva.
b) Simétrica: i ↔ j ⇔ ∃ n , m tal que p(n)
ij > 0 y p ji > 0
(m)
c) Transitiva: Sí i ↔ j ( ∃ n , m tal que p(n)
ij > 0 y p ji > 0 ) y j ↔ k
(m)
(∃ n •
, m•
• •
)
tal que p(njk ) > 0 y pkj(m ) > 0 ⇒ i ↔ k pues ∃ n + n• , m + m• tal que
∞ ∞
(n + n• )
∑ (n• ) (n• ) (m + m• )
∑
• •
p ik = (n)
p p
ir rk ≥p p (n)
ij jk > 0 y p ki = pkr(m ) pri(m) ≥ pkj(m ) p(m)
ji > 0
r=0 r=0
La relación de comunicación define una partición en el espacio de estados
agrupados en clases de equivalencia.
Sea la matriz de transición en un proceso de Markov en tiempo discreto (CMTD):
Estado 1 2 3 4 5
1 ⎛1 /2 1 / 4 0 0 0⎞
2 ⎜⎜ 1 / 2 3 / 4 0 0 0 ⎟⎟
P = 3 ⎜ 0 0 0 1 / 2 0⎟
⎜ ⎟
4 ⎜ 0 0 1 0 1⎟
5 ⎜⎝ 0 0 0 1 / 2 0 ⎟⎠
El grafo asociado a la CMTD es:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 343
♦ Si el estado inicial pertenece a la clase {1, 2} entonces, cualquiera que sea el
tiempo, permanecerá en esta clase, y para cualquier estudio del desarrollo
dinámico de este sistema la matriz relevante será
⎛1 / 2 1 / 4⎞
⎜ ⎟
⎝1 / 2 3 / 4⎠
⎛ 0 1 / 2 0⎞
⎜ ⎟
⎜ 1 0 1⎟
⎜ 0 1 / 2 0⎟
⎝ ⎠
Al haber dos clases existe una reducción de la matriz de transición que dependerá
de cuál es el estado inicial del proceso. En consecuencia, esto induce a entrar en la
definición:
• La cadena de Markov es irreducible si la relación de equivalencia de
comunicación genera una única clase. Es decir, una cadena de Markov es
irreducible si todos los estados son comunicativos.
9 Cadena de Markov en tiempo discreto y diagrama de transición
Estado 1 2 3
1 ⎛ 0,6 0, 4 0 ⎞
⎜ ⎟
P = 2 ⎜ 0,2 0 0,8 ⎟
3 ⎜⎝ 0 1 0 ⎟⎠
La cadena de Markov es irreducible al tener una única clase de equivalencia.
9 Cadena de Markov en tiempo discreto y diagrama de transición
Estado 1 2 3 4 5
1 ⎛ 0,6 0, 4 0 0 0 ⎞
2 ⎜⎜ 0,2 0 0,5 0 0,3 ⎟⎟
P = 3 ⎜ 0 0 1 0 0 ⎟
⎜ ⎟
4 ⎜ 0 0 0 0,8 0,2 ⎟
5 ⎜⎝ 0 0 0 1 0 ⎟⎠
La cadena de Markov no es irreducible al tener tres clases de equivalencia: {1, 2} ,
{3} y {4, 5}
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 344
• Un estado se llama estado transitorio si, después de haber entrado a este
estado, el proceso nunca regresa a él. En otras palabras, un estado transitorio será
visitado sólo un número finito de veces.
Es decir, el estado i es transitorio si y solo si un estado j (j ≠ i) es accesible desde el
estado i, pero no viceversa.
∞
Un estado i es transitorio ⇔ ∑ pii (n) < ∞ ∀i
n=0
1
Si el estado i es transitorio ⇒ μ i = =∞
πi
n→∞
Si el estado j es transitorio ⇒ pij ⎯⎯⎯ → 0 ∀i
En una cadena de Markov con espacio de estados finito no todos los estados
pueden ser transitorios, ser transitorio es una propiedad de clase.
• Un estado es recurrente o persistente si, después de haber entrado a este
estado, el proceso definitivamente regresará a este estado.
Por consiguiente, un estado es recurrente o persistente si y sólo sí no es
transitorio.
Si i es un estado recurrente o persistente, entonces:
⎧i es un estado persistente nulo si μ i = ∞
⎨
⎩ i es un estado persistente no nulo si μ i < ∞
# Si el estado i no es recurrente, se dice que es un estado transitorio, es decir, si la
probabilidad es menor que la unidad.
Todos los estados de una cadena de Markov de estado finito irreducible son
recurrentes.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 345
9 Cadena de Markov en tiempo discreto y diagrama de transición
Estado 1 2 3 4 5
1 ⎛ 0, 6 0, 4 0 0 0 ⎞
⎜
2 ⎜ 0,7 0 0 0, 3 0 ⎟⎟
P = 3 ⎜ 0 0 0,5 0,5 0 ⎟
⎜ ⎟
4 ⎜ 0 0 1 0 0 ⎟
5 ⎜⎝ 0 0 0,7 0 0,3 ⎟⎠
La cadena de Markov no es irreducible al tener tres clases de equivalencia: {1, 2}
transitoria, {3, 4} recurrente y {5} transitoria.
9 Cadena de Markov en tiempo discreto y diagrama de transición
Estado 1 2 3 4
1 ⎛ 0,6 0, 4 0 0 ⎞
2 ⎜⎜ 0 0 0,8 0,2 ⎟⎟
P =
3 ⎜ 1 0 0 0 ⎟
⎜ ⎟
4 ⎝ 0 0 0,3 0,7 ⎠
La cadena de Markov es irreducible con todos los estados recurrentes.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 346
ii = 0 cuando n no es divisible por k
PERIODICIDAD: El estado i tiene periodo k si p(n)
y k es el mayor entero con esa propiedad, es decir k es el máximo común divisor del
conjunto:
{
k = mcd n ≥ 0 p(n)
ii > 0 }
El periodo de un estado i de una cadena de Markov es el máximo común divisor del
número de pasos necesarios para volver al estado i, suponiendo que se ha partido
de él.
Un estado con periodo 1 se dice aperiódico.
• Un estado i es ergódico si es aperiódico y recurrente positivo.
• Una cadena es ergódica si todos sus estados son ergódicos.
Todos los estados son periódicos de
período k = 2
Todos los estados son periódicos de
período k = 3
Cadena de Markov en tiempo discreto
(CMTD) con período k = 3
Matriz y diagrama de transición de una cadena de Markov en tiempo discreto:
A B C D
A ⎛0 1 0 0⎞
B ⎜⎜ 0 0 0 1 ⎟⎟
Todos los estados son periódicos
P= con período k = 4
C ⎜1 0 0 0⎟
⎜ ⎟
D ⎝0 0 1 0⎠
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 347
Dibujar el grafo de la cadena de Markov asociada a la matriz de transición.
A B C D E F
A⎛ 0 0 1/3 2/3 0 0 ⎞
B ⎜⎜ 0 0 3/4 1/4 0 0 ⎟⎟
C⎜ 0 0 0 0 4 / 7 3 / 7⎟
P= ⎜ ⎟
D⎜ 0 0 0 0 2 / 3 1 / 3⎟
E ⎜2/5 3/5 0 0 0 0 ⎟
⎜ ⎟
F ⎜⎝ 5 / 8 3 / 8 0 0 0 0 ⎟⎠
Solución:
La matriz representa una cadena de período 3
Dibujar el grafo de la cadena de Markov asociada a la matriz de transición.
A B C D
A ⎛1/2 1/2 0 0 ⎞
B ⎜⎜ 2 / 5 3/5 0 0 ⎟⎟
P=
C ⎜1/7 2 /7 3 /7 1/7⎟
⎜ ⎟
D ⎝1 / 8 1 / 4 3 / 8 1 / 4⎠
Solución:
La matriz representa una cadena de período 3
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 348
CADENAS ABSORVENTES: Un estado se llama estado absorbente si, después de
haber entrado ahí, el proceso nunca saldrá de él.
Por consiguiente, el estado i es un estado absorbente si y sólo si pii = 1 .
Una cadena de Markov con espacio de estados finito se dice absorbente si se
cumplen las condiciones:
• La cadena tiene al menos un estado absorbente.
• De cualquier estado no absorbente se accede a algún estado absorbente.
Denotando por A al conjunto de todos los estados absorbentes y a su complemento
como D, la matriz de transición P se puede llevar a la forma:
⎛Q R⎞
P = ⎜ ⎟
⎜ 0 I ⎟⎠
⎝
La submatriz Q corresponde a los estados del conjunto D, I es la matriz unidad,
O es la matriz nula, y R alguna submatriz.
La submatriz Q es la matriz de transición para la circulación entre los estados de
absorción. La matriz fundamental para la cadena absorbente es
T = (I − Q)−1
No importa dónde se encuentre la cadena, eventualmente terminará en un estado
absorbente.
Sea, por ejemplo, un proceso de Markov con la siguiente matriz de transición:
Estado 0 1 2 3 4
0 ⎛1 / 4 3 / 4 0 0 0⎞
1 ⎜⎜ 1 / 2 1 / 2 0 0 0 ⎟⎟
P = 2 ⎜ 0 0 1 0 0⎟
⎜ ⎟
3 ⎜ 0 0 1/3 2/3 0⎟
4 ⎜⎝ 1 0 0 0 0 ⎟⎠
El estado 2 es absorbente (por lo tanto, recurrente), porque si el proceso entra en
él (tercera fila) nunca sale.
El estado 3 es transitorio porque una vez que el proceso se encuentra en él, existe
una probabilidad positiva de nunca regresar. La probabilidad de que el proceso
vaya del estado 3 al estado 2 en el primer paso es 1/3. Si el proceso está en el
estado 2, permanece en ese estado.
Los estados 0 y 1 son recurrentes.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 349
CADENAS REGULARES: Una cadena de Markov es regular (también primitiva o
ergódica) si existe alguna potencia positiva de la matriz de transición cuyas
entradas sean todas estrictamente mayores que cero.
Si una cadena es regular entonces es irreducible y no absorbente.
Sea el grafo de la cadena de Markov
Matriz de transición asociada al grafo:
La matriz fundamental para la cadena absorbente es:
De este modo, desde el estado 2, se puede esperar visita al estado 1, 1/3 de veces
antes de la absorción.
Interpretación del producto TR:
La segunda fila ( 1 / 6 5 / 6 ) significa que a partir del estado 2 hay una
probabilidad de 1/6 de llegar en el primer estado de absorción (estado 5), y una
probabilidad de 5/6 de llegar en el segundo estado de aborción (estado 6).
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 350
En un juego participan dos jugadores A y B. En cada turno del juego se lanza una
moneda al aire. Si sale cara, el jugador A le da un euro al jugador B, si sale cruz, el
jugador B le da un euro al jugador A. El juego se inicia teniendo 3 euros el jugador A
y 2 euros el jugador B y termina cuando uno de los dos no tenga euros.
Calcular el número medio de tiradas que tarda en acabar el juego.
Solución:
♦ Para calcular la probabilidad de fracaso del jugador A se tiene una cadena de
Markov con un estado por cada posible estado de cuentas S = {1, 2, 3, 4, 5, 0}
Matriz de transición asociada:
La matriz fundamental para la cadena absorbente es:
⎛1 0 0 0 ⎞ ⎛ 0 0,5 0 0 ⎞ ⎛ 1 −0,5 0 0 ⎞
⎜0 ⎟ ⎜ ⎟ ⎜
1 0 0 ⎟ ⎜ 0,5 0 0,5 0 ⎟ ⎜ −0,5 1 −0,5 0 ⎟⎟
I− Q = ⎜ − =
⎜0 0 1 0 ⎟ ⎜ 0 0,5 0 0,5 ⎟ ⎜ 0 −0,5 1 −0,5 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0 0 0 1⎠ ⎝ 0 0 0,5 0 ⎠ ⎝ 0 0 −0,5 1 ⎠
I − Q = (I − Q)t = 0,3125
Producto TR:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 351
♦ El fracaso del jugador A está representado por el estado 0, que es el segundo
estado absorbente. Se comenzó en el tercer estado transitorio (A empieza con 3) se
debe observar el elemento p32 = 0, 4 de TR que da la probabilidad 0,4 de que e
jugador comienze con 3 euros y fracase.
♦ La probabilidad de fracaso del jugador B es el complementario, es decir,
1 − 0, 4 = 0,6 . Tambén se puede observar el elemento p31 = 0,6 de TR.
♦ Para calcular el número medio de tiradas que tarda el juego en acabar hay que
sumar los números medios de etapas que estarán en cualquier estado transitorio
antes de la absorción, suponiendo que se empieza en el tercer estado transitorio.
Los números medios son los que forman la tercera fila de la matriz fundamental
para la cadena absorbente T = (I − Q)−1 , es decir, 0,8 + 1,6 + 2, 4 + 1,2 = 6 tiradas.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 352
Un viajante opera en tres ciudades: Madrid, Segovia y Toledo. Con tal de evitar
desplazamientos innecesarios pasa todo el día en la misma ciudad y al día
siguiente, si no tiene suficiente trabajo, se desplaza a otra ciudad.
Después de trabajar un día en Toledo, la probabilidad de tener que continuar allí al
día siguiente es 0,4, la de tener que viajar a Segovia es 0,4, y la de tener que ir a
Madrid es 0,2.
Si el viajante duerme un día en Segovia, con probabilidad 0,2, tendrá que seguir
trabajando en la misma ciudad al día siguiente, en el 60% de los casos viajará a
Toledo, mientras que irá a Madrid con probabilidad 0,2.
Si el viajante trabaja todo un día en Madrid, permanecerá en la ciudad al día
siguiente con probabilidad 0,1, irá a Segovia con probabilidad 0,3, y a Toledo con
probabilidad 0,6.
a) Si el viajante se encuentra hoy en Toledo, ¿cuál es la probabilidad de que tenga
que trabajar en la misma ciudad al cabo de cuatro días?
b) ¿Cuáles son los porcentajes de días en los que el viajante está en cada una de las
tres ciudades.
Solución:
M S T
M ⎛ 0,1 0,3 0,6 ⎞
⎜ ⎟
a) La matriz de transición P = S ⎜ 0,2 0,2 0,6 ⎟
T ⎜⎝ 0,2 0, 4 0, 4 ⎟⎠
Estando en Toledo, para saber con qué probabilidad se encuentra en Toledo a los
cuatro días hay que calcular p(4)
33
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 353
5008
33 =
En Toledo se encuentra a los cuatros días con probabilidad p(4) = 0,5008
10000
b) Para calcular las probabilidades estacionarias hay que proceder de la siguiente
forma:
⎛ 1 / 10 3 / 10 6 / 10 ⎞
⎜ ⎟
( x y z ) ⎜ 2 / 10 2 / 10 6 / 10 ⎟ = ( x y z ) siendo x + y + z = 1
⎜ 2 / 10 4 / 10 4 / 10 ⎟
⎝ ⎠
De donde, resulta el sistema de ecuaciones lineales:
⎧ 1
⎪ 10 (x + 2y + 2z) = x
⎪ ⎧ −9x + 2y + 2z = 0
1
⎪⎪ (3x + 2y + 4z) = y ⎪ ⎧ −9x + 2y + 2z = 0
⎪ 3x − 8y + 4z = 0 ⎪
⎨ 10 ⇒ ⎨ ⇒ ⎨ x+y−z=0
⎪ 1 ⎪ 6x + 6y − 6z = 0 ⎪ x+y+z=1
⎪ (6x + 6y + 4z) = z ⎪⎩ x + y + z = 1 ⎩
⎪ 10
⎪⎩ x+y+z=1
El porcentaje de días que el viajante se encuentra en cada ciudad es:
Madrid el 18%, Segovia el 32% y Toledo el 50%.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 354
Un edifico consta de bajo y dos pisos. El ascensor del edificio realiza viajes de
uno a otro piso, se conoce que el piso en el que finaliza el n‐ésimo viaje del
ascensor sigue una cadena de Markov, y que la mitad de los viajes que parten del
bajo se dirigen a cada uno de los otros dos pisos, mientras que si un viaje comienza
en el primer piso, sólo el 25% de las veces finaliza en el segundo. Finalmente, si un
trayecto comienza en el segundo piso, siempre finaliza en el bajo.
a) Calcular la matriz de probabilidades de transición de la cadena
b) ¿Cuál es la probabilidad de que a largo plazo el ascensor se encuentre en cada
uno de los tres pisos?
Solución:
a) Los estados de la cadena se denotan por S = {0, 1, 2}
haciendo corresponder el 0 al bajo y el 1 y 2 al primer y
segundo piso respectivamente.
La matriz de las probabilidades de transición es:
Estado 0 1 2 Estado 0 1 2
0 ⎛ p00 p01 p02 ⎞ 0⎛ 0 1/2 1/2⎞
⎜ ⎟ ⎜ ⎟
P = 1 ⎜ p10 p11 p12 ⎟ = 1 ⎜3/ 4 0 1 / 4⎟
2 ⎜⎝ p20 p21 p22 ⎟⎠ 2 ⎜⎝ 1 0 0 ⎟⎠
p00 ≡ 0 es la probabilidad de que el ascensor se encuentre en la planta baja si en la
eatapa anterior estaba en la planta baja, evidentemente es 0 porque se supone que
de etapa a etapa el ascensor se mueve.
p01 ≡ 1 / 2 es la probabilidad de que el ascensor se encuentre en la primera planta si
en la etapa anterior estaba en la planta baja.
Así, sucesivamente, se van obteniendo las probabilidades de transición.
b) El estado estable, probabilidad a largo plazo, se determina resolviendo la
ecuación vP = v , añadiendo la ecuación x + y + z = 1
El sistema resultante es:
⎛ 0 1/2 1/2⎞
⎜ ⎟
( x y z) ⎜ 3 / 4 0 1 / 4 ⎟ = ( x y z) x+y+z=1
⎜ 1 0 0 ⎟⎠
⎝
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 355
⎧3
⎪ 4 y + z = x
⎪ ⎧4 x − 3 y − 4 z = 0
1 ⎪ ⎧ −5 y + 4 z = 0
⎪⎪ x = y ⎪ x − 2 y = 0 ⎪ 8 4 5
⎨2 → ⎨ → ⎨ 3y+z=1 → x= y= z=
⎪1 1 ⎪ 2 x + y − 4 z = 0 ⎪ x + y + z = 1 17 17 17
⎪ x + y = z ⎪⎩ x + y + z = 1 ⎩
⎪ 2 4
⎪⎩ x + y + z = 1
Una importante marca comercial de cervezas (G), preocupados en especial por
su mayor competidor (H), ha contratado a un analista de operaciones para analizar
su posición en el mercado. El analista piensa que el cambio de marca se puede
modelar como una cadena de Markov incluyendo tres estados, los estados G y H
que representan a los clientes que beben cerveza producidas por las mencionadas
marcas y el estado I que representa a todas las demás marcas.
Con los datos históricos recogidos cada mes, el analista ha construido la siguiente
matriz de transición:
Estado G H I
G ⎛ 0,7 0,2 0,1 ⎞
⎜ ⎟
P = H ⎜ 0,2 0,75 0,05 ⎟
I ⎜⎝ 0,1 0,1 0,8 ⎟⎠
¿Cuáles son los porcentajes de mercado en el estado estable para las dos grandes
marcas de cerveza?
Solución:
El sistema resultante es:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 356
⎧ 0,7 x + 0,2 y + 0,1 z = x ⎧ 7 x + 2 y + z = 10 x ⎧ −3 x + 2 y + z = 0
⎪ 0,2 x + 0,75 y + 0,1 z = y ⎪20 x + 75 y + 10 z = 100y ⎪ 20 x − 25 y + 10 z = 0
⎪ ⎪ ⎪
⎨ → ⎨ → ⎨
⎪ 0,1 x + 0,05 y + 0,8 z = z ⎪ 10 x + 5 y + 80 z = 100z ⎪10 x + 5 y − 20 z = 0
⎪⎩ x + y + z = 1 ⎪⎩ x + y + z = 1 ⎪⎩ x + y + z = 1
−3 x + 2 y + z = 0 ⎫
⎪ ⎧5 y + 4 z = 3 9 10 7
2x+y−4z=0⎬ → ⎨ → x= y= z=
x + y + z = 1 ⎪⎭ ⎩ y+6z=2 26 26 26
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 357
CADENA DE MARKOV EN TIEMPO CONTINUO (CMTC)
Las cadenas de Markov en tiempo continuo (CMTC) verifican que dado el proceso
en un conjunto de tiempos anteriores al instante t, la distribución del proceso en el
instante t depende sólo del instante de tiempo anterior más próximo a t.
• Una cadena de Markov en tiempo continuo es homogénea si para cada s ≤ t y
cada estado i, j ∈ S , se tiene:
No todas las cadenas de Markov en tiempo continuo tienen que ser homogéneas,
aunque consideraremos únicamente las CMTC homogéneas.
Por homogeneidad: Cuando el proceso entra en el estado i, la forma de
evolucionar probabilísticamente desde este punto es la misma que si el proceso
comenzase en el estado i en el instante 0.
• Al tiempo de permanencia del proceso en el estado i se denota como Ti , se
distribuye exponencialmente. La distribución Ti tiene la propiedad de pérdida de
memoria, lo que implica que es exponencial.
OTRA DEFINICIÓN DE CADENA DE MARKOV EN TIEMPO CONTINUO
Un proceso estocástico en tiempo continuo X(t) , t ≥ 0 es una cadena de Markov en
tiempo continuo sí:
♦ Cuando entra en un estado i, el tiempo que permanece en él se distribuye
1
exponencialmente con media
vi
♦ Cuando abandona el estado i, entra en el estado j con probabilidad de
transición pij , con pii = 0 y ∑ pij = 1
j
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 358
Una cadena de Markov en tiempo continuo se comporta como una cadena de
Markov encajada, con intervalos de tiempo de permanencia en cada estado
distribuidos exponencialmente e independientemente.
Ejemplos se tienen en el Proceso de Poisson de tasa 1, Proceso de Yule y Sistema de
dos procesadores secuenciales.
En las cadenas de Markov en tiempo discreto (CMTD) se analizaron las
probabilidades de transición en n pasos, p (n)
ij . El homólogo en las cadenas de
Markov en tiempo continuo (CMTC) es la función de probabilidad de transición:
Es decir, la probabilidad de que estando inicialmente en el estado i, después de t
unidades de tiempo se entre en el estado j.
• En las cadenas de Markov en tiempo continuo (CMTC) no se puede hablar de
pasos. Para cada par de estados (i, j) ∈ S la función de probabilidad de transición
pij (t) es una función continua de t.
En general, es díficil determinar la función de probabilidad de transición, si bien en
casos sencillos se puede calcular. En los Procesos de Poisson para i ≤ j la función de
probabilidad de transición es:
(λ t)j − i − λ t
pij (t) = P [N(t) = j − i] = e
(j − i)!
ECUACIONES DE CHAPMAN‐KOMOGOROV
Las ecuaciones de Chapman‐Kolmogorov proporcionan un método para calcular la
función de probabilidad de transición. Sea la cadena de Markov en tiempo
continuo {X(t) , t ≥ 0} con espacio de estados S, se tiene:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 359
TASAS INSTANTÁNEAS DE TRANSICIÓN
Los valores fundamentales que especificaban las cadenas de Markov encajadas
(CMTD) eran las probabilidades de transición pij . En tiempo continuo son las tasas
instantáneas de transición
qij = vi pij
que representa la tasa a la que hacen restricciones de i a j, determinando la cadena,
puesto que:
qij
vi = ∑ vi pij = ∑ qij pij =
j j ∑ qij
j
Con el objetivo de proporcionar un sistema de ecuaciones diferenciales para
calcular pij (t)
∞
Operando se obtiene:
∞ p (h) 1 − p jj (h) ∞
p'ij (t) = ∑ pik (t) lim kj − pij (t) lim = ∑ pik (t) qkj − pij (t) v j
h→ 0 h h→ 0 h
k≠j k≠j
• Ecuaciones diferenciales hacia atrás de Komogorov, bajo condiciones adecuadas,
∀ i, j, t ≥ 0
∞
p'ij (t) = ∑ pik (t) qkj − pij (t) v j
k≠j
9 En el Proceso de Poisson de tasa λ las ecuaciones diferenciales atrás de
Kolmogorv, como qi, i + 1 = vi pi, i + 1 = vi = λ y qij = vi pij = 0 ∀ j ≠ i + 1 , son:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 360
Las ecuaciones diferenciles hacia atrás de Kolmogorov tienen la forma matricial:
P0 (t) = G P(t)
donde P(t) y P0 (t) son las matrices formadas por los elementos pij (t) y p'ij (t) ,
respectivamente, y G (generador o generador infenitesimal) en la que los
elementos (i, i) tienen valor (− vi ) y los elementos (i, j) con i ≠ j el valor qij .
Para ambas ecuaciones, se tiene la condición límite P(0) = I , donde I es la matriz
identidad.
Las ecuaciones diferenciales hacia atrás y hacia adelante, con la condición límite
mencionada, tienen la misma solución:
∞
P(t) = e =
tG
∑n=0
(tG)n
n!
= 1 + tG +
(tG)2 (tG)3
2!
+
3!
+
DIAGRAMA DE TRANSICIÓN
Las cadenas de Markov a tiempo continuo se pueden representar mediante un
diagrama de transición, grafo en el que los nodos representan estados, y un arco
entre i y j describe la probabilidad de transición de i a j y qij representa el arco
correspondiente.
Proceso de Poisson de tasa λ
Proceso de Yule
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 361
COMPORTAMIENTO ESTACIONARIO
El generador G se utiliza para determinar la distribución estacionaria:
∞
∑
(tG)n
π es estacionaria ⇔ π = π P(t) , ∀ t ≥ 0 ⇔ π = π ,∀t≥ 0
n=0
n!
∞
∑
tn
⇔ 0 = π Gn , ∀ t ≥ 0 ⇔ 0 = π Gn , ∀ n ≥ 1
n=1
n!
⇔ 0 = π G
En consecuencia, si existe la distribución estacionaria π se obtiene resolviendo el
sistema:
π j ≡ Proporción de tiempo a largo plazo que el proceso está en el estado j,
mientras que v j es la tasa de abandono del estado j cuando el proceso está en
él.
v j π j ≡ Tasa a largo plazo de dejar el estado j
qij ≡ Tasa de ir al estado j cuando el proceso está en el estado i.
qij π i ≡ Tasa a largo plazo de de ir del estado i al estado j
∑ qijπi ≡ Tasa a largo plazo de ir al estado j
i≠ j
En consecuencia, la tasa a largo plazo de salida del estado j coincide con la tasa de
entrada en el estado j, y por esta razón las ecuaciones π G = 0 se denominan
ecuaciones de equilibrio global o simplemente ecuaciones de equilibrio.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 362
• En una cadena de Markov en tiempo continuo, si existe una distribución
estacionaria π es única, verificando:
lim pij (t) = π j ∀ i
t→∞
• Las ecuaciones de equilibrio para un proceso de Poisson de tasa λ son:
⎧⎪ λ π j = λ π j − 1 ∀ j
⎨ π = 1 que no tienen solución
∑
⎪⎩ i i
• Las ecuaciones de equilibrio para un proceso de Yule de tasa λ son:
⎧⎪ j λ π j = (j − 1) λ π j − 1 ∀ j
⎨ π = 1 que no tienen solución
∑
⎪⎩ i i
PROCESOS DE NACIMIENTO Y MUERTE
Describen sistemas que en cada instante representan al mismo número de
individuos en el estado. Los procesos de nacimiento y muerte se enmarcan dentro
de la teoría de colas.
En el estado n se producen llegadas con tasa exponencial λ n y salidas con tasa
exponencial μ n de forma independiente.
Un proceso de nacimiento y muerte con tasas de llegada (nacimiento) ≡ {λ n }n = 0 y
∞
⎧ v 0 = λ 0
con espacio de estados {0, 1, ... } , tasas de permanencia ⎨ i > 0 y
⎩ v i = λ i + μ i
probabilidades de transición:
• El proceso de Poisson es un proceso de nacimiento y muerte con λ n = λ y
μn = 0 para ∀ n
• El proceso de Yule es un proceso de nacimiento y muerte con λ n = n λ y
μn = 0 para ∀ n
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 363
• El diagrama de transición de un proceso de nacimiento
y muerte es:
⎧ q01 = λ 0
⎪q
⎪ i, i + 1 = λ i
Tasas de transición son ⎨
⎪ qi, i − 1 = μ i
⎪⎩ 0 el resto
Con lo que el sistema de ecuaciones diferenciales de Kolgomorov es:
que conducen al sistema en equilibrio:
⎧
⎪ λ 0 π 0 = μ1π1
⎪
⎨ (λ j + μ j ) π j = μ j + 1π j + 1 + λ j − 1π j − 1 j = 1, 2, ...
⎪
⎪ ∑ π j = 1
⎩ j
o bien al sistema de sistema en equilibrio de tasas de salida y de entrada en cada
estado:
⎧ λ 0 π 0 = μ1π1
⎪ (λ + μ ) π = μ π + λ π
⎪ 1 1 1 2 2 0 0
⎪ (λ 2 + μ 2 ) π 2 = μ 3 π 3 + λ 1π1
⎪ Sistema que queda simplificado al sumar las
⎪
⎨ (λ + μ ) π = μ π + λ π dos primeras ecuaciones, las tres primeras
⎪ n n n n+1 n+1 n−1 n−1
ecuaciones, así sucesivamente, resulta:
⎪
⎪∞
⎪ π = 1
⎪ n∑ n
⎩ =1
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 364
⎧ λ0
⎪ λ π = μ π → π = π 0
μ1
0 0 1 1 1
⎪
⎪ λ1 λ1 λ 0
⎪ λ π = μ π → π = π = π 0
μ2 μ2 μ1
1 1 2 2 2 1
⎪
⎪ λ2 λ2 λ1 λ 0
⎪ λ π = μ π → π = π = π 0
μ μ μ μ
2 2 3 3 3 2
⎪ 3 3 2 1
⎨
⎪
⎪ λn−1 λn−1 λ2 λ1 λ 0
⎪ λ π = μ + π + → π = π − = π0
μn μn μ 3 μ 2 μ1
n n n 1 n 1 n n 1
⎪
⎪
⎪ ∞
⎪ π
⎪ n∑ n
⎩ =1
con lo cual,
∞ λn− 1 λ2 λ1 λ 0 1
∑ πn = ∑ μn μ 3 μ 2 μ1
π0 = 1 → π0 = ∞ λn− 1 λ1 λ 0
n=1 n
1+ ∑
n=1 μn μ2 μ1
λn−1 λ1 λ 0
por tanto, πn =
⎛ ∞ λ λ1 λ 0 ⎞
μ1 ⎜ 1 + ∑
n−1
μn ⎟
⎜ n = 1 μn μ 2 μ1 ⎟⎠
⎝
Una condición necesaria, y se comprueba que también es suficiente, para que
exista la distribución estacionaria, es qie se verifique:
∞ λn−1 λ1 λ 0
∑ <∞
n=1 μn μ 2 μ1
Denotando por Ti el tiempo que tarda el sistema en pasar del estado i al estado
(i + 1) , se verifica:
1 μi
E(Ti ) = + E(Ti − 1 )
λi λi
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 365
PROCESOS DE POISSON
Ollin Tonatiuh (dios del Sol): Movimientos de los astros y algunos ciclos en
donde los meses duraban veinte días, los años dieciocho meses y los siglos
52 años, renovándose.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 366
DISTRIBUCIONES DE PROBABILIDAD
• DISTRIBUCIÓN UNIFORME DISCRETA
Una variable aleatoria discreta X que toma valores enteros 1, 2, ... , n con
1
probabilidades P(X = k) = k = 1, 2, ... , n recibe el nombre de variable
n
uniforme discreta.
n+1 n2 − 1 n2 − 1
μ= σ = 2
σ=
2 12 12
• DISTRIBUCIÓN UNIFORME CONTINUA
Una variable aleatoria continua X sigue una distribución uniforme en el intervalo
[a, b], es decir, X ∼ U[a, b] cuando su función de densidad es:
t(b − a)
a+ b a2 + ab + b2
k
mk = E(X ) =
k
∑a b
i=0
i k−i
→ m1 = E(X) = μ =
2
m2 = E(X ) =2
(b − a)2 b−a
σ =
2
σ=
12 12
• DISTRIBUCIÓN DE POISSON
Una variable aleatoria X ∼ P(λ ) si puede tomar todos los valores enteros
λk − λ
0, 1, 2, , n, con probabilidades P(X = k) = e ∀λ > 0
k!
X ∼ P(λ ) → E(X) = λ V(X) = λ
RELACIÓN ENTRE UNA DISTRIBUCIÓN DISCRETA Y CONTINUA
La relación entre dos distribuciones, la distribución discreta de Poisson y la
disribución continua Gamma, se efectúa al incluir la distribución de Erlang, y su
caso especial, la distribución Exponencial.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 367
• DISTRIBUCIÓN GAMMA
La distribución gamma X ∼ Γ(n, λ ) es una función de distribución continua con dos
parámetros n y λ , cuya función de densidad es:
(λ t) n − 1 − λ t λ n tn − 1 − λ t
f(t) = λe = e ∀ t, n > 0
(n − 1)! (n − 1)!
∞
La función gamma Γ(p) =
∫0
tp − 1 e− t dt Γ(p) = (p − 1)! ∀p > 0
⎛1⎞ π
Γ⎜ ⎟ = π Γ(p) Γ(p − 1) =
⎝2⎠ sen π
n n
X ∼ Γ(n, λ ) → E(X) = V(X) = 2
λ λ
• DISTRIBUCIÓN ERLANG
Para describir el tiempo de espera hasta el suceso número n en un proceso de
1
Poisson se toma la distribución de Erlang con un parámetro θ = cuya función de
λ
n−1
(λ x)
densidad es f(x) = λ e− λ x ∀ x, n > 0
(n − 1)!
n n
E(X) = V(X) =
λ λ2
• DISTRIBUCIÓN EXPONENCIAL
La distribución exponencial X ∼ Exp(λ ) es un caso particular de la distribución
⎧ λ e− λ x para x ≥ 0
gamma para n = 1 , cuya función de densidad es f(x) = ⎨
⎩ 0 en otro caso
⎧1 − e − λ x x≥0
∫
x
Su función de distribución es: F(x) = f(t) dt = ⎨
−∞ ⎩ 0 x<0
1 1
X ∼ Exp(λ ) → E(X) = V(X) =
λ λ2
La suma de variables aleatorias que siguen una misma distribución exponencial es
una variable aleatoria expresable en términos de la distribución gamma.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 368
PROPIEDADES DE LA DISTRIBUCIÓN EXPONENCIAL
• Una propiedad que caracteriza de manera única a la distribución exponencial
dentro del conjunto de distribuciones continuas es que satisface la pérdida de
memoria, esto es, sí X ∼ exp(λ ) para cualquiera tiempos s, t ≥ 0 se cumple la
igualdad P(X > t + s X > s) = P(X > t)
o, equivalentemente,
• La segunda propiedad es la reproductividad, que hace referencia a que la suma
de distribuciones exponenciales independientes e idénticamente distribuidas sigue
una distribución gamma Γ(n, λ )
(λ t) n − 1 − λ t λ n tn − 1 − λ t
cuya función de densidad es f(t) = λe = e ∀ t, n > 0
(n − 1)! (n − 1)!
n n
X ∼ Γ(n, λ ) → E(X) = V(X) =
λ λ2
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 369
• Sean X1 y X 2 dos variables aleatorias independientes con distribución
exponencial de parámetros λ 1 y λ 2 respectivamente, por el teorema de
λ1
probabilidad total, se tiene: P(X1 < X 2 ) =
λ1 + λ2
En efecto,
∞ ∞
P(X1 < X 2 ) =
∫
0
P(X1 < X 2 X 2 = x) λ 2 e − λ2 x
dx =
∫ 0
P(X1 < x) λ 2 e− λ 2 x dx =
∞ ∞
λ2 λ1
=
∫ 0
(1 − e − λ1 x
) λ2 e − λ2 x
dx = 1 −
λ1 + λ2 ∫ 0
(λ 1 + λ 2 ) e− (λ1 + λ 2 )x dx =
λ1 + λ2
RELACIÓN ENTRE LA DISTRIBUCIÓN DE POISSON Y LA DISTRIBUCIÓN EXPONENCIAL
• Si el tiempo de llegadas consecutivas sigue una distribución
exponencial Exp(λ ) , entonces el número de llegadas en un
intervalo de tiempo t sigue una distribución de Poisson P(λt)
• Si el número de llegas en una hora sigue una distribución de
Poisson P(λ ) , entonces el número de horas entre dos llegadas
consecutivas sigue una distribución exponencial Exp(λ )
La duración de vida de una pieza de un motor sigue una distribución
exponencial, sabiendo que la probabilidad de que sobrepase las 100 horas de uso
es 0,9. Se pide:
a) Probabilidad de que sobrepase las 200 horas de uso.
b) ¿Cuántas horas se mantiene funcionando con probabilidad 0,95?
Solución:
a) Sea v.a. X = "tiempo de vida de la pieza del motor" , donde X ∼ Exp(λ )
Respectivamente, la función de densidad y la función de distribución:
Por tanto, X ∼ Exp(0,00105) f(x) = 0,00105.e− 0 ,00105. x F(x) = 1 − e− 0,00105. x ∀ x > 0
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 370
∞ ∞
∫ ∫
∞
o bien, P [ X > 200 ] = f(x)dx = 0,00105.e− 0 ,00105. x dx = − ⎡⎣ e− 0,00105. x ⎤⎦ = 0,81
200
200 200
En una tela las fallas siguen un proceso de Poisson a razón de 1 falla cada 10
metros. ¿Cuál es la probabilidad de que la distancia entre la cuarta y quinta falla
sea mayor a un metro?
Solución:
En un proceso de Poisson el intervalo entre dos eventos consecutivos es una varible
exponencial Exp(λ ) con λ = 1 / 10 = 0,1
∞ ∞
∫ ∫
∞
P(X > 1) = λ e− λ x dx = 0,1 e−0,1x dx = − e−0,1x = 0,9048
1
1 1
La ciudad de Segovia se comunica con UAM mediante 3 autobuses por hora,
distribuidos según un proceso de Poisson. ¿Cuál es la probabilidad de tener que
esperar un autobús más de 20 minutos?
Solución:
Sea la variable aleatoria X ≡ tiempo de espera a un autobús donde X ∼ Exp(λ )
3 autobuses 3 autobuses
λ= = = 0,05 por tanto X ∼ Exp(0,05)
hora 60 minutos
∞ ∞
∫ ∫
−λ x ∞
P(X > 20) = λe dx = 0,05 e−0,05x dx = − e−0,05x = 0,3678
20
20 20
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 371
El promedio de clientes que llegan a solicitar servicio a un banco es de cinco por
minuto. ¿Cuál es la probabilidad de que dos clientes tarden entre 30 a 45 segundos
en solicitar servicio?
Solución:
El número de clientes que llegan por minuto a solicitar servicio bancario es una
variable aleatoria discreta de Poisson de parámetro λ
El tiempo que tardan n clientes en llegar a solicitar servicio al banco es una
variable aleatoria continua Gamma Γ(n, 1 / λ )
5 clientes 5 clientes 1
λ= = =
minuto 60 segundos 12
λ n xn − 1 − λ x
X ∼ Γ (2, 12) con función de densidad f(x) = e n = 2 λ = 1 / 12
(n − 1)!
∫ ∫
45 45
(1 / 12)2 2−1 − x/12 1
con lo cual, P(30 ≤ X ≤ 45) = x e dx = 2 x e− x/12 dx = 0,17558
30 (2 − 1)! 12 30
45
∫
⎛ x ⎞
45 integración partes
1 − x/12
xe dx = − ⎜ + 1 ⎟ e− x/12 = −0,11171 + 0,28729 = 0,17558
122 30 u= x dv = e− x/12 dx ⎝ 12 ⎠ 30
El número promedio de recepción de solicitudes en una ventanilla de atención
al cliente es de tres al día.
a) ¿Cuál es la probabilidad de que el tiempo antes de recibir una solicitud exceda
cinco días?
b) ¿Cuál es la probabilidad de que el tiempo antes de recibir una solicitud sea
menor de diez días?
c) ¿Cuál es la probabilidad de que el tiempo antes de recibir una solicitud sea
menor de diez días, si ya han pasado cinco días sin recibir solicitudes?
Solución:
a) X = "días antes de recibir una solicitud", X ∼ Exp(λ = 3)
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 372
c)
P(5 < X < 10) F(10) − F(5) 1 − e−30 − (1 − e−15 ) e−15 − e−30
P(X < 10 X > 5) = = = −15
= −15
= 1 − e−15
P(X > 5) 1 − F(5) e e
Sea X la variable aleatoria que describe el número de clientes que llega a un
supermercado durante un día (24 horas). Sabiendo que la probabilidad de que
llegue un cliente en un día es equivalente a 100 veces la que no llegue ningún
cliente en un día, se pide:
a) Probabilidad de que lleguen al menos 3 clientes al día.
b) Si acaba de llegar un cliente, calcular la probabilidad que pase más de 25
minutos hasta que llegue el siguiente cliente (o hasta que llegue el primer cliente).
c) En dos semanas, ¿cuál es la probabilidad aproximada de que lleguen como
mucho 1300 clientes al supermercado?
Solución:
λk −λ
a) Se trata de una distribución de Poisson: P(X = k) = e
k!
λ −λ λ 0 −λ
P(X = 1) = 100 . P(X = 0) → e = 100 . e → λ . e−λ = 100 . e− λ → λ = 100
1! 0!
⎡ 3 − 100 ⎤
P(X ≥ 3) = P ⎢ z ≥ = P(z ≥ −9,7) = P(z ≤ 9,7) ≈ 1
⎣ 10 ⎥⎦
b) Es una función exponencial, es decir, el tiempo de espera hasta que ocurre un
suceso (que llegue el siguiente cliente), donde λ es el número de sucesos de
Poisson por unidad de tiempo. X ∼ Exp(λ )
Para calcular el parámetro λ se establece una proporción:
100 λ 10 0 . 25 250
= → λ= = = 1,736
24 . 60 25 24 . 6 0 144
⎡ 1300 − 1400 ⎤
c) P(X ≤ 1300) = P ⎢ z ≤ ⎥ = P(z ≤ −2,67) = P(z ≥ 2,67) = 0,00379
⎣⎢ 1400 ⎦⎥
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 373
El tiempo de revisión del motor de un avión sigue aproximadamente una
distribución exponencial, con media 22 minutos.
a) Hallar la probabilidad de que el tiempo de la revisión sea menor de 10 minutos.
b) El costo de la revisión es de 200 euros por cada media hora o fracción. ¿Cuál es
la probabilidad de que una revisión cueste 400 euros?
c) Para efectuar una programación sobre las revisiones del motor, ¿cuánto tiempo
se debe asignar a cada revisión para que la probabilidad de que cualquier tiempo
de revisión mayor que el tiempo asignado sea solo de 0,1?
Solución:
a) Sea X = "tiempo de revisión del motor de un avión en minutos"
1 1
μ x = E(X) = = 22 minutos → λ = X ∼ Exp ⎡⎣1 22⎤⎦
λ 22
Función de densidad: Función distribución:
⎧ 1 − x 22 ⎧1 − e− x 22
⎪ e x≥0 x≥0
f(x) = ⎨ 22 F(x) = P(X ≤ x) = ⎨
⎪⎩ 0 ⎩ 0 x<0
x<0
o bien,
∫ ∫
10 10
⎡ 1 − x 22 ⎤
P [ X < 10 ] = f(x)dx = ⎢⎣ 22 e ⎥⎦ dx = − ⎡
⎣ e − x 22 10
⎤⎦ = − e− 10 22 + 1 = 1 − e− 5 11 = 0,365
0
0 0
b) Como el costo de la revisión del motor es de 200 euros por cada media hora o
fracción, para que la revisión cueste 400 euros la duración de la revisión debe de
ser inferior o igual a 60 minutos. Es decir, se tendrá que calcular P [ 30 < X ≤ 60 ]
∫ ∫
60 60
⎡ 1 − x 22 ⎤
P [ 30 < X ≤ 60 ] = f(x)dx = ⎢⎣ 22 e ⎥⎦ dx = − ⎡
⎣ e − x 22 60
⎤⎦ = − e− 60 22 + e− 30 22 =
30
30 30
= e− 15 11 − e− 30 11 = 0,19
∫ ∫
⎡ 1 − x 22 ⎤ − x 22 ∞
P [ X > t] = f(x)dx = ⎢⎣ 22 e ⎥⎦ dx = − ⎡
⎣ e ⎤⎦ = 0 + e− t 22 = 0,1
t
t t
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 374
Un sistema esta formado con dos procesadores, los procesadores 1 y 2
funcionan correctamente durante un tiempo exponencial de media de 5 y 6 años,
respectivamente. Se pide:
a) ¿Cuál es la probabilidad de que ambos procesadores funcionen correctamente
más de 4 años?
b) ¿Cuál es la probabilidad de que el procesador 1 deje de funcionar correctamente
antes que el procesador 2?
Solución:
λ1 1/5
b) P(X1 < X 2 ) = → P(X1 < X 2 ) = = 0,545
λ1 + λ2 1/5+1/6
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 375
PROCESOS ESTOCÁSTICOS
Un modelo estocástico es todo esquema abstracto de naturaleza probabilística
susceptible de representar algún fenómeno real. En la medida en que los modelos
plasman lo observado, permiten preveer las consecuencias de ciertas situaciones,
permitiendo la posibilidad de efectuar elecciones razonadas.
En un modelo aleatorio se reconocen los siguientes elementos:
a) Un conjunto de estos posibles del sistema S
b) Un conjunto de eventos elementales posibles Ω
c) Una distribución de probabilidades sobre Ω
Los modelos aleatorios que son funciones aleatorias en el tiempo se denominan
Procesos Estocásticos o Aleatorios. El objetivo de este tipo de modelos es conocer
cómo el futuro de un sistema está ligado (correlacionado) con su pasado y
presente.
El proceso estocástico (colección completa de variables X t ) corresponde a la
evolución aleatoria del sistema.
La realización de un proceso estocástico es un conjunto de valores del sistema S,
valores observados para el estado del sistema en cada instante del tiempo. Es
decir, la realización de un proceso estocástico puede contemplarse como una
función de T en S, de forma que a cada t∈ T asocia el valor observado para el
estado del sistema en t.
Un proceso estocástico se puede describir en probabilidad cuando se puede
construir la función de distribución conjunta para cualquier subconjunto de él, es
decir, se debe conocer FX (x, t) , ∀ n ∈ N , ∀ x ∈ Sn , ∀ t ∈ T n tal que t1 < t2 < < tn
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 376
PROCESOS DE CONTEO
Un proceso de conteo debe verificar:
♦ N(t) ≥ 0
♦ N(t) toma valores enteros
♦ Sí s < t → N(s) ≤ N(t)
♦ Sí s < t → N(t) − N(s) ≡ número de sucesos ocurridos en el intervalo (s, t)
INCREMENTOS INDEPENDIENTES: Un proceso de conteo se dice de incrementos
independientes si el número de sucesos que ocurren en intervalos de tiempos
disjuntos es independiente, es decir, el número de sucesos en el intervalo (t1 , t2 ) ,
que se denota por N(t2 ) − N(t1 ) , es independiente del número de sucesos en el
intervalo (t3 , t 4 ) , N(t 4 ) − N(t3 ) , ∀ t1 , t2 , t3 , t 4 con (t1 , t2 ) ∩ (t3 , t 4 ) = φ
Un ejemplo de proceso de conteo con incrementos independientes es el número de
trabajos que llegan a una impresora, puesto que los trabajos que llegan en un
inervalo de tiempo no tienen por qué influir en los trabajos que llegan en otro
intervalo de tiempo que sea disjunto con el primero.
INCREMENTOS ESTACIONARIOS: Un proceso de conteo se dice de incrementos
estacionarios si la distribución del número de sucesos que ocurren en un intervalo
de tiempo depende sólo del tamaño del intervalo, esto es, el número de sucesos
que se dan en el intervalo (t1 + s, t2 + s) , N(t2 + s) − N(t1 + s) , tiene la misma
distribución que el número de sucesos en el intervalo (t1 , t2 ) , N(t2 ) − N(t1 ) , para
cualquier t1 < t2 , s ≥ 0
El ejemplo del número de trabajos que llegan a una impresora puede que no sea
estacionario ya que es de esperar que el número de trabajos que lleguen en el
intervalo de tiempo de nueve a diez de la mañana no coincida con los que llegan
entre las dos a tres de la tarde.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 377
PROCESO DE POISSON
♦ Tiene incrementos independientes
♦ El número de sucesos en un intervalo de tiempo de longitud t sigue una
distribución de Poisson de media (λ t) , es decir:
(λ t)n − λt
P ⎡⎣N(t + s) − N(s) = n⎤⎦ = e , n = 0, 1, 2,
n!
(λ t) es el promedio de observaciones o registros del evento en el intervalo ⎡⎣0 , t ⎤⎦ ,
así cuanto mayor es la longitud del intervalo de observación, mayor es el promedio
de observaciones realizadas, y mayor también la incertidumbre del número de
observaciones.
DEFINICIÓN ALTERNATIVA DE UN PROCESO DE POISSON
Un proceso de Poisson de parámetro λ se puede definir como un proceso
estocástico { N(t), t ≥ 0} tal que:
♦ Tiene incrementos independientes
♦ Para h próximo a 0, la probabilidad de que en el intervalo de tiempo [0, h] se dé
exactamente una ocurrencia del fenómeno es λ h + o(h)
♦ Para h próximo a 0, la probabilidad de que en el intervalo de tiempo [0, h] haya
dos o más ocurrencias del fenómeno es o(h)
Con lo cual, el número medio de ocurrencias por unidad de tiempo será
λ h + o(h)
lim =λ
h→0 h
motivo por el que el parámetro λ del proceso de Poisson se denomina en
ocasiones intensidad o tasa del proceso.
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 378
PROCESO DE POISSON HOMOGÉNEO
♦ N(t) tiene incrementos independientes. En este sentido, se tiene que
N(t1 ) , N(t2 ) − N(t1 ) , N(t3 ) − N(t2 ) , ... , N(tn−1 ) − N(tn ) 0 ≤ t1 < t2 < ... < tn con
n ≥ 1 son variables independientes entre sí.
♦ N(t) tiene incrementos estacionarios. En esta línea, para 0 ≤ s < t , N(t) − N(s)
sigue una distribución de Poisson de parámetro λ (t − s)
Una persona estaciona ilegalmente en un aeropuerto dos veces al día por
periodo de una hora cada vez. Si la pasada de la Policia Municipal es un Proceso de
Poisson con un promedio de λ pasadas a la hora, ¿cuál es la probabilidad de que
no le pongan una multa?
Solución
No se conoce a que hora se estaciona, solo que se estaciona en dos segmentos de
una hora cada uno. Se conoce que el suceso de tener multa es un proceso de
Poisson, por lo se trata de incrementos independientes, lo que suceda en una hora
es independiente de lo que pase en el otro intervalo de tiempo.
N(t) ≡ número de partes en el intervalo [0, t]
La probabilidad solicitada es:
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 379
Los defectos de un cable submarino siguen un proceso de Poisson de parámetro
λ = 0,1 por km. Se pide:
a) ¿ Probabilidad de que no haya defectos en los dos primeros kilómetros de cable?
b) Si no hay defectos en los dos primeros kilómetros de cable, ¿cuál es la
probabilidad de que tampocos los haya en el tercer kilómetro?
Solución
a) N(t) ≡ número de kilómetros de cable en el intervalo [0, t]
DISTRIBUCIÓN DE TIEMPOS DE UN PROCESO DE POISSON
suma de los primeros n tiempos entre llegadas, por lo que Sn sigue una distribución
n n
Gamma de parámetros n y λ , Sn ∼ Γ(n, λ ) → E(Sn ) = V(Sn ) = 2
λ λ
En el aeropuerto de Madrid Barajas Adolfo Suárez aterrizan aviones según un
proceso de Poisson de tasa λ = 30 aviones a la hora. Se pide:
a) ¿Cuál es el tiempo esperado hasta que aterriza el décimo avión?
b) ¿Cuál es la probabilidad de que el tiempo que transcurre entre el aterrizaje del
avión 10 y el avión 11 exceda 5 minutos?
Solución:
1
a) Tasa λ = 30 aviones/hora → λ = aviones/minuto
2
n 10
El tiempo hasta que aterriza el 10 avión es E(S10 ) = = = 20 minutos
λ 1/2
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 380
b) T11 ≡ tiempo transcurrido entre el aterrizaje 10 y 11
5
−
P [ T11 > 5] = e 2 = 0,082
DISTRIBUCIONES ASOCIADAS AL PROCESO DE POISSON
• PROCESO UNIFORME DE POISSON
Si (a, b) es un intervalo de tiempo dado sobre el que ocurren n eventos en los
instantes (a ≤ t1 ≤ t2 ≤ ≤ tn ≤ b) , entonces los n eventos se reparten
uniformemente en el intervalo (a, b). Es decir, la función de distribución conjunta
de los (t1 , t2 , , tn ) instantes viene dada por:
n!
f(t1 , t2 , , tn ) = a ≤ t1 ≤ t 2 ≤ ≤ tn ≤ b
(b − a)n
• DISTRIBUCIÓN BINOMIAL A PARTIR DEL PROCESO DE POISSON
Durante el intervalo de tiempo [0 , t] se han observado n ocurrencias del evento de
interés, es decir, el evento (X t = n) ha ocurrido. Los eventos que ocurren en el
subintervalo [0 , s] siguen una distribución Binomial B(n, s / t)
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 381
DIVISIÓN DE UN PROCESO UNIFORME DE POISSON
Sea N(t) un proceso uniforme de Poisson de tasa λ , tal que los eventos asociados a
N(t) pueden clasificarse en dos categorías, A y B. La probabilidad de un evento N(t)
de tipo A es p, y la de tipo B es (1 − p)
De este modo, a partir del proceso N(t) pueden definirse
dos procesos NA (t) y NB (t) , que representan el número de
eventos tipo A y tipo B que se han producido hasta t.
Los clientes entran a una agencia de viajes de acuerdo a un proceso de Poisson
con intensidad de 10 por hora. De forma independiente, cada cliente adquiere un
paquete de viajes con probabilidad 0,3. ¿Cuál es la probabilidad de que durane la
primera hora nueve clientes entren a la tienda y que tres de estos clientes adquiera
un paquete de viajes?.
Solución:
Sea N1 = N1 (1) el número de clientes que realizan una compra durante la primera
hora y N0 = N0 (1) el número de clientes que no compran ningún paquete de viajes.
N1 y N0 son variables aleatorias independientes de Poisson con parámetros
respectivos λ 1 = p λ = 0,3 x 10 = 3 y λ 2 = p λ = 0,7 x 10 = 7
3 3 −3 7 6 −6
En consecuencia, P [N1 = 3] = e = 0,224 P ⎡⎣N0 = 6 ⎤⎦ = e = 0,149
3! 6!
P ⎡⎣(N0 = 6) ∩ (N1 = 3)⎤⎦ = P(N0 = 6) x P(N1 = 3) = 0,149 x 0,224 = 0,0334
MEZCLA DE PROCESOS UNIFORMES DE POISSON
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 382
tiempo de ocurrencia del suceso m‐ésimo del tipo 2.
La probabilidad de que ocurran n sucesos del tipo 1 antes que m sucesos del tipo 2:
n + m −1 n + m −1 − k
∑
k
⎛ n + m − 1 ⎞ ⎛ λ1 ⎞ ⎛ λ2 ⎞
P(S1n < Sm2 ) = ⎜ ⎟⎜ ⎟ ⎜ ⎟
k=n
⎝ k ⎠ ⎝ λ1 + λ2 ⎠ ⎝ λ1 + λ2 ⎠
Dos equipos en una carrera, independientes uno de otro, siguen un proceso de
Poisson, ¿cuál es la probabilidad de que haya 6 llegadas del equipo 1 antes que 4
llegadas del equipo 2?
Solución:
El equipo 1 sigue un proceso de Poisson de parámetro λ 1 , mientras que el equipo 2
sigue un proceso de Poisson de parámetro λ 2 . El marco general es un proceso de
Poisson de parámetro (λ 1 + λ 2 ) .
λ1
La probabilidad de llegada del equipo 1 es p =
λ1 + λ2
9− k
∑
9 k
⎛ 9 ⎞ ⎛ λ1 ⎞ ⎛ λ2 ⎞
La probabilidad solicitada es P(S16 < S24 ) = ⎜k⎟⎜ ⎟ ⎜ ⎟
k=6
⎝ ⎠ ⎝ λ1 + λ2 ⎠ ⎝ λ1 + λ 2 ⎠
Suponiendo que los dos equipos siguen un proceso de Poisson de la misma
1
intensidad (λ 1 = λ 2 ) , la probabilidad de llegada del equipo 1 es p =
2
La probabilidad solicitada sería:
∑ ∑ ∑
9 9− k 9 9
⎛ 9⎞ ⎛ 1 ⎞ ⎛ 1 ⎞ ⎛ 9⎞ ⎛ 1 ⎞ ⎛ 1 ⎞ ⎛ 9⎞
k 9 9
P(S < S ) =
1
6
2
4 ⎜k⎟⎜ ⎟ ⎜ ⎟ = ⎜k⎟⎜ ⎟ = ⎜ ⎟ ⎜k⎟ =
k=6
⎝ ⎠⎝2⎠ ⎝2⎠ k=6
⎝ ⎠⎝2⎠ ⎝2⎠ k=6
⎝ ⎠
∑
9
⎛ 9⎞ 1 ⎡⎛ 9 ⎞ ⎛ 9 ⎞ ⎛ 9 ⎞ ⎛ 9 ⎞ ⎤ 130
9
⎛1⎞
= ⎜ ⎟ ⎜k⎟ = ⎢⎜ ⎟ + ⎜ ⎟ + ⎜ ⎟ + ⎜ ⎟ ⎥ = = 0,2539
⎝2⎠ k=6
⎝ ⎠ 512 ⎣⎝ 6 ⎠ ⎝ 7 ⎠ ⎝ 8 ⎠ ⎝ 9 ⎠ ⎦ 512
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 383
DISTRIBUCIÓN CONDICIONADA DE TIEMPOS DE LLEGADA
Cuando se ha producido un suceso de un proceso de Poisson hasta el instante t y se
desea saber en qué instante se ha producido este suceso.
Al ser los procesos de Poisson de incrementos independientes y estacionarios, se
puede suponer que cada intervalo en ⎡⎣0, t ⎤⎦ de igual longitud tenga la misma
probabilidad de contener el suceso.
Es decir, se puede suponer que el tiempo de ocurrencia del suceso esta distribuido
uniformenete en ⎡⎣0, t ⎤⎦
El número de fallos de la componente de una avión es un proceso de Poisson de
tasa λ , que falla en promedio una vez de cada 500 horas. Por especificaciones de la
fábrica, cada componente dura un máximo de 2500 horas. Sí la componente ha
actuado correctamente durante 500 horas. Se pide:
a) Probabilidad de que la componente dure 1000 horas en total.
b) Probabilidad de que la componente dure 1500 horas más.
c) Valor esperado de la vida de la componente.
Solución 1:
a) No considerando de manera directa las especificaciones de la fábrica, sea
Ti ≡ tiempo entre el fallo i ‐ ésimo y el anterior , donde Ti = Exp(λ = 1 / 500)
1
c) E [ T ] = + 500 = 500 + 500 = 1000 horas
λ
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 384
Solución 2:
a') Considerando las especificaciones de la fábrica, se tiene que ocurre al menos un
fallo entre las 500 horas y las 2500 horas con igual probabilidad.
⎧ 0 t < 500
⎪ t − 500
⎪
Ti ∼ U(500 , 2500) con función de distribución F(t) = ⎨ 500 ≤ t ≤ 2500
⎪ 2500 − 500
⎪⎩ 1 t > 2500
500 + 2500
c') E [ T ] = = 1500 horas
2
Un estudiante compra un PC que se bloquea frecuentemente, deduciendo que el
número de veces que se bloquea sigue un proceso de Poisson con una media de
tres bloqueos a la hora. Se pide:
a) Probabilidad de que el PC siga funcionando sin bloquearse durante al menos una
hora después de encenderlo.
b) Si el PC no se ha bloqueado después de una hora, ¿cuál será la probabilidad de
que no se bloquee después de (t + 2) horas.
Solución:
a) Sea X ≡ Número de veces que se bloquea en una hora , X ∼ P(3)
Que el PC siga funcionando sin bloquearse después de una hora significa que en el
intervalo desde que se ha encendido hasta que pase una hora no se ha bloqueado,
por tanto:
30 − 3
P[X = 0] = e = e− 3 = 0,04978
0!
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 385
Si se define la variable T ≡ Tiempo en horas hasta que se bloquea , T ∼ Exp(3) con
1 1
E(T) = = y función de distribución F(t) = 1 − e− λ t = 1 − e− 3t , teniendo entonces:
λ 3
P[T > 1] = 1 − P[T ≤ 1] = 1 − F(1) = 1 − (1 − e− 3t ) = e− 3t = 0,04978
1 − F(t + 2) 1 − [1 − e− 3 (t + 2) ] e− 3 (t + 2)
= = −3
= −3
= e− 3 (t + 1) = P [ T > t + 1]
1 − F(1) 1 − [1 − e ] e
Los clientes que llegan al puesto de información de un aeropuerto sigue una
distribución de Poisson. Entre 9 : 00 y 10 : 00 han llegado cuatro clientes. Calcular la
probabilidad de que el tercer cliente haya llegado entre 9 : 20 y 9 : 30 , y el tiempo
esperado de llegada de este cliente.
Solución:
Se calcula la distribución condicional de tiempo de llegada del tercer cliente S3 ,
sabiendo que han llegado 4 clientes en una hora.
Se calcula la función de distribución F(x)
Sí 0 ≤ x < 1
1 ⎡ (λ x)3 − λx − λ (1 − x) (λ x)4 − λx − λ (1 − x) ⎤
= ⎢ 3! e λ (1 − x) e + e e ⎥=
λ4 − λ ⎣ 4! ⎦
e
4!
4! e λ ⎡ (λx)3 − λx − λ (1 − x) (λx)4 − λx − λ (1 − x) ⎤
= e λ (1 − x) e + e e ⎥=
λ 4 ⎢⎣ 3! 4! ⎦
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 386
4! e λ ⎡ λ 3 x 3 −λ λ 4 x4 − λ ⎤
= λ (1 − x) e + e ⎥=
λ 4 ⎢⎣ 3! 4! ⎦
= 4 x 3 (1 − x) + x 4 = 4 x 3 − 3 x 4
F ⎜ ⎟ − F⎜ ⎟ = F⎜ ⎟ − F⎜ ⎟ = ⎢4 ⎜ ⎟ − 3 ⎜ ⎟ ⎥ − ⎢4 ⎜ ⎟ − 3 ⎜ ⎟ ⎥ =
⎝ 60 ⎠ ⎝ 60 ⎠ ⎝ 2 ⎠ ⎝ 3 ⎠ ⎢⎣ ⎝ 2 ⎠ ⎝ 2 ⎠ ⎥⎦ ⎢⎣ ⎝ 3 ⎠ ⎝ 3 ⎠ ⎥⎦
4 3 4 3 29
= − − + = = 0,2013
8 16 27 81 144
• El tiempo esperado de llegada del tercer cliente, dado que han llegado 4 clientes
entre las 9 : 20 y 9 : 30 , viene dado por la esperanza condicional de S3 :
∫ ∫ ∫
1 1 1
3
= hora ≡ 36 minutos
5
Así, el tiempo esperado de llegada del tercer cliente es 9 : 36 horas
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 387
PROCESOS DE POISSON COMPUESTOS
puede expresar como X(t) = ∑Y
i=1
i
⎡ N(t) ⎤ ⎛ N(t) ⎞
• Media de X(t) : E ⎡
⎢⎣ i = 1
∑
⎣ X(t) N(t) = n⎤⎦ = E ⎢ Yi N(t) = n⎥ = E ⎜⎜
⎥⎦
∑
Yi ⎟ = n E(Y1 )
⎟
⎝ i=1 ⎠
es decir, E ⎡⎣ X(t) N(t)⎤⎦ = N(t) E(Y1 )
( )
en consecuencia, E [ X(t)] = E E ⎡⎣ X(t) N(t) = n⎤⎦ = E ⎡⎣N(t) E(Y1 )⎦⎤ = λ t E(Y1 )
⎡ N(t) ⎤ ⎛ N(t) ⎞
•
⎢⎣ i = 1
∑
Varianza de X(t) : V ⎡⎣ X(t) N(t) = n⎤⎦ = V ⎢ Yi N(t) = n⎥ = V ⎜
⎥⎦ ⎜ i=1 i ⎟ ∑
Y ⎟ = n V (Y1 )
⎝ ⎠
( ) ( )
V [ X(t)] = E V ⎡⎣ X(t) N(t)⎤⎦ + V E ⎡⎣ X(t) N(t)⎤⎦ = E⎡⎣N(t) V(Y1 )⎦⎤ + V ⎣⎡N(t) V (Y1 )⎦⎤ =
En una compañia constructora la cantidad de accidentes mensuales sigue un
proceso de Poisson de intensidad 4, mientras que la cantidad de trabajadores
daminificados en cada acciente es una variable aleatoria independiente con
distribución uniforme U[1, 3] e independiente de la cantidad de accidentes
ocurridos. ¿Cuál es la media y la varianza de la cantidad anual de trabajadores
daminificados?
Solución
N(t) ≡ "Cantidad de accidentes en t meses"
a+ b 1+ 3 a2 + ab + b2 1 + 3 + 9 14
m1 = E(Y1 ) = μ = = =2 m2 = E(Y ) =
2
1 = =
2 2 3 3 3
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 388
N(12)
Número total trabajadores damnificados al año ≡ X(12) = ∑Y
i=1
i
(1 + 3)
E ⎡⎣ X(t) N(t)⎤⎦ = N(t) E(Y1 ) → E ⎡⎣ X(12) N(12)⎤⎦ = N(12) E(Y1 ) = 4 x 12 x = 96
2
14
V ⎡⎣ X(t) N(t)⎤⎦ = λ t E(Y12 ) → V ⎡⎣ X(12) N(12)⎤⎦ = 4 x 12 x = 224
3
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 389
PROCESO DE POISSON NO‐HOMOGÉNEO
La importancia de los procesos no homogénos, también conocidos como no
estacionarios, se encuentra en que no se requiere la condición de incrementos
estacionarios, por lo que se contempla la posibilidad de que algunos sucesos sean
más frecuentes en ciertos periodos.
♦ N(t) tiene incrementos independientes. En este sentido, se tiene que
N(t1 ) , N(t2 ) − N(t1 ) , N(t3 ) − N(t2 ) , ... , N(tn−1 ) − N(tn ) 0 ≤ t1 < t2 < ... < tn con
n ≥ 1 son variables independientes entre sí.
♦ Para 0 ≤ s < t , N(t) − N(s) sigue una distribución de Poisson de parámetro
∫ λ (u) du
t
∫ λ (s) ds resulta que
t
Denotando m(t) =
0
n
⎡m(t + s) − m(t)⎤⎦ − [m(t + s) − m(t)]
P ⎡⎣N(t + s) − N(t) = n⎤⎦ = ⎣ e n≥ 0
n!
{ N (t), t ≥ 0} es un proceso de Poisson no‐homogéneo con función de
•
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 390
A una gasolinera que permanece abierta 24 horas al día llegan clientes de la
siguiente forma: Los clientes que llegan desde las 24 : 00 hasta las 7 : 00 tienen una
tasa de 2 clientes/hora, de 7 : 00 a 17 : 00 la tasa crece linealmente hasta alcanzar
los 20 clientes/hora, permaneciendo esta tasa hasta las 22:00, momento en que
comienza a decrecer hasta alcanzar los 2 clientes/hora a las 24 : 00
Suponiendo que el número de clientes que llegan a la gasolinera, durante períodos
de tiempo disjuntos, son independientes. Se pide:
a) ¿Cuál sería un buen modelo probabilístico?.
b) ¿Cuál es la probabilidad de que llegue un cliente entre la 1 : 00 y las 3 : 00 ?
c) ¿Cuál es el numero esperado de llegadas entre las 8 : 00 y las 10 : 00 ?
Solución:
a) Un buen modelo probabilístico para la situación sería un Proceso de Poisson no
homogéneo, con función de intensidad:
⎧ 2 0≤t≤7
⎪1,8 t − 10,6 7 ≤ t ≤ 17
⎪
λ (t) = ⎨
⎪ 20 17 ≤ t ≤ 22
⎪⎩ −9 t + 218 22 ≤ t ≤ 24
⎧ λ (7) = 7a + b = 2
7 : 00 − 17 : 00 λ (t) = at + b ⎨ → a = 1,8 b = −10,6
⎩ λ (17) = 17a + b = 20
⎧ λ (22) = 22a + b = 20
22 : 00 − 24 : 00 λ (t) = at + b ⎨ → a = −9 b = 218
⎩ λ (24) = 24 a + b = 2
∫ 2 ds = 4
3
En consecuencia, la probabilidad de que llegue un cliente entre la 1:00 y las 3:00 es:
41 − 4
P ⎡⎣N(3) − N(1) = 1⎤⎦ = e = 0,073
1!
∫
10
Por tanto, el número esperado de llegadas en este horario es 11,2
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 391
Portal Estadística Aplicada: Instrumentos Estadísticos Avanzados 392