Markov Chain
Markov Chain
Markov Chain
en Tiempo Discreto
Fabián Mancilla
U. de Santiago de Chile
[email protected]
Propiedad markoviana
Se dice que el proceso {Xn ; n ∈ N} cumple con la propiedad markoviana de
primer orden si
Propiedad de estacionariedad
El proceso {Xn ; n ∈ N} cumple con la propiedad de estacionariedad si la
probabilidad de transición en una etapa pij = P (Xn+1 = j/Xn = i) depende sólo
de i y de j, pero no de n.
cara sello
cara p11 p12
! 1/2 1/2
P = =
sello p21 p22 1/2 1/2
1
2
1 cara sello
1
2 2
1
2
El siguiente resultado establece una clase de ecuaciones las cuales entregan una
generalización del resultado del ejemplo anterior.
Ecuaciones de Chapman-Kolmogorov
X
Para todo 0 < r < n se tiene pij (n) = pik (r)pkj (n − r).
k
donde P (1) = P .
Observación: Si un proceso consta sólo de dos estados, entonces
p11 (n) p12 (n)
P (n) =
p21 (n) p22 (n)
0,4
0,6 A B 0,8
0,2
P = U · D · U −1
donde
D es matriz diagonal que contiene los valores propios de P .
U corresponde a la matriz cuyas columnas son los vectores propios de P .
P n = U · Dn · U −1
donde N = #ΩXk
pj (n) = P (Xn = j)
X
= P (Xn = j/X0 = i)P (X0 = i)
i
X
= pij (n)pi (0)
i
Fk (i, j) = P (T (i, j) = k)
Para k = 2 tenemos,
X
= P (X1 6= j, X2 = j/X0 = i, X1 = m)P (X1 = m/X0 = i)
m6=j
X
= P (X1 6= j, X2 = j/X1 = m)pim
m6=j
X X
= F1 (m, j)pim =⇒ F2 (i, j) = pim F1 (m, j)
m6=j m6=j
X
= P (X1 6= j, X2 6= j, X3 = j/X0 = i, X1 = m)P (X1 = m/X0 = i)
m6=j
X
= P (X1 6= j, X2 6= j, X3 = j/X1 = m)pim
m6=j
X X
= F2 (m, j)pim =⇒ F3 (i, j) = pim F2 (m, j)
m6=j m6=j
X
En general, Fk (i, j) = pim Fk−1 (m, j).
m6=j
Tiempos de Retorno
Se denomina tiempo de retorno al estado i a la variable aleatoria T (i, i) = Ti . Por
lo tanto, la probabilidad de retorno en k etapas al estado i es Fk (i, i).
Ejemplos:
1 En el problema anterior de la partı́cula, ¿Cuál son las probabilidades de
retornar alguna vez al estado A y al estado B?
2 Dada la siguiente matriz de transición correspondiente a una cadena de
Markov dibuje el grafo asociado y calcule F3 (1, 2) y F4 (3, 1).
0,4 0,2 0,3 0,1
0,1 0,9 0 0
P = 0 0,5 0,5 0
1
2 2
3
1 2
1 1
2 4
1
2
3
4
3
4
1
2
1
2
En el ejemplo anterior, los estados 2, 3 y 4 se comunicas entre sı́, pero no ası́ los
estados 1 y 2.
Esta propiedad de comunicación establece una relación entre los estados que
permite definir clases de estados, compuestas por todos los estados que se
comunican entre sı́. Estas clases de estados son disjuntas entre sı́ y cubren todo el
conjunto de estados. En el ejemplo anterior el estado 1 constituye una clase y los
estados 2, 3 y 4 otra, es decir
Si una cadena de Markov tiene una sola clase de estados, se dirá que es
irreducible.
Estados periódicos
Un estado es periódico si, partiendo de ese estado, sólo es posible volver a él en
un número de etapas que sea múltiplo de un cierto número de etapas que sea
múltiplo de un cierto número entero mayor a uno.
En otras palabras, el estado j es periódico si existe un n ≥ 1 tal que Fk (j, j) > 0
sólo para valores de k en el conjunto {n, 2n, 3n, 4n . . .}.
El perı́odo d del estado j corresponde al máximo común divisor de los k para los
cuales Fk (j, j) > 0.
Si d > 0 diremos que el estado es periódico con perı́odo d
Si d = 1 diremos que el estado es aperiódico.
1
2
1
2
4
3
Diremos que el proceso tiene distribución lı́mite si existe el lı́mite lı́m f (n) .
n→∞
En la medida que esto ocurra, podemos concluir que, pasado mucho tiempo, la
distribución de probabilidades del proceso no cambia de una etapa a otra.
El valor del lı́mite puede o no depender del vector de probabilidades inicial f (0) .
En el caso que el lı́mite exista y su valor no dependa de f (0) , diremos que el
proceso tiene distribución estacionaria. Bajo esta situación, las condiciones
iniciales del sistema tienden a ser irrelevantes para efectos de su comportamiento
en el largo plazo.
F (i, j)
lı́m pij (n) = ≥0
n→∞ E(T (i, j))
Distribución Estacionaria
1 Existe una distribución estacionaria π tal que πj > 0 para todo j si y sólo si
la cadena de Markov es irreducible, con estados recurrentes positivos
aperiódicos.
2 Consideremos una cadena de Markov con espacio de estados S tal que
S = C ∪ T , en que C es una clase de estados recurrentes positivos y T es
un conjunto de una o más clases de estados transientes. Entonces existe una
distribución estacionaria π. Además, πj > 0 para todo j ∈ C y πj para todo
j ∈ T.
πT = πT P
X
πi = 1
πi ≥ 0
P (Yi = k) = ak .