Meio 2
Meio 2
Meio 2
Cadenas de Markov.
Una propiedad de especial importancia que poseen los ya estudiados caminos aleatorios
y procesos de ramificación, es que sus valores en el n−ésimo paso sólo dependen de
los valores en el (n − 1)−ésimo paso, y no de los anteriores. Esta propiedad conocida
como propiedad markoviana es de gran importancia en el estudio de estos procesos, y
en el estudio general de la teorı́a de procesos estocásticos, y por ello prestamos especial
dedicación en este capı́tulo. A lo largo del capı́tulo se supondrá que trabajamos con
procesos de parámetro discreto, que toman valores discretos en un conjunto numerable.
∀n ≥ 1 y ∀x0 , x1 , . . . , xn−1 , xn ∈ S.
1. P (Xn = xn |Xn1 = xn1 , Xn2 = xn2 , . . . , Xnk = xnk ) = P (Xn = xn |Xnk = xnk )
∀n ≥ 0, ∀k; 0 ≤ n1 ≤ n2 ≤ . . . ≤ nk ≤ n; xn1 , . . . , xnk , xn ∈ S.
2. P (Xn+m = xn+m | X0 = x0 , . . . , Xn = xn ) = P (Xn+m = xn+m | Xn = xn )
∀n ≥ 0, m ≥ 1; x0 , . . . , xn , xn+m ∈ S.
41
Nota 3.2 La evolución de una cadena de Markov viene descrita por sus “probabilidades
de transición”, pnij = P (Xn+1 = j | Xn = i), que en un principio dependen de n, i y j.
Restringiremos nuestro estudio al caso de que no dependa de n , y sólo sean relevantes i
y j.
No obstante, señalar que cuando las probabilidades de transición dependan de la etapa
n, se dirá que la cadena de Markov es no homogénea.
Nota 3.3 A partir de ahora consideraremos que todas las cadenas de Markov que tratemos
son homogéneas, a no ser que se diga explı́citamente lo contrario.
Según el cuento, en la tierra de Oz nunca hay dos dı́as seguidos con buen tiempo. A
un dı́a soleado siempre le sigue (con igual probabilidad) un dı́a de lluvia o nieve. Por otra
parte, si un dı́a tenemos mal tiempo hay 2 posibilidades, que el tiempo sea el mismo al dı́a
siguiente o que cambie. De este modo, si un dı́a nieva (o llueve) al dı́a siguiente nevará (o
lloverá) con probabilidad 12 ; pero si cambia el tiempo sólo la mitad de las veces será un
dı́a soleado.
Resolución:
Para estudiar este problema, en primer lugar calculamos las probabilidades de tran-
sición; es decir, las probabilidades de que teniendo cierto tiempo un dı́a determinado al
dı́a siguiente el tiempo cambie. Para ello, notaremos por s si el dı́a está soleado, con l si
llueve y con n si nieva.
42
pss = 0 de un dı́a soleado a un dı́a soleado
psl = 1/2 de un dı́a soleado a un dı́a lluvioso
psn = 1/2 de un dı́a soleado a un dı́a con nieve
pll = 1/2 de un dı́a lluvioso a un dı́a lluvioso
pls = 1/4 de un dı́a lluvioso a un dı́a soleado
pln = 1/4 de un dı́a lluvioso a un dı́a con nieve
pnn = 1/2 de un dı́a con nieve a un dı́a con nieve
pnl = 1/4 de un dı́a con nieve a un dı́a lluvioso
pns = 1/4 de un dı́a con nieve a un dı́a soleado
s l n
s 0 1/2 1/2
l 1/4 1/2 1/4
n 1/4 1/4 1/2
donde las filas indican el tiempo en un dı́a determinado, las columnas el tiempo que
hace al dı́a siguiente y las entradas son las probabilidades de cambio o transición.
0 1/2 1/2
P = 1/4 1/2 1/4
1/4 1/4 1/2
Tenemos que,
43
q p 0 0 ··· 0 ···
0 q p 0 ··· 0 ···
0 0 q p ··· 0 ···
.. .. .. . . .. ..
..
P= . . . . . . .
0 0 0 0 q p ···
0 0 0 0 0 q ···
.. .. .. .. .. .. . .
. . . . . . .
44
Demostración:
prob. total
pi,j (m + n) = P (Xn+m = j | X0 = i) =
P (A ∩ B|C) = P (A|B ∩ C)P (B|C)
| {z }
X ↓
= P (Xn+m = j, Xm = k | X0 = i) =
k∈S
X cond. Markov
= P (Xn+m = j | Xm = k, X0 = i)P (Xm = k|X0 = i) =
k∈S
X
= P (Xn+m = j | Xm = k)P (Xm = k|X0 = i) =
k∈S
X
= pik (m)pkj (n)
k∈S
xn = (xn1 , . . . , xn|S| ).
Demostración:
P.T.
X
xjm+n = P (Xm+n = j) = P (Xm+n = j, Xm = i) =
i∈S
X X
= P (Xm+n = j | Xm = i)P (Xm = i) = xm m m n
i pij (n) = (x Pn )j = (x P )j .
i∈S i∈S
45
• Calcular la matriz de transición del n−ésimo paso.
Podrı́amos intentar calcular Pn partiendo de la matriz anterior por sucesivas multipli-
caciones, pero en éste caso podemos proceder:
Si hubiese u pasos hacia arriba, tenemos
n
pij (n) = pu q n−u
u
j−i+n
como j − i = u − (n − u) ⇒ j − i = 2u − n ⇒ u = ∈ Z. Por tanto:
2
n n+j−i n−j+i
n+j−i p 2 q 2 si n + j − i par
pij (n) = 2
0 en caso contrario
X = {Xn : n ≥ 0}
46
Ejemplo:
El nivel de negocio de la Bolsa puede considerarse cada dı́a alto (A) o bajo (B). Para un
periodo de 5301 dı́as se dispone de la secuencia BAABBA..., y que nos permite representar
la alternancia mediante el cuadro adjunto:
B A
B 3077 543
A 588 1092
¿Podrı́a indicar alguna relación entre la duración de ciclos de dı́as de nivel alto con los
dı́as de nivel bajo a tenor de dichos datos?
Debemos normalizar la matriz por filas:
B A
B 0.85 0.15 = P
A 0.35 0.65
47
Ası́,
)
µ1 = 1.4 → la bolsa tarda en volver a baja 1.4 dı́as.
⇒
µ2 = 3.3 → la bolsa tarda en volver a alta 3.3 dı́as.
⇒ tarda en volver a alta más del doble que en volver a baja.
Nota 3.7 Nos interesa, para estos modelos, ver si se ajusta a una cadena de Markov y,
en tal caso, hallar la matriz de transición y su comportamiento lı́mite.
0 1 2 3
NO TRABAJO 1
1
1 1 1
1− 3
1− 2 3
0 2
1− 3
ESTADO: 0
M1 (1)
0 0 1 0
ESTADO: 1
M1 (2) 1
1
1 1 1
1− 3
1− 2 3
0 2
1− 3
ESTADO: 2
M2 1
1
1 1 1
1− 3
1− 2 3
0 2
1− 3
ESTADO: 3
1/3 1/3 0 1/3
0 0 1 0
1/3 1/3 0 1/3
1/3 1/3 0 1/3
Dando prioridad al motor de tipo 2, M2 , tenemos:
48
1/3 1/6 0 1/2
0 0 1 0
1/3 1/6 0 1/2
1/3 1/6 0 1/2
El taller tiene dos comportamientos según elijamos la polı́tica de dar prioridad a M1 ó a
M2 , que están regidos por las dos matrices de transición.
Si calculamos la matriz lı́mite, haciendo π = πP tenemos:
1 1 1 1
π= , , , para el primer caso.
4 4 4 4
2 1 1 3
π= , , , para el segundo caso.
7 7 7 7
Ası́, dado que no queremos tener mucho tiempo el taller
parado,
nos interesa la polı́tica
2 1
del tipo 1, pues a largo plazo tiene mas ocupado el taller, > .
7 4
49
Notaremos la probabilidad de que partiendo del estado i alcancemos alguna vez el
estado j será: X
fij = fij (n)
n≥1
Con la convención de que pij (0) = δij (delta de Kronecker) y fij (0) = 0 ∀i, j ∈ S.
Claramente se tiene que
fij = Fij (1).
A continuación, veremos que se verifican relaciones análogas al caso de los caminos
aleatorios entre las dos funciones generatrices Fij y Pij .
Demostración:
Fijamos i, j ∈ S, sea Am = {Xm = j} y Bm el suceso de que la primera visita a j
ocurra en el instante m, es decir, Bm = {Xr 6= j para 1 ≤ r < m, Xm = j}. Los Bm son
disjuntos luego tenemos:
m
X
P.T.
P (Am | X0 = i) = P (Am ∩ Br | X0 = i)
r=1
50
Ahora basta multiplicar por sm y sumar en m aplicando las propiedades sobre convolución
para llegar a lo que querı́amos. Ası́,
∞
X ∞ X
X m
m
pij (m)s = pjj (m − r)fij (r)sm =
m=1 m=1 r=1
X∞ X ∞
= pjj (m − r)sm−r fij (r)sr =
r=1 m=r
∞
X ∞
X
= pjj (m − r)sm−r fij (r)sr .
m=r r=1
Luego,
Veamos ahora como caracterizamos los estados a partir de las probabilidades de tran-
sición.
∞
X
pij (n) = ∞, ∀i tal que fij > 0.
n=0
∞
X
2. Un estado j es transitorio ⇐⇒ pjj (n) < ∞. Además,
n=0
∞
X
pij (n) < ∞, ∀i.
n=0
Demostración:
1. Sea I{Xn =i} la variable indicador de {Xn = i}.
1 si Xn = i
I{Xn =i} =
0 si Xn =
6 i
51
Sea Ni el número de veces que se visita el estado i (dado X0 = i)
X∞ ∞
X
E[Ni ] = E[ I{Xn =i} |X0 = i] = E[I{Xn =i} |X0 = i] =
n=0 n=0
∞
X ∞
X (∗)
P [Xn = i|X0 = i] = pii (n) = ∞ ⇐⇒ i es recurrente.
n=0 n=0
Ni ≈ Ge(p) ; p = 1 − fii .
1 1
N(i) ≈ Ge(p) =⇒ E[Ni ] = =⇒ E[Ni ] =
p 1 − fii
es decir,
∞
X
Pjj (1) = pjj (n) = ∞ ⇔ j es persistente.
n=0
Cuando i 6= j se tiene
∞
X X∞
s→1
Pij (s) = Fij (s)Pjj (s) =⇒ pij (n) = fij pjj (n) = ∞.
n=0
|{z} n=0
∨
0
Demostración:
Basta aplicar el corolario anterior:
∞
X n→∞
j es transitorio ⇔ pjj (n) < ∞, ∀i ⇒ pij (n) −→ 0, ∀i.
n=0
52
Observación: Ası́ pues cada estado es ó persistente ó transitorio. Es intuitivamente claro
que el número N(i) de veces que la cadena visita el estado i satisface:
1 si i es persistente
P (N(i) = ∞) =
0 si i es transitorio
Ya que tras cada visita a i el regreso es cierto si y solo si fii = 1, es decir, si i es persistente.
Ti = mı́n{n ≥ 1 : Xn = i}
es decir, como el número de instantes esperado para regresar al estado i por primera
vez.
Nota 3.9 Puede darse el caso de que siendo i persistente el tiempo medio de recurrencia,
µi , sea infinito; siendo éste el caso en el que aunque el regreso a i es cierto se necesita un
tiempo infinito. Ası́ pues, realizamos la siguiente distinción entre los estados persistentes.
53
∞
X
Nota 3.10 Destacar que al ser un estado j persistente se tiene que pij (n) = ∞, y
n=0
n→∞
ası́ para ser persistente nulo tiene que darse que pij (n) −→ 0, ∀i. También destacar
n→∞
que la condición pij (n) −→ 0 es necesaria para que un estado sea transitorio, pero no
suficiente como se mostró en el corolario 3.2.
Por tanto, )
1
P0 (s) = (1 − 4pqs2 )− 2 1
=⇒ F0 (s) = 1 − (1 − 4pqs2 )− 2
P0 (s) = 1 − F0 (s)P0 (s)
X ∞ − 12
1 1 1
Si p = ⇒ p0 (n) = P0 (1) = 1 − 4· · ·1 = ∞.
2 n=0
2 2
Luego el estado 0 es persistente ( por conexión, todos los estados son persistentes).
Para ver si son persistentes nulos o no nulos, calculamos µ0 :
∞
X ′ s
µ0 = nf0 (n) = F0 (1) = . . . = √ =∞
1 − s 2
n=0 s=1
54
1 1
Si p 6= ⇒ P0 (1) = (1 − 4pq1)− 2 < ∞ ⇒ el estado 0 es transitorio.
2
( todos los estados son transitorios).
Finalmente, introducimos una definición que nos permite estudiar sobre los periodos
de tiempo en los cuales el regreso al punto de partida es posible.
es decir, como el mayor común divisor de los lapsos de tiempo tomados en regresar a i
cuando el regreso a i es posible. Diremos que un estado i es periódico si d(i) > 1 y que
un estado i es aperiódico si d(i) = 1.
Las cadenas de mayor aplicación son aquellas en las que los estados tienen mejor
comportamiento, por ello damos la siguiente definición
Diremos que i comunica con j(se denota i → j), si la cadena visita el estado j
con probabilidad positiva partiendo del estado i. Es decir, si
55
2. i es transitorio ⇔ j es transitorio.
3. i es persistente nulo ⇔ j es persistente nulo.
Demostración:
1. Si i ↔ j ⇒ ∃m, n tales que pij (m) > 0 y pji (n) > 0.
Por el teorema de Chapman-Kolmogorov, tenemos:
pii (m + n) ≥ pij (m)pji (n) > 0 ⇒ m + n es múltiplo de d(i). (∗)
pjj (m + n) ≥ pji(n)pij (m) > 0 ⇒ m + n es múltiplo de d(j). (∗∗)
pii (m + d(j) + n) ≥ pij (m)pjj (d(j))pji(n) > 0 ⇒ m + d(j) + n es múltiplo de d(i). (⋆)
pjj (m + d(i) + n) ≥ pij (n)pjj (d(i))pji(m) > 0 ⇒ m + d(i) + n es múltiplo de d(j). (⋆⋆)
De aquı́, )
(∗) y (⋆) ⇒ d(j) es múltiplo de d(i)
⇒ d(i) = d(j).
(∗∗) y (⋆⋆) ⇒ d(i) es múltiplo de d(j)
2.
X X
Supongamos i transitorio ⇔ pij (n) < ∞ ⇒ ∀j, pij (n) < ∞.
n n
Supongamos ahora que i es transitorio y que hay otro estado j que comunica con él
que no lo es. Ası́, i transitorio, j no transitorio, i ↔ j. Entonces,
∃m, n tales que pij (m) > 0 y pji (n) > 0.
Por el teorema de Chapman-Kolmogorov, tenemos:
pii (m + r + n) ≥ pij (m)pjj (r)pji (n) = αpjj (r), ∀r,
donde α = pij (m)pji(n) > 0.
Sumando en r esta expresión,
X X α>0
X
∞> pii (m + r + n) ≥ α pjj (r) =⇒ pjj (r) < ∞ ⇒ j es transitorio.
r r r
3.
n→∞
Supongamos i persistente no nulo ⇔ pii (n) −→ 0.
Análogamente a la demostración de 2., pero usando la caracterización anterior, se llega
a que si i es persistente nulo ⇒ j también lo es, pues
n→∞
pii (m + r + n) −→ 0, y pii (m + r + n) ≥ αpjj (r)
56
con α = pij (m)pji (n) > 0. Entonces,
r→∞
pjj (r) −→ 0 ⇒ j es persistente nulo.
Nota 3.12 Por exclusión, si i es persistente no nulo, como j no puede ser ni transitorio
ni persistente nulo ⇒ j será persistente no nulo.
i. cerrado si ∀i ∈ C, j ∈
/ C, pij = 0.
Observación: Una vez que la cadena toma un valor en una clase cerrada de estados C
entonces nunca la dejará en el futuro. Si un conjunto de estados cerrado está formado por
un único estado, a este estado se le llamará absorbente.
Es claro que las clases de equivalencia de ↔ son irreducibles. Diremos que C tiene
una propiedad si todos los estados de C tienen dicha propiedad. Si todo el conjunto de
estados S es irreducible entonces diremos que la cadena es irreducible.
Podemos ya formular el siguiente importante teorema.
S = T ∪ C1 ∪ C2 ∪ · · ·
Nota 3.13 El teorema de descomposición nos muestra las posibilidades que pueden darse
en una cadena de Markov. Esto es, si X0 ∈ Cr , entonces la cadena nunca abandonará la
clase Cr y entonces, podemos considerar el espacio de estados S = Cr . Por otra parte,
si X0 ∈ T entonces, o la cadena permanece por siempre en T o se mueve a una clase
Ck y permanece ahı́ por siempre. Ası́, o la cadena siempre toma valores en el conjun-
to de estados transitorios o acaba en un conjunto cerrado persistente de estados donde
permanecerá por siempre. Veamos ahora que en el caso en el que S sea finito la primera
situación no puede darse.
57
Teorema 3.6 Si S es finito, todos los estados no pueden ser transitorios, siendo todos
los estados persistentes no nulos.
Demostración:
Por reducción al absurdo, supongamos que todos los estados son transitorios. Entonces
tendrı́amos que X
∀i, pij (n) = 1
j∈S
Luego: X X X
f ta.
1 = lı́m 1 = lı́m pij (n) = lı́m pij (n) = 0=0
n→∞ n→∞ n→∞
j∈S j∈S j∈S
T = {3, 4}
S = T ∪ C1 ∪ C2 ∪ · · ·
58
Renombrando a los estados adecuadamente llegamos a que la matriz de transición se
puede expresar como sigue:
C1 0 ··· 0 0
0 C2 ··· 0 0
P = ... ..
.
..
.
..
.
..
.
0 0 · · · Cm 0
D1 D2 · · · Dm Q
donde Ci son las matrices correspondientes a los estados persistentes, y Di a los transi-
torios.
Ejemplo: Sea X una cadena de Markov con S = {1, 2, . . . , 10}. Sea
1/2 0 1/2 0 0 0 0 0 0 0
0 1/3 0 0 0 0 2/3
0 0 0
1 0 0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0 0 0
0 0 0 1/3 1/3 0 0 0 1/3 0
P=
0 0 0 0 0 1 0 0 0 0
0 0 0 0 0 0 1/4 0 3/4 0
0 0 1/4 1/4 0 0 0 1/4 0 1/4
0 1 0 0 0 0 0 0 0 0
0 1/3 0 0 1/3 0 0 0 0 1/3
4 9
5
8 10 2 7
1 3
1,3 8 , 5 , 4 , 10 2,7,9
y ası́,
59
{1, 3}
{2, 7, 9} conjuntos cerrados, irreducibles, recurrentes, no nulos.
{6}
{4, 5, 8, 10} conjunto transitorio.
{1, 3, 2, 7, 9, 6} ninguno es transitorio o recurrente nulo.
{6} es absorvente.
Luego la matriz de transición se puede expresar del siguiente modo:
1 0 0 0 0 0 0 0 0 0
0 1/2 1/2 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0 0 0
0 0 0 1/3 2/3 0 0 0 0 0
0 0 0 0 1/4 3/4 0 0 0 0
P= 0 0
0 1 0 0 0 0 0 0
0 0 0 0 0 0 0 1 0 0
0 0 0 0 0 1/3 1/3 1/3 0 0
0 0 1/4 0 0 0 1/4 0 1/4 1/4
0 0 0 1/3 0 0 0 1/3 0 1/3
Ejemplo: Sean las cadenas de Markov dadas por las siguientes matrices de transición.
Identificar gráficamente el tipo de estado al que pertenecen cada uno de ellos.
a)
1/2 0 1/2 0 0
0 1/4 0 3/4 0
P1 = 0 0 1/3 0 2/3
1/4 1/2 0 1/4 0
1/3 0 1/3 0 1/3
Hacemos en primer lugar un grafo de los estados. A través del grafo se puede identificar
qué estados son recurrentes y cuáles transitorios.
Asignamos a un estado cualquiera los signos ±. Por ejemplo, al estado 1.
Si se señala un estado con un signo + (por ejemplo el i) se señalan también con + los
estados j que siguen al i. Por ejemplo, hemos señalado 1 con +, entonces seguirá el
estado 3 con + y, después del estado 3, el estado 5 también con +.
Si se señala un estado con signo −, se señalan también con − a todos los estados
que lo preceden. Por ejemplo, si el 1 tiene signo −, ponemos signo − también a
los estados 4 y 5; como el 3 precede al 5 le ponemos también signo −, y como el 2
precede al 4, le ponemos también signo −.
60
−
2
+
− 1
+
−
3
5
4
+ −
−
Aquellos estados señalados con el doble signo ± forman una clase de estados comuni-
cados. En nuestro caso, forman esa clase los estados 1,3,5.
Para ver lo que les ocurre a los estados restantes, le damos ± de partida a otro estado
que no esté en la clase que ya nos ha salido y repetimos los mismos pasos. En nuestro caso,
le damos ± al estado 2 por ejemplo, obteniendo que {2, 4} forman una clase comunicada.
+
−
2
+ 1
+
3
5
4
+ +
−
Tenemos entonces dos clases comunicadas, {1, 3, 5} y {2, 4}, ya que si cogemos otros
estados distintos de partida para asignarles el ± nos salen las mismas clases.
{2, 4} son estados transitorios porque cuando salen ya no vuelven. Una cadena finita
nunca puede tener todos sus estados transitorios.
Ahora reescribimos la matriz P1 de forma que los elementos de una misma clase estén
juntos. Ası́, nos queda:
61
1/2 1/2 0 0 0
0 1/3 2/3 0 0
P1 =
1/3 1/3 1/3 0 0
0 0 0 1/4 3/4
1/4 0 0 1/2 1/4
b)
0 0.8 0 0 0 0 0.2
0 0.3 0 0 0 0 0.7
0 0 0.3 0.5 0.2 0 0
P2 =
0 0 0.6 0 0.4 0 0
0 0 0 0.4 0.6 0 0
0.1 0.1 0.1 0.2 0.2 0.3 0
0.4 0.1 0.1 0 0.1 0.2 0.1
+− − −+
−1
2
3 + {1 , 2 , 6 , 7} Transitorios
7 +− {3 , 4 , 5}
−
+−
4
6 5
−+ +
− +−
+− +
Reescribimos la matriz P2 :
0.3 0.5 0.2 0 0 0 0
0.6 0 0.4 0 0 0 0
0 0.4 0.6 0 0 0 0
P2 =
0 0 0 0 0.8 0 0.2
0 0 0 0 0.3 0 0.7
0.1 0.2 0.2 0.1 0.1 0.3 0
0.1 0 0.1 0.4 0.1 0.2 0.1
Ahora nos interesa saber que ocurre con la cadena {Xn } cuando n → ∞. La matriz P
en conjunto no tiene un estado lı́mite, sino cada uno de los estados que están en la misma
clase.
62
3.4. Distribuciones estacionarias y teoremas lı́mite.
¿Cómo se comportará una cadena cuando haya pasado un largo perı́odo de tiempo?
X
2. π = πP, i.e., πj = πi pij ∀j ∈ S.
i∈S
Luego si X0 sigue la distribución dada por π, se tiene que dicha distribución no será mo-
dificada, es decir, ∀n, Xn tiene la misma distribución.
A continuación enunciamos un teorema importante .
63
ii. Si la cadena es persistente no nula,
n→∞
pij (n) −→ πj = µ−1
j .
X n→∞ 1
iii. P (Xn = j) = P (X0 = i)pij (n) −→ .
i
µj
Notese que lı́m pij (n) no depende del punto inicial X0 = i.
n→∞
n→∞ d
pjj (nd) = P (Yn = j | Y0 = j) −→ .
µj
Además, se tiene
π(j) = lı́m Pijn ∀i, j ∈ S
n→∞
Una cadena de Markov no tiene porque tener distribución estacionaria, para que ası́ sea
ha de ser una cadena irreducible y todos sus estados deben ser persistentes no nulos.
Luego para estudiar el comportamiento lı́mite de una cadena cualquiera, hay que
considerar cada una de sus clases Ci , ya que cada una va a tener un comportamiento
lı́mite. También la clase de estados transitorios T va tener su comportamiento; aunque
acabe por desaparecer, nos interesa ver en cuanto tiempo. Por tanto, es fundamental para
el estudio del comportamiento lı́mite la separación de una cadena en estados persistentes
y transitorios, pues es en la separación donde está el comportamiento lı́mite. Se estudia
cada una por separado, se hace π = πCi .
La matriz lı́mite de Pn va a coincidir en cada fila con la distribución estacionaria:
π
π
P∗ =
···
π
si la cadena es irreducible.
A continuación vemos resultados sobre el comportamiento asintótico de las cadenas
de Markov con estados periódicos.
64
Lema 3.2 Sea X una cadena de Markov irreducible con estados periódicos recurrentes
de perı́odo δ. Entonces, los estados se dividen en δ clases disjuntas B1 , B2 , . . . , Bδ (clases
cı́clicas), tales que pij = 0, a menos que:
i ∈ B1 y j ∈ B2 ó i ∈ B2 y j ∈ B3 ó . . . ó i ∈ Bδ y j ∈ B1 .
Teorema 3.8 Sea P la matriz de transición de una de cadena de Markov con estados
periódicos recurrentes de periodo δ, y sean B1 , . . . , Bδ definidas en el lema anterior. En-
tonces, en la cadena de Markov con matriz de transición P = Pδ las clases B1 , . . . , Bδ son
cerradas e irreducibles de estados aperiódicos.
Supongamos que tenemos una cadena finita. Veamos el procedimiento que vamos a
seguir para calcular la matriz lı́mite de una cadena de Markov:
1. Identificar los conjuntos cerrados e irreducibles, es decir, las distintas clases de es-
tados persistentes.
Recordemos que la matriz después de haber identificado cada clase y haber organizado
las filas y columnas según esa clasificación, la matriz P toma la forma:
P1 0 · · · 0 0
0 P2 · · · 0 0
.. .
. . . .
. .
.
P= . . . . .
0 0 · · · Pm 0
D1 D2 · · · D m Q
donde Pi son los estados persistentes y Di los transitorios.
b donde las cajas Pi que tenemos
Aplicando los resultados anteriores tenemos la matriz P
en P se contraen a un número que es la unidad, es decir,
65
1
1
X
b ..
P= . donde bj (i) = pik i ∈ D.
1 k∈Cj
b1 b2 · · · bm Q
b tiene la forma:
Ası́, la matriz P !
I 0
b=
P
B Q
F = [fij ]i,j∈S
R = [rij ]i,j∈S
donde R es lo que se conoce como matriz de potencial, siendo rij el número medio de
visitas a j partiendo de i. Por fij notábamos la probabilidad de alcanzar el estado j, por
primera vez, partiendo del i. Luego,
rij = E[Nj | X0 = i]
Si j es recurrente, entonces:
(
0 si fij = 0
rij =
∞ si fij > 0
66
Si i, j son transitorios tal que tienen rij < ∞, entonces:
1
fjj = 1 − r
jj
rij
fij =
rjj
Si i, j son recurrentes de la misma clase ⇒ fij = 1.
Si i es recurrente y j transitorio ó recurrente de distinta clase ⇒ fij = 0.
Una vez que hemos calculado R y F podemos calcular la matriz lı́mite P ∗ , que en
realidad es el lı́mite de cada una de las entradas, pues cada clase recurrente Pk tiene su
propio lı́mite. Cuando llamamos a P∗ matriz lı́mite nos estamos refiriendo al comporta-
miento lı́mite de todos los estados por separado, en conjunto no es realmente una matriz
lı́mite (aunque por abuso del lenguaje la llamemos ası́); luego podemos calcular la matriz
lı́mite de cada clase cerrada, no de la matriz lı́mite en general. Ası́, dada una matriz Pk ,
su matriz lı́mite viene dada por
π(k) = π(k)Pk
X
donde πi (k) = 1.
i
Ası́, llegamos a:
P∗1
P∗2
..
P∗ = .
P∗m
D1∗ D2∗ · · · Dm∗
0
donde Dk∗ nos indica la probabilidad de ir de los estados transitorios a los estados re-
currentes. Además, si i ∈ D (i.e., i es un estado transitorio), en esas cajas se verifica
que:
lı́m pnij = fij πj .
n→∞
67
Se observa que,
{1, 2, 3}
clases de estados recurrentes, irreducibles y aperiódicos.
{4, 5}
{6, 7, 8} clases de estados transitorios, sólo pueden alcanzar los estados 1,2 y 3.
Tenemos,
1 0 0 0 0
0 1 0 0 0 0.4 0.6 0
b=
P 0 0 0.4 0.6 0 y Q= 0 0 0.2
0.8 0 0 0 0.2 0.6 0 0
0.4 0 0.6 0 0
Entonces,
−1
0.6 −0.6 0 125 75 15
1
(I − Q)−1 = 0 1 −0.2 = 15 75 15
66
−0.6 0 1 75 45 75
68
Nota 3.18 En las cadenas markovianas todas las filas de la matriz del comportamiento
lı́mite son iguales. Esto quiere decir que es independiente del estado inicial.
La matriz lı́mite es de la forma,
π1 π2 π3 0 0 0 0 0
π1 π2 π3 0 0 0 0 0
π1 π2 π3 0 0 0 0 0
0 0 0 π4 π5 0 0 0
P =
∗
0 0 0 π4 π5 0 0 0
π1 π2 π3 0 0 0 0 0
π1 π2 π3 0 0 0 0 0
π1 π2 π3 0 0 0 0 0
donde las πi verifican los siguientes sistemas de ecuaciones:
0.4 0.3 0.3
(π1 π2 π3 ) = (π1 π2 π3 ) 0 0.6 0.4
0.5 0.5 0
π1 + π2 + π3 = 1
(π4 π5 ) = (π4 π5 ) 0 1
0.8 0.2
π4 + π5 = 1
Resolviendo los sistemas nos queda:
0.22 0.51 0.27 0 0 0 0 0
0.22 0.51 0.27 0 0 0 0 0
0.22 0.51 0.27 0 0 0 0 0
0 0 0 0.4 0.6 0 0 0
P∗ =
0
0 0 0.4 0.6 0 0 0
0.22 0.51 0.27 0 0 0 0 0
0.22 0.51 0.27 0 0 0 0 0
0.22 0.51 0.27 0 0 0 0 0
69
Se observa que,
{1, 2}
clases de estados recurrentes.
{3, 4, 5}
{6, 7} clases de estados transitorios.
Luego,
−1 1.5 0.25 0.1 0.5 0.2 0.8
G = (I − Q) B = =
0.5 1.75 0.2 0.2 0.4 0.6
Con esto, ya podemos obtener R y F :
∞ ∞ 0 0 0 0 0 1 1 0 0 0 0 0
∞ ∞ 0 0 0 0 0 1 1 0 0 0 0 0
0 0 ∞ ∞ ∞ 0 0 0 0 1 1 1 0 0
R=
0 0 ∞ ∞ ∞ 0 0 ,
F =
0 0 1 1 1 0 0
0 0 ∞ ∞ ∞ 0 0 0 0 1 1 1 0 0
∞ ∞ ∞ ∞ ∞ 1.5 0.25 0.2 0.2 0.8 0.8 0.8 0.3 0.14
∞ ∞ ∞ ∞ ∞ 0.5 1.75 0.4 0.4 0.6 0.6 0.6 0.3 0.43
70
Resolviendo los sistemas podremos escribir P∗ :
7 8
15 15
0 0 0 0 0
7 7 8
π1 = 0.47 = 15 15 15
0 0 0 0 0
π2 = 0.53 = 8 0 0 6 7 10
0 0
15 23 23 23
π3 = 0.26 = 6
23 ⇒P =
∗
0 0 6
23
7
23
10
23
0 0
π4 = 0.30 = 7 0 0 6 7 10
0 0
23 23 23 23
π5 = 0.43 = 10 1.4 1.6 4.8 5.6 8
0 0
23 15 15 23 23 23
2.8 3.2 3.6 4.2 6
15 15 23 23 23
0 0
b es la misma que
En este caso, la matriz P la del ejemplo anterior.
1 0 0 0
0 1 0 0
Pb=
0.1 0.5 0.3 0.1
0.2 0.2 0.2 0.4
Luego B y Q son las mismas que antes, lo que implica que G también coincida con la del
ejemplo anterior. En este caso, tenemos:
∞ ∞ 0 0 0 0 0 1 1 0 0 0 0 0
∞ ∞ 0 0 0 0 0 1 1 0 0 0 0 0
0 0 ∞ ∞ ∞ 0 0 0 0 1 1 1 0 0
R=
0 0 ∞ ∞ ∞ 0 0 ,
F =
0 0 1 1 1 0 0
0 0 ∞ ∞ ∞ 0 0 0 0 1 1 1 0 0
∞ ∞ ∞ ∞ ∞ 1.5 0.25 0.2 0.2 0.8 0.8 0.8 0.3 0.1
∞ ∞ ∞ ∞ ∞ 0.5 1.75 0.4 0.4 0.6 0.6 0.6 0.3 0.4
71
En este caso, los sistemas de ecuaciones quedan:
(π1 π2 ) = (π1 π2 ) 0.5 0.5
0.8 0.2
π1 + π2 = 1
0 0.4 0.6
(π3 π4 π5 ) = (π3 π4 π5 ) 1 0 0
1 0 0
π3 + π4 + π5 = 2
72
Todos los estados serán recurrentes no nulos si y sólo si existe solución única de este
sistema.
Teorema 3.11 Sea P la matriz de transición asociada a la cadena de Markov que estamos
estudiando, y sea Q la matriz obtenida de P al suprimir la fila y la columna k−ésima
(k ∈ S cualquiera). Entonces, los estados son recurrentes nulos si y sólo si el sistema que
la matriz Q produce tiene solución trivial, es decir, si el sistema tiene precisamente la
solución trivial. O sea,
X
h(i) = qij h(j)
j∈S\{k} =⇒ h(i) = 0.
0 ≤ h(i) ≤ 1; i ∈ S \ {k}
Nota 3.19 Si existe solución no trivial del sistema, los estados serán transitorios.
π0 = π0 q + π1 q
π1 = π0 p + π2 q
π2 = π1 p + π3 q
..
.
Esto es un sistema infinito. Para resolverlo tomamos π0 = 1 (ya que el sistema es ho-
mogéneo y, por tanto, tenemos un grado de libertad) y despejamos el resto de las πi :
p
π1 =
q
p2
π2 = 2
q
..
.
73
p p2
Ası́, queda: π = c, c , c 2 , . . .
q q
(Tomamos π0 = c en lugar de π0 = 1, para tener todas las soluciones posibles).
Luego hemos resuelto el sistema, pero esa solución no es buena para cualquier p, q. Ha de
X∞ i
p
ser p < q para que el sistema tenga solución, pues al normalizar, la serie · c ha
i=0
q
p
de ser convergente y, como es una serie geométrica de razón , para que sea convergente
q
ha de ser p < q.
Por tanto, si p < q todos los estados son recurrentes no nulos, y la solución del sistema
serı́a:
j
p p
πj = 1− , j = 0, 1, 2, . . .
q q
X
pues ésta es la solución que hace que πj = 1:
j
∞ k
X p 1 p
c =1⇒c p = 1 ⇒ c = 1 − q.
q 1−
k=0
q
La matriz lı́mite es una matriz infinita.
Por otro lado, nos va a salir:
Si p = q ⇒ todos los estados son recurrentes nulos.
Si p > q ⇒ todos los estados son transitorios.
Para obtener esta solución, le quitamos a P la 1a fila y la 1a columna, por ejemplo, y
obtenemos ası́ Q. Después, volvemos a plantear el sistema anterior para ver si tiene o no
solución.
Estudiamos entonces el sistema h = Qh:
0 p 0 0 ··· h1 = ph2
q 0 p 0 ··· h = qh1 + ph3
Q= ⇒ 2
0 q 0 p ··· h3 = qh2 + ph4
··· ··· ··· ··· ··· ..
.
74
Con esto:
0 ≤ hi ≤ 1
| {z }
Si p = q ⇒ hi = c · i=⇒ c = 0 ⇒ todos los estados son recurrentes nulos.
i
q
Si p > q ⇒ hi = 1 − ⇒ todos los estados son transitorios.
p
75
3.5. Tablas Resumen.
3.5.1. Clasificación de los procesos de Markov.
Los procesos de Markov se dividen en cuatro tipos básicos según sea el parámetro y
el espacio de estados.
Párametro T
DISCRETO CONTINUO
D
I Cadenas Cadenas
S de de
C Markov Markov
R de de
E Parámetro Parámetro
Espacio T Discreto Continuo
de O
Estados C Procesos Procesos
S O de de
N Markov Markov
T de de
I Parámetro Parámetro
N Discreto Continuo
U (Ej. Series (Ej. Difusión)
O Temporales)
k
RECURRENTE
NO RECURRENTE
1 si j ↔ k
j RECURRENTE fjk = fjk = 0
0 e.c.c. X
pjk (n)
X X n
NO RECURRENTE fjk = pjifik + pji fjk = X
i∈T i∈C pkk (n)
n
76
3.5.3. Clasificación de una cadena de Markov irreducible.
NO RECURRENTE RECURRENTE
APERIODICA PERIODICA
(PERIODO=1) (PERIODO>1)
77
3.6. Ejercicios.
Ejercicio 3.1.
Sea (Xn ) una cadena de Markov y sea un conjunto {nr : r ≥ 0} de números enteros
ordenados en orden creciente. Demostrar que Yr = Xnr constituye una cadena de Markov.
Encontrar la matriz de transición de (Yr ) cuando nr = 2r y (Xn ) es:
2. Un proceso de ramificación.
Ejercicio 3.5. La copia de un libro es leı́da por una secuencia infinita de editores
detectando errores. Cada error es detectado con una probabilidad p en cada lectura.
Entre las distintas lecturas el corrector detecta errores pero introduce un número aleatorio
de errores nuevos (los errores pueden ser introducido incluso si no detecta ningún error).
Teniendo en cuenta, que el número de errores son diferentes en cada lectura del corrector
pero idénticamente distribuidos:
Buscar una expresión para la función generatriz de probabilidad de la distribución esta-
cionaria Xn donde Xn : número de errores después de la n-ésima lectura del corrector.
Buscar una expresión para la función generatriz de probabilidad explı́cita cuando el co-
rrector introduce un número de errores en cada lectura regida por una distribución de
Poisson.
78
Ejercicio 3.6. Una partı́cula recorre un camino aleatorio sobre los vértices de un
grafo G conexo, el cual para simplificar suponemos que no tiene bucles. En cada etapa
la partı́cula se mueve de un vértice a otro de los adyacentes, teniendo cada punto igual
probabilidad de ser elegido. Si G tiene η(< +∞) aristas, mostrar que la distribución
dv
estacionaria está dada por Πv = 2η donde dv es el grado del vértice.
Ejercicio 3.7. Mostrar que un camino aleatorio sobre un árbol binario infinito com-
pleto es una cadena de Markov de estados transitorios.
Ejercicio 3.8. Una partı́cula realiza una caminata al azar sobre los vértices de un
cubo.En cada etapa permanece en el vértice en que se encuentra con una probabilidad 41 y
se desplaza a sus vecinos con la misma probabilidad. Sean v,w dos vértices diametralmente
opuestos y supongamos que la caminata comienza en v. Hallar:
1. El número medio de etapas hasta la primera visita a v.
B E
Comenzamos en el vértice (A). Nos piden:
1. El tiempo de primer paso por A partiendo de A (tiempo medio de recurrencia).
4. Tiempo de primer paso por A sabiendo que parte de A sin que pase por E
Ejercicio 3.10. Sea Xn la cantidad de agua que hay en un embalse el dı́a n sobre el
mediodia.Ddurante las 24 horas anteriores al dı́a n el embalse recibe agua que cuantifi-
caremos en la variable Yn , justamente antes de cada mediodı́a la presa arroja 1 unidad
de agua (si hay tal cantidad).La capacidad máxima del embalse es k, y si la presa recibe
79
excesiva cantidad este agua se desborda y se pierde. Suponemos que las Yn son indepen-
dientes e idénticamente distribuidas y que todos los numeros de valoración son enteros no
negativos.
(1)Demostrar que {Xn : n > 0} es una cadena de Markov.
(2)Hallar la matriz de transición de {Xn : n ≥ 1}
(3)Encontrar una expresión de la distribución estacionaria Π en términos de la función
generatriz de probabilidad de Yn
(4)Calcular Π cuando Gy (s) = p(1 − qs)−1
Ejercicio 3.11. Clasificar los estados de las cadenas de Markov, con matrices de
transición siguientes:
(a)
1 − 2p 2p 0
P = p 1 − 2p p
0 p 1−p
(b)
0 p 0 1−p
1−p 0 p 0
P =
0
1−p 0 p
p 0 1−p 0
Clasificar los estados de las cadenas de Markov, con matrices de transición siguientes:
(a)
1 − 2p 2p 0
P = p 1 − 2p p
0 p 1−p
(b)
0 p 0 1−p
1−p 0 p 0
P =
0
1−p 0 p
p 0 1−p 0
80
0 0 0.4 0.6 0
0 0.2 0 0.5 0.3
P ≡
0.5 0 0.5 0 0
0 0 1 0 0
0.3 0 0.5 0 0.2
Ejercicio 3.13. Clasificar los estados de la cadena de Markov dada por la matriz
adjunta, ası́ como su matriz lı́mite.
a b c d e f g
a 0.8 0 0 0 0 0.2 0
b 0 0 0 0 1 0 0
c 0.1 0 0.9 0 0 0 0
d 0 0 0 0.5 0 0 0.5
e 0 0.3 0 0 0.7 0 0
f 0 0 1 0 0 0 0
g 0 0.5 0 0 0 0.5 0
Ejercicio 3.14. Sea X una cadena de Markov con espacio de estados E={1,2,3,4,5,6,7,8}
y matriz de transición:
0.4 0.3 0.3 0 0 0 0 0
0 0.6 0.4 0 0 0 0 0
0.5 0.5 0 0 0 0 0 0
0 0 0 0 1 0 0 0
P =
0 0 0 0.8 0.2 0 0 0
0 0 0 0 0 0.4 0.6 0
0.4 0.4 0 0 0 0 0 0.2
0.1 0 0.3 0 0 0.6 0 0
clasificar los estados y determinar la matriz lı́mite.
Ejercicio 3.15. Clasificar los estados de la cadena de Markov dada por la siguiente
matriz de transición, ası́ como determinar la matriz limite.
1 2 3 4 5
1 0.5 0 0 0.5 0
2 0 0.6 0 0 0.4
c)
3 0.3 0 0.7 0 0
4 0 0 1 0 0
5 0 1 0 0 0
Ejercicio 3.16. Clasificar los estados de la cadena de Markov con la siguiente matriz
de transición, y su comportamiento lı́mite :
81
0.8 0 0.2 0
0 0 1 0
P =
1
0 0 0
0.3 0.4 0 0.3
Ejercicio 3.17. Estudiar las cadenas de Markov dadas por las matrices de transición:
p0 p1 p2 p3 · · h0 g0 0 0 0 ·
p0 p1 p2 p3 · · h1 g1 g0 0 0 ·
0 p0 p1 p2 · · h2 g2 g1 g0 0 ·
P = 0 0 p0 p2 · ·
Q= h3 g3 g2 g1 g0 ·
· · · · · · · · · · · ·
· · · · · · · · · · · ·
Ejercicio 3.19. El número de dı́as que transcurren hasta que se recibe una petición
para la suit presidencial de un hotel, es una v.a. G(p). Cada cliente que realiza la petición
de la suit por un número de dı́as que es una v.a. discreta X.
82