Clase Cadenas de Markov
Clase Cadenas de Markov
Clase Cadenas de Markov
MAESTRIA EN INGENIERIA
Clase 4
2 Procesos estocásticos
3 Cadena de Markov
Ecuaciones de Chapman-Kolmogorov
Clasificación de estados en una cadena de Markov
6 Cadenas absorbentes
Modelo clásico de personal
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Introducción
{Xn , n ∈ N}
donde el subíndice indica el instante de tiempo (o espacio)
correspondiente
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Definición
Sea (Ω, F , P ) un espacio de probabilidad. Un proceso estocástico
es una colección de variables aleatorias {Xt : t ∈ T }
parametrizada por un conjunto T llamado espacio parametral, y
con valores en un conjunto S llamado espacio de estados.
Ejemplos
Xt : número de personas que esperan un autobús en un
instante t donde t ∈ [9, 10]
Xt : precio de una acción de una empresa en un día t del mes
(t = 1, 2, 3, . . . , 30).
Xt : el número de personas que espera ante una ventanilla de
un banco en un instante t de tiempo
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Cadena de Markov
P {Xt +1 | Xt = it , Xt −1 = it −1 , . . . , X1 = i1 , X0 = i0 }
= P {Xt +1 = it +1 | Xt = it }
P {Xt +1 = j | Xt = i, Xt −1 = k, . . . , X0 = s }
(1)
= P {Xt +1 = j | Xt = i } = Pij (1) = Pij = Pij
Pasar del estado i al estado j en una sola transición
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Probabilidades de transición
Las probabilidades de transición de una cadena de markov discreta
de S estados, puede representarse como una matriz cuadrada S × S
P11 P12 · · · P1s
Pij = Pij = P = ... .. .. ..
(1)
. . .
Ps1 Ps2 · · · Pss
donde Pij ≥ 0, ∑sj=1 Pij =1
Ejemplo
Supongamos que el clima de cierta ciudad es lluvioso o despejado.
Como resultado de un amplio registro, se ha determinado que la
probabilidad de que se dé un día lluvioso después de un día
despejado es 13 , y la probabilidad de que se tenga un día lluvioso
después de otro día lluvioso es 12 .
Ejemplo
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Ecuaciones de Chapman-Kolmogorov
2 Procesos estocásticos
3 Cadena de Markov
Ecuaciones de Chapman-Kolmogorov
Clasificación de estados en una cadena de Markov
6 Cadenas absorbentes
Modelo clásico de personal
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Ecuaciones de Chapman-Kolmogorov
Ecuaciones de Chapman-Kolmogorov
s
∑ Pik
(n ) (m )
Pij (n + m) = Pkj = P (n +m )
k =1
Ecuaciones de Chapman-Kolmogorov
P [Xn = j | X0 = i ]
(
1, i =j
Pij (0) =
0, i 6= j
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
2 Procesos estocásticos
3 Cadena de Markov
Ecuaciones de Chapman-Kolmogorov
Clasificación de estados en una cadena de Markov
6 Cadenas absorbentes
Modelo clásico de personal
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Clasificación de estados
Definición 1
Sean i, j dos estados en una cadena de Markov, una trayectoria del
estado i al estado j, es una sucesión de transiciones que van desde
el estado i hasta el estado j
Definición 2
Se dice que un estado i es alcanzable desde un estado j si existe al
menos una trayectoria que vaya desde el estado j y llegue al estado
i
Definición 3
Se dice que dos estados i, j se comunican si el estado i es
alcanzable desde el estado j y j es alcanzable desde el estado i
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Definición 4
Se dice que un estado i es absorbente, si Pii = 1
Definición 5
Se dice que un estado i es transitorio si existe un estado j
alcanzable desde el estado, pero el estado i no es alcanzable desde
el estado j.
Definición 6
Se dice que un estado i es recurrente si no es transitorio ∃j tal que
i ←→ j
Definición 7
Se dice que un conjunto de estados de S es una clase cerrada si
ningún estado fuera de S es alcanzable por un estado que
pertenezca a S
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Definición 8
Se dice que un estado i tiene periodo k; k ≥ 2 ∈ Z+ , si k es el
M.C.D. de todas las trayectorias que salen de i y regresan a i. Si
k = 1, entonces se dice que el estado es aperiódico
Definición 9
Si en una cadena de Markov todos sus estados son recurrentes,
aperiódicos y se comunican entre sí, se dice que la cadena es
ergódica.
Ejemplo
En cierta ciudad, al 90 % de los días soleados siguen días soleados,
y al 80 % de los días nubados siguen días nubados. Con esta
información modelar el clima de esta ciudad como una cadena de
Markov
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Π1 Π2 · · · Πs
(n ) .. .. .. ..
l«ım Pij = . . . .
n→∞
Π1 Π2 · · · Πs
s
∑ Πj = 1
j =1
El vector Π
~ se conoce como distribución de estado estable o
estacionario y cada Πj se llama probabilidad de estado estable.
Para cada estado inicial i, se cumple que:
(n +1)
l«ım Pij (n) = l«ım Pij = Πj
n→∞ n→∞
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
y
1
mii =
Πi
Acciones
Para el ejemplo de los dos tipos de acciones. Determine e
interprete los tiempos promedios de primer pasaje
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
Cadenas absorbentes
2 Procesos estocásticos
3 Cadena de Markov
Ecuaciones de Chapman-Kolmogorov
Clasificación de estados en una cadena de Markov
6 Cadenas absorbentes
Modelo clásico de personal
Simulación Monte Carlo Procesos estocásticos Cadena de Markov Probabilidad de estado estable Tiempos promedio de primer pa
l«ım Ni (t ) = N = {N1 , N2 , . . . , Ns }
t →∞
N = [ N1 , N2 , . . . , Ns ]
n
N= ∑ Nk
k =1
Quiz
X \Y 0 1 2
1 0,2 α β
2 γ 0,1 δ
3 η κ 0, 3
Determinar valores para α, β, γ, δ, η y κ de tal manera que
P (X = 1) = 0,4, P (X = 2) = 0,3, P (Y = 0) = 0,2 y
P (Y = 2) = 0,6,