Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
Cadena de Markov
La cadena de Markov, también conocida como modelo de Markov o proceso de
Markov, es un concepto desarrollado dentro de la teoría de la probabilidad y la
estadística que establece una fuerte dependencia entre un evento y otro suceso
anterior. Su principal utilidad es el análisis del comportamiento de procesos
estocásticos.
Cada subtemas que vamos a definir está relacionado a la cadena de markov que
son:
Proceso estocástico
Cadenas de Markov
Formulación de procesos como cadenas de Markov
Condiciones de estados estables
Cadenas absorbentes
Desarrollo
Proceso estocástico
En el estudio de las variables aleatorias realizado hasta ahora se han explorado las
características aleatorias del fenómeno pero se ha mantenido una premisa por
defecto, que esas
Características aleatorias permanecen constantes a través del tiempo. Al incluir
en el estudio la presencia de la variable determinística tiempo se está
considerando que, de alguna
Forma, la variable aleatoria depende del tiempo. En otras palabras, la variable
aleatoria
Dependerá del fenómeno probabilístico y del tiempo. En consecuencia, cualquier
función que
Se establezca en términos de la variable aleatoria, como lo son la función de
distribución o
La función de densidad, serán también dependientes del tiempo.
Por otro lado, La variable tiempo puede ser de tipo discreto o de tipo continuo. En
el caso del tiempo discreto se podría tomar como ejemplo que los cambios de
estado ocurran cada día, cada mes, cada año, etc... En el caso del tiempo
continuo, los cambios de estado se podrían realizar en cualquier instante.
Por tanto, dependiendo de cómo sea el conjunto de subíndices T y el tipo de
variable aleatoria dado por Xt se puede establecer la siguiente clasificación de los
procesos estocásticos:
Clasificación de cadenas
Cadenas irreducibles
Una cadena irreducible es aquella en la que todos los estados son alcanzables
desde cualquier otro estado de la cadena en un número finito de pasos.
Conjuntos cerrados
Una cadena de Markov puede contener algunos estados que sean recurrentes,
otros que sean transitorios y otros que sean absorbentes. Los estados recurrentes
pueden ser parte de subcadenas cerradas.
Cadenas ergódicas
Se tenía que todos los estados en una cadena irreducible pertenecen a la misma
clase. Si todos los estados son ergódicos, esto es, recurrentes, no nulos y
aperiódicos entonces se define la cadena como ergódica.
Condiciones de estados estables
Estados
Los estados son la caracterización de la situación en que se halla el sistema
en un instante dado, de dicha caracterización puede ser tanto cuantitativa
como cualitativa.
El estado de un sistema en un instante t es una variable cuyos valores solo
pueden pertenecer al conjunto de estaos en el sistema. El sistema
modelizado por la cadena, por lo tanto, es una variable que cambia con el
valor del tiempo, cambio al que llamamos transición.
Bibliografía
https://economipedia.com/definiciones/cadena-de-markov.html
http://www.dmae.upct.es/~mcruiz/Telem06/Teoria/apuntes_procesos.pdf
https://www.scoop.it/topic/unidad-iv-cadenas-de-markov-1
http://investigacindeoperaciones2.blogspot.com/2011/06/l.com