¿Cuál es la diferencia entre una cadena de Markov recurrente y una cadena de Markov absorbente?

En una cadena de Markov recurrente, la probabilidad de que regrese a un estado determinado en algún momento después de visitarla es una. Sin embargo, puede visitar otros estados en el camino.

En una cadena de Markov con estados absorbentes, hay al menos un estado [matemática] s [/ matemática] tal que [matemática] p_ {ss} = 1 [/ matemática]. Una vez que llegas a ese estado, no te vas.

También existe la posibilidad de que haya un conjunto absorbente de estados. Considere la cadena de Markov en el espacio de estado [matemática] \ {0, 1, 2 \} [/ matemática] con [matemática] p_ {01} = p_ {02} = \ frac {1} {2} [/ matemática] y [matemáticas] p_ {12} = p_ {21} = 1 [/ matemáticas]. En este caso, ninguno de los estados [matemática] 1 [/ matemática] o [matemática] 2 [/ matemática] es absorbente, pero el estado [matemática] 0 [/ matemática] no es recurrente.

En las cadenas de Markov sobre espacios de estado infinitos, también tiene la posibilidad de que ningún conjunto de estados esté absorbiendo y no haya estados recurrentes. Un ejemplo de esto es una cadena de Markov en los enteros comenzados en [matemática] 0 [/ matemática] con las probabilidades de transición dadas por [matemática] p_ {z, z + 1} = 1 [/ matemática] para todos [matemática] z \ in \ mathbb {Z} [/ math].

En una cadena de Markov absorbente, la masa de probabilidad puede atascarse. Si las cosas se atascan en el estado [math] s [/ math] y sigue fluyendo hacia [math] \ mapsto s [/ math] (lo que sucederá mientras el sistema siga comportándose como estaba) y nunca fluya [math] s \ mapsto [/ math], luego eventualmente toda la masa de probabilidad se acumulará en [math] s [/ math].

Aquí hay un dibujo realmente malo:

En la imagen de la izquierda, todo lo que se introduce en [math] \ fbox {1} [/ math] permanece allí. A la derecha, las cosas “palomitas de maíz” van y vienen entre [matemáticas] 1 [/ matemáticas] y [matemáticas] 2 [/ matemáticas].

De cualquier manera, no hay un “camino de regreso” (observe que las puntas de flecha no apuntan hacia la nube principal). Entonces, eventualmente todo se filtrará en [matemáticas] 1 [/ matemáticas] o [matemáticas] 2 [/ matemáticas] y nunca se irá.

Algunos ejemplos de estados absorbentes (de los cuales es posible escapar) podrían incluir:

  • muerte
  • Florida, para personas mayores
  • Esposas chinas
  • aprender Papá Noel no existe
  • rompiendo para siempre
  • la puerta sin salida
  • floraciones de algas
  • lluvia que fluye al pie de una colina
  • Adán y Eva comiendo el fruto del árbol del conocimiento del bien y del mal
  • ¿Acaso los Elfos de la Tierra Media no navegan a alguna tierra de la que no pueden regresar?

More Interesting

¿Cuál es el mejor enfoque híbrido para construir un sistema de recomendación para datos de música?

¿Cuál es el propósito de visualizar las capas de activación en una arquitectura de red neuronal convolucional?

¿Cuáles son algunos buenos libros para principiantes y avanzados sobre redes neuronales e inteligencia artificial?

¿Cómo se puede modelar la interacción Radar y Jammer a través del aprendizaje automático?

¿Cómo se diseñan las redes neuronales artificiales y qué teoremas académicos las respaldan?

¿Es el enlace neuronal una tecnología que podría funcionar?

¿Cuáles son algunos de los requisitos previos necesarios para aprender el aprendizaje automático o la inteligencia artificial?

¿En qué se diferencia el aprendizaje automático de la minería de datos?

¿Cuáles son las cosas divertidas que encontró en el procesamiento del lenguaje natural (PNL)?

Cómo extraer contenido del sitio web con procesamiento de lenguaje natural

Aprendizaje profundo: ¿Por qué no utilizar el entrenamiento sin supervisión para las redes neuronales más tradicionales (superficiales)?

¿Qué conocimiento debo tener antes de aprender el aprendizaje automático?

¿Cómo debo usar máquinas restringidas de Boltzmann para el filtrado colaborativo?

¿Dónde puedo encontrar una biblioteca pública de algoritmos de aprendizaje automático (ML) y aprendizaje profundo (DL) con muestras?

¿Hay orden entre las características de las incrustaciones de palabras?