En una cadena de Markov recurrente, la probabilidad de que regrese a un estado determinado en algún momento después de visitarla es una. Sin embargo, puede visitar otros estados en el camino.
En una cadena de Markov con estados absorbentes, hay al menos un estado [matemática] s [/ matemática] tal que [matemática] p_ {ss} = 1 [/ matemática]. Una vez que llegas a ese estado, no te vas.
También existe la posibilidad de que haya un conjunto absorbente de estados. Considere la cadena de Markov en el espacio de estado [matemática] \ {0, 1, 2 \} [/ matemática] con [matemática] p_ {01} = p_ {02} = \ frac {1} {2} [/ matemática] y [matemáticas] p_ {12} = p_ {21} = 1 [/ matemáticas]. En este caso, ninguno de los estados [matemática] 1 [/ matemática] o [matemática] 2 [/ matemática] es absorbente, pero el estado [matemática] 0 [/ matemática] no es recurrente.
- ¿Por qué es mejor usar la función Softmax que la función sigmoidea?
- ¿La máquina está aprendiendo la 'versión del hombre tonto' de intentar recrear la inteligencia?
- ¿Cómo creo un conjunto de datos como MNIST para reconocer caracteres de otro idioma? Tengo un conjunto de datos como una carpeta de imágenes. ¿Cómo uso eso en Tensorflow?
- Cómo comprender mejor las funciones de activación en el aprendizaje automático, especialmente las matemáticas detrás de ellas
- En la regresión cuadrática, ¿por qué tengo que mantener una variable y su aumento exponencial en el mismo modelo?
En las cadenas de Markov sobre espacios de estado infinitos, también tiene la posibilidad de que ningún conjunto de estados esté absorbiendo y no haya estados recurrentes. Un ejemplo de esto es una cadena de Markov en los enteros comenzados en [matemática] 0 [/ matemática] con las probabilidades de transición dadas por [matemática] p_ {z, z + 1} = 1 [/ matemática] para todos [matemática] z \ in \ mathbb {Z} [/ math].