Un HMM tradicional es un modelo que calcula la probabilidad de una secuencia de datos [matemática] {x_1, … x_n} [/ matemática] utilizando variables latentes [matemática] s_j [/ matemática] que son los estados HMM y las probabilidades condicionales [matemática] p (x_i | s_j) [/ math], que son las distribuciones de emisiones de estado HMM y las probabilidades de transición de estado [math] p (s_j | s_k) [/ math] que definen la topología de HMM.
Un ANN es un modelo que da una muestra [matemática] x_i [/ matemática] estima un posterior de una clase [matemática] p (c_m | x_i) [/ matemática]. Un truco utilizado en ASR es entrenar un ANN para estimar las probabilidades posteriores de estados HMM [matemática] p (s_j | x_i) [/ matemática]. Luego, las distribuciones de emisiones se reemplazan con las estimaciones posteriores de ANN utilizando la regla de Baye [matemáticas] p (x_i | s_j) = p (s_j | x_i) p (s_j) / p (x_i) [/ matemáticas]. Como [math] p (x_i) [/ math] no cambia con la alineación del estado, puede ignorarse. Este enfoque puede funcionar bastante bien dependiendo de cómo se capacite el ANN (DNN). Por lo general, esto requiere un sistema ASR de vanguardia tradicional para generar datos de entrenamiento etiquetados.
- Cómo evaluar la agrupación de k-medias en R
- ¿Qué algoritmos (aprendizaje automático y aprendizaje profundo) funcionan con un pequeño conjunto de datos, sin sobreajustarlo?
- ¿Cuál es la diferencia entre los ingenuos Bayes y los algoritmos de máquina de vectores de soporte?
- ¿La máquina está aprendiendo la 'versión del hombre tonto' de intentar recrear la inteligencia?
- ¿Qué es la validación cruzada?