Los modelos de DNN son mejores clasificadores que los GMM, pueden generalizarse mucho mejor con un número menor de parámetros sobre distribuciones complejas.
Modelan distribuciones de diferentes clases en conjunto, esto se llama aprendizaje “distribuido” o, más apropiadamente, aprendizaje “atado”. En GMM usted modela cada senone por separado con un conjunto separado de GMM, en DNN sus características se clasifican juntas y se calcula la distribución de senone posteriores.
En su confusión con las alineaciones, tome nota de que la alineación para el entrenamiento se calcula para todo el enunciado, pero el contexto para el clasificador es diferente. Los DNN pueden modelar un contexto mucho más largo. En el sistema GMM es típico modelar simplemente 7–9 cuadros en bruto, los modelos GMM no mejoran si aumenta el contexto debido a la convexidad de la distribución que modelan. En el sistema DNN es común considerar el contexto de 40 cuadros en bruto y los modelos DNN no tienen ningún problema con eso. Incluso puede usar redes recurrentes como LSTM para modelar contextos muy largos. Con mucho más contexto, puede predecir las clases de senone mucho mejor.
- ¿Es cierto que incluso si podemos modelar a partir de la distribución del modelo [matemática] p (x) [/ matemática], el muestreo de importancia óptima no es [matemática] p (x) [/ matemática]?
- ¿Se puede usar tensorflow en SVM?
- ¿Por qué las redes neuronales recurrentes no pueden ampliarse bien?
- ¿Qué saben los profesionales del aprendizaje automático y los científicos de datos de la industria sobre el análisis, la probabilidad basada en la teoría de la medida y el álgebra lineal numérica?
- ¿Cuáles son algunas trampas comunes al estudiar la clasificación en el aprendizaje automático?
Los DNN también pueden integrar diferentes características adicionales de entrada, como i-vectores dependientes del altavoz o retardo de reverberación de una manera muy simple. Simplemente agregue el vector a las características de entrada.
Los modelos DNN realmente pueden predecir la alineación por sí solos, en el reciente enfoque de reconocimiento de voz de extremo a extremo no necesita GMM, simplemente configura las características de origen y los objetivos y DNN aprende por sí mismo. Verifique srvk / eesen para más detalles.