La investigación de reconocimiento de voz es bastante fácil de rastrear. Solo hay dos grandes conferencias: ICASSP e InterSpeech. La lista conjunta de documentos de dos conferencias cubre casi todo lo que sucede en la investigación del habla, y la mayor parte del contenido está duplicado entre ellos.
Este año ICASSP estuvo en Japón, mi resumen está aquí
Puede encontrar una pequeña recapitulación de la última versión de Interspeech en el blog sobre Procesamiento de lenguaje hablado.
- ¿Es obligatorio aprender el lenguaje R para el aprendizaje automático o Python es suficiente?
- ¿Cómo funciona el algoritmo de fijación de precios de Uber?
- ¿Cuáles son las características importantes para el análisis de sentimientos basado en aspectos en el enfoque de aprendizaje automático? ¿Qué algoritmos se pueden usar para extraer estas características?
- ¿Cuáles son los algoritmos / documentos de última generación sobre clasificación y recuperación de imágenes?
- ¿Qué área de la PNL es más prometedora y gana más tracción en la industria: la PNL sobre los datos de voz frente a texto?
El progreso en el campo fue mayormente graduado. El aprendizaje profundo es el tema candente este año, por ejemplo, también fue cubierto ampliamente en NIPS2012, una de las conferencias más famosas sobre aprendizaje automático. Pero los resultados del aprendizaje profundo también podrían atribuirse a 2011. Hasta ahora, 2012 fue el año de la adopción práctica del reconocimiento de voz con Siri y sus amigos obteniendo una amplia audiencia.