Cuando te refieres a ‘ bueno ‘, supongo que estás hablando de la actuación .
Me gusta inspirarme en la comunidad de la visión. Como ya sabe, Deep Learning ha mejorado el rendimiento del modelo de vanguardia para muchos de los problemas de visión más difíciles, como la clasificación de imágenes, la generación de subtítulos por puntos increíbles. Empresas como Google, Facebook pueden replicar el éxito académico para mejorar sus productos basados en la visión que todos usamos.
¿Cómo es el escenario para la PNL? ¿Es tan bueno como lo que los medios quieren que sea?
- ¿Qué enfoques / regulaciones se utilizan para manejar el 'problema mínimo / máximo local' cuando se usa el descenso de gradiente con redes neuronales profundas?
- Teoría de la complejidad computacional: ¿Qué es un problema NP difícil?
- ¿Por qué los lars y glmnet dan diferentes soluciones? ¿Cuál es mejor?
- ¿Cómo lidiamos con conjuntos de datos muy grandes que no caben en la RAM?
- ¿Cuáles son los 10 mejores algoritmos de minería de datos o aprendizaje automático? En 2006, la Conferencia IEEE sobre minería de datos identificó los 10 algoritmos principales. ¿Siguen siendo válidos?
Muy diferente.
Un miembro de Google Brain (olvidó el nombre) sucintamente lo pone en perspectiva:
‘Los resultados de Deep learning for Vision están al menos 5 años por delante de los de PNL’
Sí, estamos lejos (probablemente demasiado lejos de 5 años) de hacer que DL funcione (o identificar alguna otra tecnología) para resolver los problemas más difíciles de PNL, como construir sistemas de diálogo que puedan interactuar con el resumen humano y automático de un texto largo.
Sin embargo, tenemos algunas historias positivas que vale la pena mencionar. La traducción automática neuronal de Google ha reducido la tasa de error de palabras en números locos al vencer a un modelo SMT de una década.
Solo espero que en el futuro vengan historias de éxito similares para que otros problemas de PNL aclaren la “bondad” de DL para PNL.
¡Estén atentos a arxiv!