Una buena manera de ver lo que se considera estado del arte es verificar las referencias del último artículo.
Si un autor afirma ser de última generación, lo comparará con lo que considera los mejores modelos anteriores. Si desea una revisión extendida, solo tome más documentos y verifique qué referencias son comunes. Presta atención a la tarea que realizan, especialmente al conjunto de datos en el que están entrenando y probando.
A partir de hoy * el último artículo que leí sobre la traducción proviene del equipo de Google Brain y se llama Atención, es todo lo que necesita [1].
- ¿La traducción automática alguna vez reemplazará a los traductores humanos? ¿Cómo podría una traducción automática comprender el contexto sociolingüístico de un texto?
- ¿Cuáles son las mejores bibliotecas de redes neuronales de Python y Java con soporte multi gpu y multiplataforma?
- Cómo crear una representación jerárquica de un conjunto de objetos usando una red neuronal
- ¿Cuáles son algunas aplicaciones interesantes de salud personalizada?
- ¿Cuál es la mejor GPU que se utilizará para Deep Learning con presupuesto (> 400 $)?
A partir de aquí, obtiene una cifra que compara los resultados en dos tareas, inglés a alemán e inglés a francés (conjunto de datos WMT 2014), que es una línea de base bastante estándar.
Los dos modelos bottomost son los presentados en el documento. Los otros provienen de la bibliografía, por lo que puede encontrarlos en las referencias, ordenados por su número, y repetir lo que acabamos de hacer.
Como nota al margen, considere a Google como una entidad enormemente grande. Un equipo orientado a la investigación que publica sobre traducción no significa que de eso dependa actualmente Google Translate. En cambio, Traducir usa el modelo GNMT [2] (que está en la tabla)
Descargo de responsabilidad: no tengo nada que hacer / no tengo interés en promocionar Google. Si hay otro documento importante sobre NMT recientemente, por favor dígame.
[*]: Escrito en 2017–07–04
[1]: Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin, 2017, [1706.03762v4] La atención es todo lo que necesitas
[2]: Acerca del modelo de Google Translate: una red neuronal para la traducción automática, a escala de producción