Preámbulo: la pregunta pide una revisión. Esto me llevó a dar respuestas bastante académicas con muchos documentos involucrados. Mi respuesta a la pregunta principal es un sí sólido (sin muchas discusiones), luego entro en detalles de las técnicas. No siempre doy documentos de última generación, sino técnicas importantes que se utilizan principalmente. (y eso lleva al estado del arte)
Resulta que sí. Actualmente, la PNL gira completamente en torno al aprendizaje profundo.
La mayoría de los campos aquí son sin dudas liderados por Neural Networks.
- ¿Cómo ser bueno en la programación de Python si quiero aprender el aprendizaje automático? ¿Son estos problemas diferentes de la programación competitiva?
- ¿Qué tan avanzado es el aprendizaje autónomo robótico?
- ¿Cómo construye Apple su red neuronal para el nuevo iPhone X Face ID? Los usuarios solo registran sus caras una vez cuando configuran el teléfono inicialmente, entonces, ¿cómo podría esa foto de los usuarios ser un conjunto de entrenamiento lo suficientemente grande como para entrenar la red neuronal?
- ¿Qué biblioteca de Java utilizas para los algoritmos genéticos? ¿Por qué?
- ¿Importa el número de imágenes para cada categoría mientras se entrena para una red neuronal convolucional?
Al menos, aquí están los campos que mejor conozco y en los que las redes neuronales son el estado actual del arte, con referencia a obras importantes:
- Modelado de lenguaje (es decir, modelo probabilístico para predecir la probabilidad de la siguiente palabra o llenar un espacio en blanco)
- Yoshua Bengio presentando Modelos de lenguaje de red neuronal (NNLM ) – Bengio, et al., (2003) – Un modelo de lenguaje neural probabilístico
- Thomas Mikolov Presentación de word2vec – Mikolov, et al., (2013) Estimación eficiente de las representaciones de palabras en el espacio vectorial
- Traducción automática: obtuvo resultados increíbles utilizando las redes neuronales recurrentes (RNN) y específicamente una arquitectura codificador-decodificador para aprender la alineación secuencia a secuencia.
- Kalchbrenner, Blunsom (2013) – Modelos de traducción continua recurrente – De NNLM a secuencia a secuencia
- Cho, et al., (2014), Aprendizaje de representaciones de frases usando el codificador-decodificador RNN para la traducción automática estadística – Presentando lo que luego se denominará Unidad recurrente cerrada (GRU).
- Sutskever, et al., (2014) – Secuencia a secuencia de aprendizaje con redes neuronales: muy cerca de la anterior pero usando LSTM.
- Bahdanau et al, (2014), TRADUCCIÓN DE LA MÁQUINA NEURAL APRENDIENDO CONJUNTA A ALINEAR Y TRADUCIR – Presenta el mecanismo de atención
- Resumen automático de texto: este campo está muy relacionado con la traducción automática. Utiliza las mismas técnicas.
- Chopra, Auli, Rush (2016) – Resumen de oraciones abstractas con redes neuronales recurrentes atentas – Codificador-decodificador, Mecanismo de atención, Búsqueda de haz
- Nallapati et al (2016) – Resumen de texto abstracto usando RNN de secuencia a secuencia y más allá – enfoque realmente similar
Sé con certeza que las redes neuronales son, con mucho, el mejor enfoque. Por lo tanto, diría que no logrará el estado de la técnica con otra cosa (¡o sería un trabajo importante!).
¡No me malinterpreten, esto no dice que no deberían considerar otra cosa que las redes neuronales! Dependiendo de sus necesidades y recursos, ¡otros enfoques podrían encajar mejor!
Tenga en cuenta que algunas otras tareas están estrechamente relacionadas con esta. Por ejemplo, estaría bastante seguro de que las preguntas de respuesta y los agentes de conversación son los mejores con NN.
Por último, si bien no menos importante:
- Reconocimiento automático de voz (ASR), es decir, voz a texto. Sé que se trabaja mucho con Neural Network, pero supongo que todavía hay otros enfoques que funcionan bien.
Espero que ayude, ¡no dude en discutir en comentarios o sugerir ediciones!