¿La investigación actual sobre el procesamiento del lenguaje natural gira principalmente en torno al aprendizaje profundo? Si no, ¿cuáles son las técnicas modernas alternativas?

Preámbulo: la pregunta pide una revisión. Esto me llevó a dar respuestas bastante académicas con muchos documentos involucrados. Mi respuesta a la pregunta principal es un sí sólido (sin muchas discusiones), luego entro en detalles de las técnicas. No siempre doy documentos de última generación, sino técnicas importantes que se utilizan principalmente. (y eso lleva al estado del arte)


Resulta que sí. Actualmente, la PNL gira completamente en torno al aprendizaje profundo.

La mayoría de los campos aquí son sin dudas liderados por Neural Networks.

Al menos, aquí están los campos que mejor conozco y en los que las redes neuronales son el estado actual del arte, con referencia a obras importantes:

  • Modelado de lenguaje (es decir, modelo probabilístico para predecir la probabilidad de la siguiente palabra o llenar un espacio en blanco)
    • Yoshua Bengio presentando Modelos de lenguaje de red neuronal (NNLM ) – Bengio, et al., (2003) – Un modelo de lenguaje neural probabilístico
    • Thomas Mikolov Presentación de word2vec – Mikolov, et al., (2013) Estimación eficiente de las representaciones de palabras en el espacio vectorial
  • Traducción automática: obtuvo resultados increíbles utilizando las redes neuronales recurrentes (RNN) y específicamente una arquitectura codificador-decodificador para aprender la alineación secuencia a secuencia.
    • Kalchbrenner, Blunsom (2013) – Modelos de traducción continua recurrente – De NNLM a secuencia a secuencia
    • Cho, et al., (2014), Aprendizaje de representaciones de frases usando el codificador-decodificador RNN para la traducción automática estadística – Presentando lo que luego se denominará Unidad recurrente cerrada (GRU).
    • Sutskever, et al., (2014) – Secuencia a secuencia de aprendizaje con redes neuronales: muy cerca de la anterior pero usando LSTM.
    • Bahdanau et al, (2014), TRADUCCIÓN DE LA MÁQUINA NEURAL APRENDIENDO CONJUNTA A ALINEAR Y TRADUCIR – Presenta el mecanismo de atención
  • Resumen automático de texto: este campo está muy relacionado con la traducción automática. Utiliza las mismas técnicas.
    • Chopra, Auli, Rush (2016) – Resumen de oraciones abstractas con redes neuronales recurrentes atentas – Codificador-decodificador, Mecanismo de atención, Búsqueda de haz
    • Nallapati et al (2016) – Resumen de texto abstracto usando RNN de secuencia a secuencia y más allá – enfoque realmente similar

Sé con certeza que las redes neuronales son, con mucho, el mejor enfoque. Por lo tanto, diría que no logrará el estado de la técnica con otra cosa (¡o sería un trabajo importante!).

¡No me malinterpreten, esto no dice que no deberían considerar otra cosa que las redes neuronales! Dependiendo de sus necesidades y recursos, ¡otros enfoques podrían encajar mejor!

Tenga en cuenta que algunas otras tareas están estrechamente relacionadas con esta. Por ejemplo, estaría bastante seguro de que las preguntas de respuesta y los agentes de conversación son los mejores con NN.


Por último, si bien no menos importante:

  • Reconocimiento automático de voz (ASR), es decir, voz a texto. Sé que se trabaja mucho con Neural Network, pero supongo que todavía hay otros enfoques que funcionan bien.

Espero que ayude, ¡no dude en discutir en comentarios o sugerir ediciones!

El aprendizaje profundo tuvo un gran impacto en la ciencia de la computación, especialmente en la visión por computadora, en los últimos años, por lo que muchos esperarían una gran mejora en la PNL también, pero este campo es de alguna manera más complejo que comprender y clasificar las imágenes.

La PNL requiere una comprensión de las palabras y su semántica, por lo que para comprender completamente las oraciones largas, extraer sus aspectos importantes y hacer conexiones internas con el concepto que cada palabra indica. El aprendizaje profundo ha dado muy buenos resultados en la transición automática, pero nadie piensa que sería tan impactante como en la visión por computadora.

Le sugiero que lea “Lingüística computacional y aprendizaje profundo” de Chris Manning, en el que explica por qué probablemente el aprendizaje profundo no será suficiente.

“Nuestro campo es el dominio de la ciencia de la tecnología del lenguaje; no se trata del mejor método de aprendizaje automático: el problema central sigue siendo el dominio de los problemas. Los problemas de dominio no desaparecerán “.

“En particular para el lenguaje, la comprensión de oraciones novedosas y complejas depende de manera crucial de poder construir su significado de forma compositiva a partir de partes más pequeñas, palabras y expresiones de varias palabras, de las cuales están constituidas”.

Muchas son las técnicas utilizadas en PNL: desde el análisis morfológico hasta el análisis semántico, el modelado del lenguaje, los gráficos de conocimiento, etc.

Por esta razón, algunos investigadores creen que la cantidad actual de arquitecturas de datos + aprendizaje profundo no es suficiente para comprender la complejidad del lenguaje humano.

More Interesting

¿Qué tecnologías que no son de IBM se están utilizando para mejorar el ecosistema de IBM Watson?

¿Cuándo se ajusta bien un modelo de mezcla gaussiana?

Cómo obtener la distribución de probabilidad de clases con píxeles que son 0 o 255

¿Qué significa 'estimación ML o MAP no captura la incertidumbre de los parámetros'?

¿Las imágenes captcha perderían su importancia si las técnicas de procesamiento de imágenes pudieran reconocer a los personajes automáticamente?

¿Cuál es un buen conjunto de datos de Kaggle para practicar el ajuste de modelos de regresión logística o modelos jerárquicos?

¿Cuál es la diferencia entre adaboost y el clasificador de perceptrones de una capa?

Cómo aprender a crear un sistema óptico de reconocimiento de caracteres utilizando redes neuronales artificiales como mi mini proyecto

¿Cuáles son los beneficios del filtrado colaborativo?

¿Cuál es más eficiente para los algoritmos de reconocimiento facial, PCA o LDA?

¿Dónde se usa la función de pérdida con clases verdaderas desconocidas?

¿Cuál es el método de detección de objetos de última generación para la identificación de objetos dentro de la imagen?

Redes neuronales convolucionales: ¿Cuáles son algunos posibles proyectos de cursos de aprendizaje automático de nivel de posgrado que utilizan CNN? Específicamente en el límite de PNL y CV.

Cómo combinar un clasificador basado en características con un modelo de serie temporal como ARIMA

En el procesamiento del lenguaje natural para realizar análisis semántico, ¿es útil y necesario generar un árbol de análisis?