Solo quiero enumerar los términos clave que reflejan la tendencia de NN hacia la generación del lenguaje natural:
Estos son los términos que puedo lanzar a primera vista, después de comprender su pregunta.
- Redes secuenciales: LSTM, GRU (una forma de RNN)
- Aumento de la ontología a redes secuenciales
Ahora, lo que se puede hacer a nivel del suelo de NN es, en realidad, podemos modelar NN de una manera que podamos extraer conocimiento explícito de él (características de las entradas). Esto se puede hacer mediante la remodelación de la función de estimación y la convergencia retardada en NN. Una vez hecho esto, se puede aumentar el sistema de respuesta a preguntas (con base de conocimiento) para generar la representación humana de la representación de la máquina. (https://cs.umd.edu/~miyyer/pubs/…)
- ¿Qué es la generalización en el aprendizaje automático?
- ¿Por qué la automatización está presionando tanto y provocando tanto retorcimiento de manos?
- ¿Hay demanda de IA, PNL y ML?
- ¿Cuál es la diferencia entre ensacado y aprendizaje en conjunto?
- ¿Qué libro es el mejor para aumentar el conocimiento sobre inteligencia artificial y robótica?
Ahora, hablando del poder de NN, esto se puede afirmar con una lista de problemas de investigación clave en NN:
- Poda adaptativa entre sinapsis en NN
- Aprendizaje basado en el estado en NN
- Aplicación de procesamiento gráfico de NN
- Aprendizaje profundo con vectores de palabras
Espero que haya apoyado respuestas anteriores !!