¿Las redes neuronales tienen suficiente poder para la generación del lenguaje natural?

Solo quiero enumerar los términos clave que reflejan la tendencia de NN hacia la generación del lenguaje natural:

Estos son los términos que puedo lanzar a primera vista, después de comprender su pregunta.

  1. Redes secuenciales: LSTM, GRU (una forma de RNN)
  2. Aumento de la ontología a redes secuenciales

Ahora, lo que se puede hacer a nivel del suelo de NN es, en realidad, podemos modelar NN de una manera que podamos extraer conocimiento explícito de él (características de las entradas). Esto se puede hacer mediante la remodelación de la función de estimación y la convergencia retardada en NN. Una vez hecho esto, se puede aumentar el sistema de respuesta a preguntas (con base de conocimiento) para generar la representación humana de la representación de la máquina. (https://cs.umd.edu/~miyyer/pubs/…)

Ahora, hablando del poder de NN, esto se puede afirmar con una lista de problemas de investigación clave en NN:

  1. Poda adaptativa entre sinapsis en NN
  2. Aprendizaje basado en el estado en NN
  3. Aplicación de procesamiento gráfico de NN
  4. Aprendizaje profundo con vectores de palabras

Espero que haya apoyado respuestas anteriores !!

La respuesta corta es no.

El lenguaje natural no surge directamente de los sensores que reciben la información que permite la interacción con un entorno. Los ingredientes que faltan son la retroalimentación internalizada que utiliza respuestas que proporcionan formularios de datos (en lugar de señales de sensores). Estos “estados” son respuestas potenciales que pueden proporcionar las referencias necesarias para los modelos. Luego está el conjunto de objetivos que impulsa los modelos de planificación (proporcionando un flujo recursivo amable que podemos llamar un proceso (como el pensamiento) y los qualia: la capacidad de visualizar relaciones a veces que son irreales (no se encuentran en el entorno sino solo en cada cabeza específica), pero a partir de la cual podemos discriminar las relaciones espaciales y temporales, por ejemplo, el color. La forma última de la experiencia irreal es quizás la conciencia. Esto es necesario para definir formas lingüísticas en términos de esos estados (respuestas potenciales).

Las redes neuronales se pueden hacer para vincular una palabra a una entrada desde los sensores, esto también se puede hacer usando técnicas de clasificación (por ejemplo, análisis de componentes principales, agrupamiento, etc.) pero su conjunto de entrenamiento es aplicado por los programadores, por lo que la asociación es realmente un mapeo simple: imagen (27 (= un gato)) – emite la palabra “gato”. Esto no está usando el lenguaje en absoluto.

Las redes neuronales están involucradas en todo momento, pero por sí mismas pueden tratarse como bloques de construcción para otros fenómenos. El ingrediente que más se pierde es el ambiente constante que probamos continuamente.

Hm, esa es una muy buena pregunta. Sí, yo digo que sí. ¿Por qué?

-> Debido a que una red semántica en forma de una red neuronal (por ejemplo, como ya mencioné en una respuesta anterior, un ‘automóvil’ se puede dividir en ‘chasis, volante, frenos, ventanas, …’, que no es exactamente un web semántica, pero más de una definición de jerarquía; una red semántica es, por ejemplo, esta: red semántica – Wikipedia) es, en mi opinión, la ÚNICA forma razonable y discutida de representación del conocimiento humano en ese momento.

En resumen: si desea generar ‘lenguaje natural’ en cualquier idioma del mundo, debe comprender los conceptos que existen en ese idioma. Por ejemplo, los inuits tienen más de 30 expresiones diferentes para la nieve. En Eslovenia, denotamos nieve con unos 3-5 términos diferentes.

Lo que estoy tratando de decir aquí es que “el contexto es el rey de todo”. Nada existe sin un contexto y viceversa.