¿Cuál será el próximo gran avance conceptual en redes neuronales artificiales, después del concepto de atención? ¿Cómo te imaginas que se está implementando?

El siguiente paso conceptual para las redes neuronales (NN) después de la atención es el razonamiento . Las redes neuronales actuales no pueden razonar porque solo implementan una función de mapeo de avance, incluso los LSTM no razonan porque simplemente funcionan en un dominio espacial-temporal que es bueno para los estímulos de series temporales. Su memoria a largo plazo solo se trata de recordar la señal variable de la serie temporal y no con el propósito de razonar o prestar atención.

El razonamiento requiere acceso a la memoria a gran escala, esta característica no se encuentra en las NN actuales. Una memoria de trabajo para el razonamiento a largo y corto plazo para la resolución de problemas complejos es absolutamente importante para la IA y la robótica en general. Es importante para la inferencia causal y la planificación, que a su vez son muy importantes en los sistemas financieros y los automóviles autónomos.

Las redes neuronales necesitan atención y memoria de trabajo para resolver problemas más complejos basados ​​en el razonamiento. Necesitan un sistema de memoria a largo y corto plazo al que puedan acceder rápidamente. Imagine que una red neuronal puede probar una teoría matemática o derivar una expresión matemática, esto requiere atención, razonamiento y una memoria a gran escala para realizar un seguimiento de los procesos de razonamiento atento.

La atención, el razonamiento y la memoria van de la mano porque la atención requiere alguna forma de memoria intermedia mientras el proceso atento se mueve de una tarea a otra y el razonamiento requiere atención. Por lo tanto, el acceso a la memoria a gran escala para NNs es muy crítico para que se resuelva la atención y el razonamiento.

Pero como puede ver en las redes de memoria jerárquica, las redes neuronales aún no son capaces de acceder a un gran depósito de memoria. Creo que las redes de memoria son una clave para desbloquear la atención y el razonamiento, por lo tanto, el enfoque debe de alguna manera cambiarse para que las redes neuronales funcionen con memoria muy grande. De esta manera, será más fácil resolver la atención primero que el razonamiento.

Quizás incluso el concepto de conciencia seguirá naturalmente después de que se resuelva el razonamiento en NNs. Luego habrá un debate sobre la posibilidad de la conciencia en el razonamiento de las redes neuronales que traerá varios buenos y malos resultados. Pero desde el punto de vista de la aplicación, esto traerá robótica y sistemas de IA realmente avanzados.

El mundo nunca volvería a ser el mismo.

Espero que esto ayude.