¿Cómo se crea una red neuronal capaz de razonamiento abstracto?

Si un algoritmo de inferencia formal de complejidad útil se toma como paradigma de referencia, es probable que ninguna red neuronal, incluidas las biológicas, sea capaz de cumplir el paradigma perfectamente, pero es bastante factible entrenar uno biológicamente plástico (ya que tenemos existencia pruebas en excelentes razonadores humanos), o para construir (en mi opinión) una arquitectura adecuada artificialmente, a una aproximación útil del paradigma.

No voy a pretender tener un cierre completo de la pregunta, hasta y a menos que haya construido una, pero creo que es útil decir que se requieren ciertos componentes o aspectos:

1) Un modelo de secuencia cognitiva. Esto es similar a un modelo de lenguaje, pero abstraído a conceptos dominantes de estructura profunda, en lugar de adaptarse a una forma superficial. Es, en la medida más gruesa, un tipo de memoria autoasociativa.

2) Un marco de refuerzo que abarca el refuerzo inhibitorio y excitador, de modo que favorezca un conectoma zipfiano, con abandono estocástico para efectuar la representación holográfica y evitar el sobreajuste reflexivo (es decir, la generalización del efecto).

3) Una función objetivo de bootstrap. Esto puede ser proporcionado por un razonador automático algorítmico.

4) Una codificación bootstrap. Sugiero Glove.

5) Una base de conocimiento que incluye representaciones formales y / o en lenguaje natural de las premisas para el razonamiento. Las premisas del lenguaje natural se codificarán con GloVe (inicialmente) y se presentarán a las entradas fundamentales de la capa del modelo de lenguaje, al menos.

No se sabe que exista un razonamiento abstracto formalmente correcto en las redes neuronales sin una instalación lingüística. Por lo tanto, deduciría ingenuamente que la función lingüística y la inferencia del lenguaje natural es un camino relativamente corto (es decir, relativamente alcanzable) para lograr una realización neural del razonamiento abstracto aproximadamente formalmente correcto.

Las redes convolucionales y los sistemas HTM comparten esta similitud con la corteza cerebral de los mamíferos: una arquitectura conectiva fundamental en capas, que diferencia las funciones de un pequeño número de capas. Tomando camarillas de tales grupos “en columna” como unidades fundamentales de una red de nivel superior, el nivel de secuencia del lenguaje natural debe distinguirse del nivel semántico conceptual, que puede emplear estructuras paralelas y recursivas más libremente.

El proceso de adaptación autoorganizada de los componentes en bruto en un razonador funcional requerirá bucles de entrenamiento concéntricos. En el bucle más interno, las neuronas individuales de una columna se entrenan directamente en algo análogo a la percepción y emisión del lenguaje, para refinar el modelo del lenguaje. Las columnas no asignadas se conectarán localmente y aleatoriamente a esta capa de superficie, y de manera similar entre sí, en la inicialización. El conectoma de la red de regiones columnares se refinará en un ciclo de capacitación cerrado, que aplica el objetivo (similitud local y cobertura global del conjunto de conclusiones de un algoritmo de razonamiento formal) a la salida de la red. Articular esa salida como lenguaje natural debería derivarse naturalmente, pero es innecesario para nuestros propósitos.

El entrenamiento secuenciado será responsable de propagar una señal abstraída más alta hacia las pilas corticales. Dado que tenemos fácil acceso a las capas intermedias, la capacitación puede ser más factible si se utiliza el PNL estándar y el procesamiento semántico formal mediante algoritmos convencionales para presentar estímulos a capas superiores en la pila y / o niveles más amplios de organización, simultáneamente a la codificación de escala fina presentaciones

El sistema no debe funcionar en un reloj de actualización global, sino en un reloj local estocástico. La secuencia del razonamiento condicional abstracto más alto dependerá de los bucles de representación casi homeostáticos en la red neuronal de escala fina, que por lo tanto debe reforzarse.

Eso es todo lo que tengo por ahora.