En redes neuronales artificiales, ¿cómo se eligen conexiones específicas entre nodos para fortalecerlas durante el entrenamiento?

Si usa la propagación hacia atrás, entonces, por definición, está utilizando el aprendizaje supervisado. El aprendizaje supervisado se basa en modelos y, por lo tanto, nunca conducirá a una inteligencia artificial GENERAL.

Permítanme explicarlo: si muestra los videos de IA de gatos y perros y lo recompensa por detectar correctamente si el video muestra un gato o un perro, entonces el sistema se ha convertido en un discriminador de perros y gatos … ya que eso es lo que solicitó. Al mismo tiempo, no puede aprender a discriminar a los animales de pelaje blanco de animales de pelaje marrón o animales felices de animales infelices. Has restringido la IA a un dominio muy estrecho.

Por el contrario, las inteligencias reales como los niños humanos aprenden todo tipo de cosas sobre todo todo el tiempo, no una pequeña dimensión a la vez. Usar solo una dimensión NO es una simplificación del problema, está restringiendo su IA a un problema de juguete y, en esas situaciones, los métodos reduccionistas (basados ​​en modelos) funcionarán … y lo desviarán de los métodos y dominios donde verdadero AGI se encontrará (eventualmente).

Discuto esto en mi video Dual Process Theory.

La cuestión de cómo conectar “neuronas” usando “sinapsis” y qué “fortalezas” deberían tener es una pregunta discutida en el campo naciente de “Algoritmos de Connectome”. No ingrese al campo sin comprender suficiente Epistemología y Filosofía de la Ciencia para poder sacudirse el sesgo reduccionista que ha adquirido en su educación científica hasta ahora.

Por retropropagación.

Esencialmente, lo que tenemos es un error en el nodo de salida, que calculamos restando la salida de red de la salida deseada.

Luego observamos todas las conexiones en los nodos de salida, y cuánto contribuyen a formar la salida, y distribuimos el error a sus respectivas neuronas proporcionalmente.

Tenga en cuenta que no hay forma de saber qué contribuciones contribuyen a la parte “correcta” de la salida, y qué contribuciones contribuyen a la parte “incorrecta” de la salida.

Sin embargo, si lo hace sobre un conjunto de datos lo suficientemente grande, las neuronas que se activan constantemente cuando el error es alto se corregirán más, y las neuronas que se activan constantemente cuando el error es bajo se corregirán menos. Es por eso que este algoritmo aparentemente bárbaro realmente funciona.

Puedo referirme a la descripción del algoritmo de retropropagación en redes neuronales (Backpropagation).
Para abreviar, hay una función de pérdida y los pesos de las conexiones se ajustan para minimizar esta función de pérdida.