Las redes neuronales del cerebro humano siempre están operando en un estado de equilibrio, excepto en casos de ataques epilépticos. Incluso en el régimen normal, las redes del cerebro tienen una dinámica “caótica” casi estable debido a la retroalimentación interna.
Quizás lo que se pregunta es, en el transcurso del aprendizaje, ¿la red neuronal del cerebro alcanza un mínimo local (o global) en el que los pesos de conexión dejan de cambiar?
La respuesta simple sería no, por tres razones principales; Sin embargo, bajo ciertas circunstancias, la respuesta podría ser sí.
- ¿Cómo podemos hacer que las redes neuronales artificiales sean más similares a las redes neuronales biológicas?
- Cómo aprender prácticamente las redes neuronales mientras se obtiene una comprensión profunda
- ¿Existe una rama de la ingeniería donde el desarrollo de aplicaciones móviles se une a la electrónica, la programación de microcontroladores y el aprendizaje automático?
- ¿Qué es la inteligencia artificial y cómo podemos programarla?
- ¿Es posible hacer un programa que pueda cuestionar quién, qué, cuándo, dónde y / y por qué y luego hacer que vuelva a la memoria anterior al ingresar?
La primera razón para nunca converger en un mínimo local es que, a diferencia de la mayoría de los paradigmas de entrenamiento de redes neuronales artificiales (ANN), el cerebro tiene una cantidad infinita de datos de entrenamiento. Siempre hay algo nuevo que aprender, y el mundo nunca se repite.
La segunda razón es que el organismo no es un observador pasivo fijo del mundo, sino uno que usa lo que sabe para buscar cosas nuevas. El aprendizaje es interactivo, de modo que todo lo que se conoce actualmente cambia qué datos de entrenamiento futuros se utilizarán y cómo las interpretarán las diferentes partes del cerebro. Siempre se agregan nuevas capas de comprensión, que luego cambian retroactivamente las representaciones existentes.
Pero incluso si pudieras arreglar el número 1 y el número 2 restringiendo el aprendizaje a un mundo pasivo finito, hay un tercer factor, que es que las redes neuronales del cerebro son altamente recurrentes. Hay retroalimentación dentro de los circuitos neuronales, retroalimentación entre áreas del cerebro y ciclos de retroalimentación en todo el cerebro. Esto mantiene el estado de equilibrio del cerebro en un régimen caótico que nunca se repite.
Dicho todo esto, el cerebro puede encontrar mínimos locales de todos modos. A pesar de la retroalimentación interna y la dinámica caótica, el cerebro parece converger en esquemas de representación que una vez estables, son difíciles de interrumpir. Un ejemplo de esto es el aprendizaje de idiomas. Las personas adquieren la capacidad de escuchar y producir distinciones de fonemas dentro de los primeros años de vida. Una vez que el sistema de lenguaje humano converge en un sistema fonético, los nuevos sonidos del lenguaje se clasifican usando fonemas ya aprendidos, que terminan reforzando esos mismos fonemas. Esa puede ser la razón por la cual es tan difícil aprender un nuevo acento después de cierta edad. Del mismo modo, una vez que un pájaro joven aprende su canción, el patrón de producción de la canción queda bloqueado.
Lo que se desconoce es si estos mínimos locales son pesos de conexión que ya no cambian, o si los pesos de conexión continúan evolucionando, pero lo hacen en torno a atractores de punto fijo, de modo que el esquema de representación es estable incluso si los pesos siempre están cambiando.