Últimamente, la cuestión de qué papel debe desempeñar la neurociencia en el desarrollo de la inteligencia artificial ha tenido una prensa interesante: incluso el fundador de DeepMind está de acuerdo en que los desarrolladores de Deep Learning tienen mucho que aprender de los neurocientíficos. [1] Justificadamente, los expertos en IA generalmente no están de acuerdo con los defensores fuertes de una simbiosis de las disciplinas en el supuesto implícito de que los sistemas inteligentes deben ser como el cerebro humano. Si bien está claro que el aprendizaje automático moderno debe mucho a las teorías de los neurocientíficos, es arrogante suponer que el cerebro humano es el motor óptimo de la cognición y que no pueden existir procesos superiores. Dicho esto, exploremos las formas en que la neurociencia puede ayudar al campo de la IA:
Arquitectura de la cognición
- ¿Qué es el entorno de base de datos en una explicación simple con ejemplos?
- ¿Es posible entrenar a un RNN en una sola secuencia extremadamente larga?
- ¿Se puede usar tensorflow en SVM?
- Regularización: ¿Por qué se llaman así los SVM L1 y L2 cuando ambos miden la distancia a un hiperplano a lo largo de la proyección ortogonal?
- ¿Cuál es la ventaja de tener en cuenta la curvatura al optimizar las redes neuronales profundas?
La realidad es que, a pesar de las afirmaciones de los fanáticos del aprendizaje profundo, el cerebro humano todavía está a años luz en términos de capacidad cognitiva: esta superioridad se debe en gran medida a la eficiencia arquitectónica, el aprendizaje en línea y la capacidad de integrar continuamente múltiples flujos de datos [2] [3]. Si bien estas áreas de ventaja eventualmente serán superadas, un aspecto particular se destaca como un área problemática para las redes neuronales: la topología. Diferentes problemas tienen diferentes arquitecturas neuronales óptimas. [4] Los estudios sistemáticos del cerebro podrían acelerar el entrenamiento de los sistemas de inteligencia artificial al proporcionar condiciones iniciales más aptas para resolver ciertos tipos de problemas cognitivos.
Teorías de transmisión de información
La mayoría de los sistemas modernos artificialmente inteligentes se basan en las llamadas redes de picos. Las redes neuronales con picos suponen que la información está completamente codificada por picos , o eventos de activación desencadenados por otros picos que ocurren en otras partes de la red. En lo que puede resultar ser una llave importante en los engranajes de Deep Learning, es muy posible que este no sea el único modo de transmisión de información en el cerebro humano. Las corrientes endógenas y los patrones sincrónicos son otros métodos conocidos por los cuales se transmite información en el tejido cerebral vivo. [5] [6] [7] [8] Quizás Deep Learning está dejando cierto poder predictivo sobre la mesa al ignorar estos fenómenos de la neurofisiología humana.
Identificación del sistema complejo y descripción parsimoniosa
Más de la mitad del trabajo que realizan los neurocientíficos es caracterizar y describir neuronas y circuitos neuronales. Este esfuerzo es lo que permite que el trabajo de traducción se realice a través de múltiples escalas de longitud, desde moléculas, canales iónicos, sinapsis, subunidades neuronales, redes y, finalmente, sistemas y comportamientos. Es un hecho cierto que el desarrollador promedio de Deep Learning no puede explicar qué características de su modelo le permiten realizar varias predicciones; Además, si se les asigna la tarea de describir estas características, la mayoría de los desarrolladores no tendrían las herramientas, habilidades o conocimientos para hacerlo con un rigor razonable. El lugar para los neurocientíficos en el mundo de la inteligencia artificial es no solo ayudar a la construcción de sistemas, sino lo más importante, comprenderlos y explicarlos a los demás.
Notas al pie
[1] El fundador de DeepMind dice que para construir mejores cerebros informáticos, tenemos que mirar nuestro propio
[2] http: // Honey, CJ, Kötter, R., …
[3] http: // Sporns, O., Chialvo, D. R …
[4] http: // Bullmore, E. y Sporns, O …
[5] http: // Vroman, R., Klaassen, L. …
[6] http: // Voytek, B. y Knight, R. …
[7] http: // Debanne, D. (2004). En para…
[8] http: // Anastassiou, CA, Perin …