¿Utiliza el cerebro el algoritmo de propagación hacia atrás dado cómo se conectan las sinapsis secuencialmente?

Gran pregunta! Durante nuestro crecimiento y desarrollo, e incluso en cierta medida mientras somos adultos, las conexiones neuronales no utilizadas se eliminan y ciertas conexiones se hacen más eficientes e incluso se crean nuevas neuronas. También podemos formar nuevas conexiones y cambiar las conexiones existentes en la edad adulta (ver: neuroplasticidad). Esto es en parte biología y en parte interacción ambiental. Alguien que nunca ha visto un perro antes, pero ha visto muchos gatos, podría llamar a un perro un extraño gato gigante. Los niños hacen esto a menudo mientras aprenden sobre su mundo. Un colega mío acaba de tener un hijo y su perro se llama “Bo”. Cada vez que su hijo de 18 meses ve un perro o un gato, los llama “Bo”.

Tanto los humanos como las computadoras deben usar un proceso iterativo para aprender sobre su entorno. Una vez que una persona ha visto muchos perros y gatos, puede comenzar a distinguir mejor entre los dos. Para las computadoras, en el mundo del aprendizaje automático, la programación genética o las redes neuronales, la propagación inversa es muy importante. Lo mismo es cierto para las sinapsis y sus conexiones.

Como ejemplo básico con dos neuronas, hay una sinapsis normal a través de la cual viaja un neurotransmisor. Hay una neurona presináptica, que tradicionalmente se considera el comienzo, y la neurona postsináptica, el “final”. Cuando un potencial de acción desciende por el axón de la neurona presináptica, se produce una entrada de calcio en el botón terminal que causa neurotransmisores para ser liberados en la sinapsis. Los neurotransmisores luego activan los receptores en la neurona postsináptica causando un cambio en la forma del receptor y la facilitación de muchas acciones potenciales dentro de la neurona postsináptica, como un aumento o disminución en el potencial de membrana, cambios en los genes tempranos inmediatos y muchas cosas más. Todas esas cosas cambian la neurona postsináptica de alguna manera, por supuesto. Pero en el poco discutido espacio perisináptico, ¡el área justo afuera de la sinapsis también está plagada de receptores!

Por ejemplo, los receptores metabotrópicos de glutamato del grupo II (mGluR2 / 3) son autorreceptores que se encuentran en este espacio perisináptico. Demasiado glutamato es algo malo, es neurotóxico, ¡aunque es un neurotransmisor! Cuando el glutamato escapa de la sinapsis al espacio perisináptico, probablemente se libera demasiado glutamato … y recuerde, esto no es tan bueno si no se controla. Los mGluR2 / 3 se unen al glutamato al igual que lo haría un receptor postsináptico normal, pero realizan cambios internos en la neurona presináptica y ralentizan o detienen la liberación adicional de neurotransmisores creando un circuito de retroalimentación negativa muy sucinto. Pero esto no es estrictamente la propagación hacia atrás.

Ahora podemos llegar a las cosas interesantes. ¿Hay algún algoritmo de propagación hacia atrás involucrado aquí? La respuesta puede venir de un lugar inesperado. Los endocannabinoides, los químicos internos similares a los que se encuentran en la marihuana, en realidad pueden responder desde la neurona postsináptica a la neurona presináptica para enviar información de vuelta a la cadena (señalización endocannabinoide en el cerebro). Además, el óxido nítrico (NO) no está sujeto a las reglas tradicionales de neurotransmisores y puede difundirse en un área pequeña y afectar varias neuronas dentro de esa área. En lo que respecta a un algoritmo, existe potencial, pero el lenguaje de codificación en el que se ejecuta, el lenguaje de nuestro software biológico, no se ha desarrollado por completo (juego de palabras). Es como conectar su cable coaxial a un amplificador, estamos decodificando estática que solo aprendimos hace menos de 5 o 6 generaciones. Hay tantas capas de información en el mismo cable, ¡es difícil saber por dónde empezar!

No. Probablemente esté pensando en las redes neuronales, que calculan su pérdida después de medir su hipótesis contra el resultado esperado y luego ajustan las matrices de peso en la red en consecuencia.

El cerebro humano funciona fundamentalmente diferente, lo único que las redes neuronales tienen en común con los cerebros “reales” es la estructura de las neuronas mencionadas en la pregunta.

Por ejemplo, si le mostraran un plátano por primera vez, su cerebro formará una imagen de él al instante. Sin embargo, una red neuronal tendría que mirar miles de imágenes de plátanos para no confundirla con algo de un color similar a un taxi o una forma similar a un pepino. Utiliza todos los datos en el algoritmo de retropropagación para ajustar los pesos para el equivalente de una “imagen mental”.

El campo de estudio que se ocupa de que las máquinas puedan hacer esto también se llama Aprendizaje único, definitivamente algo a tener en cuenta en el futuro.