¿Cuál es el libro recomendado sobre ‘plasticidad neuronal’ para informáticos, programadores o profesionales de aprendizaje profundo?

Es poco probable que haya un libro actualizado sobre plasticidad neuronal, incluso desde una perspectiva biológica por la siguiente razón …

Plasticidad neuronal: el mecanismo de

  • experiencia de codificación,
  • aprendiendo de ellos,
  • y retenerlos,
  • las tres operaciones anteriores se llevan a cabo por
    • creación dinámica de pesas (conexiones entre neuronas)
    • fortaleciéndolos / debilitándolos,
    • y mantenerlos potencialmente para toda la vida

Incluso desde la perspectiva de un neurocientífico, es un área activa de investigación, con teorías / modelos que aún responden, en documentos muy recientes, algunas de las preguntas básicas ( descritas al final a continuación )

También hay documentos recientes sobre plasticidad neural desde una perspectiva de aprendizaje automático porque la comunidad de aprendizaje automático también está examinando la plasticidad neuronal para responder las siguientes preguntas

  • Es la propagación hacia atrás, el principal mecanismo de aprendizaje en redes neuronales artificiales, biológicamente plausible. ¿O el aprendizaje ocurre en el cerebro a través de algún otro mecanismo?
  • es la plasticidad dependiente del tiempo de pico, el mecanismo principal de formación sináptica / cambio de peso entre las conexiones neuronales ( codificación de experiencia / memoria ), “implementación” del descenso de gradiente estocástico

Por lo tanto, lo último sobre este tema solo está disponible en revistas ( por ejemplo, Naturaleza / Ciencia, etc. para perspectiva biológica y arxiv para perspectiva de aprendizaje automático )


Notas adicionales

La pregunta básica abierta sobre plasticidad neuronal incluso desde una perspectiva biológica es

  • Los mecanismos biológicos para codificar la memoria mediante la alteración de los pesos entre las neuronas se produce en una escala con un límite superior de cientos de milisegundos: la formación de memoria no se produciría si las activaciones se separan en más de 300 ms.
  • Pero gran parte de lo que codificamos y recordamos está separado por brechas temporales de al menos un orden de magnitud mayor que este.
  • Entonces, la pregunta central es cómo nuestros cerebros pueden unir y relacionar los estímulos encontrados en segundos o minutos.

Referencias

Perspectiva del aprendizaje automático: documentos recientes sobre plasticidad neuronal

  1. Hacia un aprendizaje profundo biológicamente plausible, agosto de 2016
  2. Repropagación bidireccional: hacia la transmisión de señales de error biológicamente plausible en redes neuronales, marzo de 2017

Perspectiva biológica de la plasticidad neural – artículos recientes

  1. La memoria de secuencia episódica es compatible con un código de fase theta-gamma, Nature Oct 2016
  2. Un código útil para secuencias, Nature Oct 2016

La neuroplasticidad típicamente se refiere a las propiedades biológicas que hacen que una neurona sea más o menos propensa a crecer o cambiar su conexión. Por lo tanto, gran parte del trabajo en esta área está en el ámbito de la fisiología en lugar de describir nuevas reglas de aprendizaje; Por lo general, los neurocientíficos se preocupan por tratar de hacer que las personas vuelvan a crecer las neuronas de la manera correcta, por ejemplo, en la médula espinal después de una lesión. Lo más parecido a la “neuroplasticidad” que probablemente encuentre en la literatura de aprendizaje profundo es algo así como “redes evolutivas” o el algoritmo NEAT. también puede consultar “métodos de modelado computacional para neurocientíficos”, que es un fantástico libro de computación y puede ayudarlo a cerrar la brecha entre el aprendizaje profundo y la neurociencia.

More Interesting

¿Qué clases de modelos se pueden usar para predecir distribuciones de series de tiempo?

Cómo manejar múltiples funciones usando SVM en visión artificial

¿Debería estudiar aprendizaje automático, aprendizaje profundo o aprendizaje de refuerzo?

Si pronostico grupos en un conjunto de trenes completo y los uso como características categóricas y realizo CV, ¿sería una fuga?

¿Puedo trabajar en Google Machine Learning con una licenciatura en Informática pero habiendo realizado dos pasantías y 3 proyectos de código abierto?

¿Cuál es la diferencia entre el aprendizaje por refuerzo y la optimización de caja negra?

Visión por computadora: ¿Cuáles son los problemas abiertos para la recuperación de imágenes?

¿Podría el aprendizaje automático erradicar el cáncer?

¿Por qué la necesidad de depuración aún no se ha resuelto después de tantos desarrollos en tecnología, informática, algoritmos y aprendizaje automático?

¿En qué se diferencia PyTorch de TensorFlow? ¿Cuáles son las ventajas de usar uno versus el otro? ¿Cuándo debo usar uno u otro?

¿Qué piensa Vijay Balasubramaniyan del aprendizaje automático Adversarial?

¿Cuáles son los algoritmos de aprendizaje de refuerzo más eficientes en datos / muestras?

¿Por qué la normalización media ayuda en el descenso del gradiente?

¿Es el aprendizaje automático y el aprendizaje profundo una carrera mejor que el desarrollo web ahora?

¿Qué tan efectivamente se pueden usar las redes neuronales en la regresión? ¿Es posible alguna configuración que prediga un número que no se ve en los datos de entrenamiento?