¿Cuáles son algunas reglas comunes de plasticidad en la mayoría de las redes neuronales artificiales?

Además de la respuesta de Carlos Azevedo, STDP es bastante importante.

Bengio et al (2015) Página en cornell.edu y Hinton (2007) Página en toronto.edu lo describieron como la parte derivada de SGD. La investigación del lado de la ciencia neuronal sobre STDP es abundante: la revisión de Poo couple (2014) es una página clásica en mpimf-heidelberg.mpg.de

Para guardar clics: STDP significa plasticidad dependiente del tiempo de pico. Se observa / registra / dispara desde el nivel celular al fisiológico y desde el sistema nervioso periférico al central, incluso en humanos a través de estímulos eléctricos. Dado un escenario pre y post-sináptico, si la neurona presináptica se dispara antes que la neurona post-sináptica, su conexión se fortalece, cuanto más se acercan las actividades en términos de tiempo, más fuerte se vuelve. Pero si la neurona presináptica se dispara después de la neurona postsináptica, su conexión se debilita, cuanto más se acercan las actividades en términos de tiempo, más débil se vuelve. Entonces, básicamente, a continuación se muestra cómo se ve en humanos (!) (Figura de Muller et al 2010: dos curvas representan las cortezas sensoriales y motoras humanas, respectivamente)

Y lo que dijo Hinton (2007):

Dos reglas citadas en este artículo de 2014 Modelado de la plasticidad neuronal en las redes de estado eco para la predicción de series temporales son:

1) regla de aprendizaje anti-Oja

“La regla de aprendizaje de Oja, propuesta por Erkki Oja, es un modelo de cómo las neuronas en el cerebro o en las redes neuronales artificiales alteran la fuerza de conexión, o aprenden, con el tiempo. Es una modificación de la Regla de Hebb estándar que, a través de la normalización multiplicativa , resuelve los problemas de estabilidad y genera un algoritmo para el análisis de componentes principales. Esta es una forma computacional de un efecto que se cree que ocurre en las neuronas biológicas “.

y

2) Regla de aprendizaje Bienenstock-Cooper-Munro (BCM)

La regla BCM también sigue el principio de aprendizaje de Hebb, con un umbral deslizante como la función estabilizadora para controlar la alteración sináptica. La modificación del umbral controla la actividad reductora y creciente de las neuronas. Esto lleva a una autorregulación de la plasticidad y, con suerte, a una mejor estabilidad.

Este otro artículo El modelado computacional de la plasticidad neuronal para la autoorganización de redes neuronales cubre más de ellos, para varios tipos de redes neuronales artificiales.

More Interesting

¿Java es bueno para la IA?

La gente dice que las mejoras exponenciales en la tecnología conducirán a una IA fuerte, y citan la ley de Moore. ¿Estamos viendo una mejora exponencial en las tasas de éxito de predicción en áreas como el reconocimiento de voz y el reconocimiento de objetos?

¿Qué opinas de los dibujos de inteligencia artificial creados por la red neuronal artificial de Google?

¿Aproximadamente entre qué años se logrará AI Singularity?

¿Crees que la inteligencia artificial es una buena herramienta comercial? ¿Lo probarías?

¿Eres un desarrollador que teme a la Inteligencia Artificial?

¿Quiénes son los mejores expertos en Inteligencia Artificial (IA) o expertos en Aprendizaje Automático (ML) en India?

¿Cómo se pueden explicar los peligros de la inteligencia artificial utilizando modelos teóricos filosóficos?

Cómo considerar la posibilidad de una IA fuerte

¿Cómo haríamos para crear una IA?

¿Cuáles son los beneficios de una tasa de aprendizaje adaptativo para redes neuronales artificiales, en comparación con agregar un término de impulso? ¿Son estos dos métodos diferentes que tienen un efecto muy similar?

¿Cuán plausible es la teoría de que la inteligencia humana proviene de un solo algoritmo?

¿Qué puede hacer la inteligencia artificial?

¿Por qué las ventas podrían ser una buena área para usar IA?

¿Debería otorgarse a una inteligencia artificial sensible los mismos derechos que a un humano, por qué o por qué no?