¿Existe una conexión profunda entre el aprendizaje por propagación hacia atrás y la regla de Hebb?

La regla de Hebb está demasiado simplificada y desactualizada. Fue una caracterización muy aproximada de algunas de las primeras observaciones en neurociencia. No es una buena descripción de cómo funciona realmente el cerebro y ya no se usa en el aprendizaje automático.

La regla de Hebb básicamente decía que si dos neuronas se disparaban al mismo tiempo, la conexión entre ellas debería fortalecerse. Esto solo es cierto si algo bueno sucedió como resultado del disparo de esas dos neuronas. Si sucedió algo malo, entonces la conexión debería debilitarse.

Las dos reglas se parecen un poco en un nivel matemático superficial.

Si tienes una capa lineal que calcula

output_vector = dot_product (input_vector, weight_matrix)

entonces la dirección de actualización de aprendizaje de Hebbian es

producto_externo (input_vector, output_vector)

y la dirección de actualización basada en gradiente es

producto_externo (input_vector, gradiente (objetivo, output_vector)).

Entonces, ambos se basan en la correlación entre la entrada y otra variable, pero eso es tan profundo como la conexión.