No estoy seguro de lo que piensa Yoshua Bengio sobre la alineación de retroalimentación para que podamos reformular la pregunta a:
¿Qué piensa Chomba Bupe sobre el algoritmo de alineación Feedback?
La alineación de retroalimentación (FA) se preocupa principalmente por el llamado problema de transporte de peso. Todo lo demás es igual al algoritmo de backprop típico, excepto por el uso de diferentes pesos aleatorios al propagar señales de error hacia atrás.
- ¿Cuántas estadísticas y probabilidades debo saber para sumergirme en el aprendizaje automático?
- ¿Cómo entrenamos un clasificador para el cual solo tenemos datos de entrenamiento positivos (no hay datos negativos o sin etiquetar disponibles)?
- ¿Existe algún informe publicado que haya aplicado con éxito el aprendizaje profundo para un sistema de recomendación basado en contenido de texto?
- ¿Cuáles son las condiciones de Dirichlet en una serie de Fourier? ¿Son necesarias las condiciones de Dirichlet?
- ¿Hay algún otro clasificador de aprendizaje profundo como softmax?
El argumento es que si las redes neuronales biológicas usan un algoritmo de backprop para aprender, entonces los circuitos neuronales, los circuitos aguas abajo, involucrados en el transporte de errores hacia atrás, deben tener una copia exacta de los pesos de los circuitos neuronales aguas arriba, de alimentación hacia adelante. El acto de transportar (copiar) exactamente los pesos desde los circuitos neuronales aguas arriba a los aguas abajo no es biológicamente plausible y esto es lo que se conoce como el problema del transporte de peso.
La alineación de retroalimentación muestra que los pesos del flujo ascendente no necesitan copiarse al circuito descendente durante el aprendizaje y, por lo tanto, resuelve el problema del transporte de peso al tener diferentes pesos descendentes que pueden ser aleatorios y fijos.
Por lo tanto, la alineación de retroalimentación (FA) es parcialmente plausible biológicamente.
Aunque no estoy exactamente seguro de si el problema del transporte de peso es lo que necesitamos resolver, el verdadero problema es la necesidad de objetivos diferenciables. FA todavía necesita funciones objetivas diferenciables, lo que significa que sigue siendo tan limitado como el algoritmo de backprop típico, por lo tanto, FA y backprop son muy similares con fortalezas y limitaciones similares.
Hay varias razones por las cuales las personas buscan métodos de aprendizaje alternativos para el algoritmo de backprop:
- Backprop no es biológicamente plausible. *
- Backprop necesita activación diferenciable y funciones objetivas.
Yoshua Bengio observó la propagación del objetivo [1] por la cual cada capa tiene un objetivo local. En el algoritmo de backprop típico, el objetivo es global y solo influye directamente en la capa de salida, mientras que otras capas, las capas ocultas, se ven influidas indirectamente por la propagación de error. En la propagación de destino, en lugar de propagar el error, se propaga un objetivo en su lugar. Entonces, cada capa tiene un objetivo y la optimización puede proceder de tal manera que cada capa intente satisfacer su propio objetivo local dados los valores del objetivo local.
Este enfoque es aparentemente biológicamente plausible y tampoco requiere funciones de activación diferenciables pero sí objetivos diferenciables.
* En realidad, hay propagación neural posterior [2] en las neuronas biológicas. Aunque la retropropagación neural no es lo mismo que el algoritmo de backprop. En las neuronas biológicas, la señal de propagación hacia atrás no parece pasar una sola capa. Parece que esto sucede porque las neuronas interactúan entre sí localmente durante el aprendizaje.
Diría que la propagación de objetivos (TP) de Yoshua Bengio parece un poco más interesante que FA porque TP en realidad está respondiendo más preguntas y TP es muy diferente del backprop. TP usa señales objetivo para comunicarse entre capas durante el aprendizaje, mientras que backprop y FA usan señales de error.
Votaría por TP como el enfoque de aprendizaje más biológicamente plausible.
Pero la plausibilidad biológica no debería dictar demasiado el tipo de algoritmos de aprendizaje utilizados en el aprendizaje automático (ML). Para construir autos no necesitábamos emular las cuatro patas de los animales o las dos patas humanas, inventamos una rueda. Aunque es cierto que las patas pueden manejar una variedad más amplia de terreno que las ruedas.
Pero un mejor ejemplo es el de las aves y los aviones, las aves motivaron el diseño de los aviones, pero a lo largo del tiempo estaba claro que tratar de emular el mecanismo exacto de batir las alas no era necesario para que los aviones volaran. Si el avión tiene alas fijas y un motor a reacción proporciona el empuje hacia adelante, entonces el aire que fluye a lo largo de las alas puede proporcionar suficiente elevación sin que las alas se agiten.
Así que no nos distraigamos demasiado con la mímica biológica.
Aunque hay mucho que aprender de la neurociencia si queremos construir sistemas más inteligentes.
Espero que esto ayude.
Notas al pie
[1] [1412.7525] Propagación de objetivo de diferencia
[2] Backpropagation neural – Wikipedia