Para aclararlo: la propagación hacia atrás es una forma eficiente de calcular los gradientes de alguna función. La dirección opuesta, la propagación hacia adelante, calcula el valor de la función. La red neuronal es la función con varias propiedades. La relación entre las neuronas es una propiedad importante. Si hay respaldos, entonces hablamos de una relación actual, de ahí el nombre RNN.
Los RNN pueden entrenarse con la propagación hacia atrás a través del tiempo, que es un método para ajustar los pesos con respecto al error del modelo de la salida de tal manera que considere los recorridos del borde posterior en cierto grado.
Si me seguiste hasta ahora, entonces entiendes que un RNN desenrollado es equivalente a una red neuronal de alimentación directa o FFNN.
No todos los métodos de entrenamiento requieren gradientes y hay otros que necesitan más: el hessian. Todos estos métodos muestran diferentes propiedades con respecto a su NN y el problema que está modelando. La percepción o los experimentos a gran escala pueden ayudarlo a decidir cuál es el método más adecuado.
Espero eso ayude.
- ¿Por qué podría ser malo realizar el Análisis de componentes principales en un conjunto de datos antes de la clasificación?
- ¿Cuáles son los próximos desafíos posibles para que DeepMind de Google fascine al mundo?
- ¿Cuál es un ejemplo de un programa que puede mejorar recursivamente? (Pregunta AI)
- ¿Por qué los tanques a control remoto no reemplazan a los tripulados en la guerra moderna?
- ¿Qué otras áreas de aprendizaje automático pueden reemplazar el aprendizaje profundo en el futuro?