¿Qué red neuronal es mejor para el reconocimiento facial: propagación hacia atrás o red neuronal recurrente?

Para aclararlo: la propagación hacia atrás es una forma eficiente de calcular los gradientes de alguna función. La dirección opuesta, la propagación hacia adelante, calcula el valor de la función. La red neuronal es la función con varias propiedades. La relación entre las neuronas es una propiedad importante. Si hay respaldos, entonces hablamos de una relación actual, de ahí el nombre RNN.

Los RNN pueden entrenarse con la propagación hacia atrás a través del tiempo, que es un método para ajustar los pesos con respecto al error del modelo de la salida de tal manera que considere los recorridos del borde posterior en cierto grado.
Si me seguiste hasta ahora, entonces entiendes que un RNN desenrollado es equivalente a una red neuronal de alimentación directa o FFNN.
No todos los métodos de entrenamiento requieren gradientes y hay otros que necesitan más: el hessian. Todos estos métodos muestran diferentes propiedades con respecto a su NN y el problema que está modelando. La percepción o los experimentos a gran escala pueden ayudarlo a decidir cuál es el método más adecuado.

Espero eso ayude.