Cómo aprender a alimentar las redes neuronales

La siguiente lista presenta varias técnicas / algoritmos para entrenar un NN de retroalimentación.

Usemos el nombre del algoritmo de optimización específico que se está utilizando, en lugar de usar solo el término “Backpropagation”, aunque el término “Backpropagation” se usa para referirse a Pendiente de Descenso. Dado que todos los algoritmos a continuación calculan el gradiente y el jacobiano propagándose hacia atrás a través de la red, es más claro usar el nombre del algoritmo de optimización específico que se está utilizando.

  1. Levenberg-Marquardt
  2. Regularización Bayesiana
  3. BFGS Cuasi-Newton
  4. Propagación resistente
  5. Gradiente de conjugado escalado
  6. Gradiente conjugado con reinicios Powell / Beale
  7. Gradiente de conjugado de Fletcher-Powell
  8. Gradiente conjugado de Polak-Ribiére
  9. Secante de un paso
  10. Descenso de gradiente de tasa de aprendizaje variable
  11. Descenso de gradiente con impulso
  12. Descenso de gradiente

¡El paso de avance no es algo que aprender! lo que nos importa es aprender pesas.

¿Entonces la pregunta ahora cómo aprender esos pesos?

para aprender esos pesos, primero debe construir un modelo y aplicarlo,
1- paso de avance
2- evalúa la función de costo “calcula el error entre la salida de tu modelo y la verdad básica”
3- paso de propagación hacia atrás “calcular el gradiente de la función de costo con respecto a los pesos”

luego, aplique cualquier técnica de optimización para optimizar sus parámetros.

aprende a alimentar las redes neuronales mediante la utilización de backpropagtion