La siguiente lista presenta varias técnicas / algoritmos para entrenar un NN de retroalimentación.
Usemos el nombre del algoritmo de optimización específico que se está utilizando, en lugar de usar solo el término “Backpropagation”, aunque el término “Backpropagation” se usa para referirse a Pendiente de Descenso. Dado que todos los algoritmos a continuación calculan el gradiente y el jacobiano propagándose hacia atrás a través de la red, es más claro usar el nombre del algoritmo de optimización específico que se está utilizando.
- Levenberg-Marquardt
- Regularización Bayesiana
- BFGS Cuasi-Newton
- Propagación resistente
- Gradiente de conjugado escalado
- Gradiente conjugado con reinicios Powell / Beale
- Gradiente de conjugado de Fletcher-Powell
- Gradiente conjugado de Polak-Ribiére
- Secante de un paso
- Descenso de gradiente de tasa de aprendizaje variable
- Descenso de gradiente con impulso
- Descenso de gradiente
- ¿Cuáles son algunos problemas que el aprendizaje automático podría resolver actualmente?
- ¿Mentalese regresa en Inteligencia Artificial?
- ¿Cuál podría ser el mercado global esperado para la IA para 2025?
- ¿Es necesario que un tipo de aprendizaje automático conozca todo tipo de modelos y algoritmos de aprendizaje?
- ¿Hay ejemplos en los que se usa el aprendizaje profundo (ConvNets, etc.) en combinación con el aprendizaje automático clásico?