No … es posible que la solución en una superficie no convexa sea el óptimo global. Sigue leyendo hay más …
Para aclarar, la propagación hacia atrás no es un método de optimización, sino una forma de calcular el gradiente de la función, que en su caso es una red neuronal. Esta no es la única forma de obtener la primera derivada de una función, ni es la forma más simple. La diferenciación automática es un método para calcular derivadas de manera eficiente para funciones arbitrarias, la acumulación inversa es una forma de propagación inversa.
Volviendo a la pregunta: quería preguntar si el Descenso de degradado, que es un método de optimización, solo puede concluir con un óptimo global si y solo el costo es convexo. Si bien el descenso por gradiente, o la mayoría de los otros métodos, tienden a atascarse en puntos locales en una superficie no convexa, con condiciones iniciales ventajosas, el descenso por gradiente puede concluir con un mínimo / máximo global.
- ¿Qué conocimiento básico se debe tener antes de aprender el aprendizaje automático en India?
- ¿Qué hay de malo en establecer el comunismo después de que los robots toman todos los trabajos?
- ¿Deberíamos establecer el comunismo cuando los robots toman todos los trabajos?
- ¿La prueba de Turing está desactualizada? ¿Se necesita hacer una nueva prueba para validar la sensibilidad de una IA?
- Cómo hacer que una tarjeta interactúe con una máquina
Existen métodos con varios grados de eficiencia que pueden reducir el espacio de la solución a un área cercana al óptimo, proporcionando las condiciones iniciales correctas para el descenso del gradiente.
Espero eso ayude