A2A.
No necesita conocer el descenso de gradiente para la regresión lineal, pero en general, para optimizar funciones objetivas arbitrarias, el descenso de gradiente o una de sus variantes es el algoritmo de facto.
Aquí hay algunas razones por las cuales usar una biblioteca para optimizar funciones arbitrarias no siempre es la mejor:
- ¿Cómo funcionan las capas de incrustación en TensorFlow?
- ¿Debo aprender el aprendizaje automático y el desarrollo de aplicaciones de Android simultáneamente? En caso afirmativo, ¿a qué lenguaje (s) de programación debo recurrir?
- ¿Cuál sería su guía para un hombre de 46 años que conoce la programación primaria y está interesado en obtener un conocimiento práctico del aprendizaje automático?
- ¿Cómo se puede reducir el tamaño del modelo TFIDF sin reducir significativamente la precisión?
- ¿Qué es el filtrado colaborativo en términos simples?
- A menos que proporcione a la biblioteca la función objetivo y la función de gradiente, podría ser bastante lenta, ya que aproximar el gradiente de la función objetivo podría ser computacionalmente costoso. Entonces, si necesita proporcionar la función objetivo y una función de gradiente, ya ha realizado la mayor parte del trabajo necesario para escribir un algoritmo de descenso de gradiente.
- Obtienes un mejor control del algoritmo. La mayoría de las bibliotecas, por ejemplo, no le permitirán controlar cómo se reduce el tamaño del paso.
Y el descenso de gradiente es uno de los algoritmos más simples en el aprendizaje automático. Entonces no, no deberías saltarte.