- En el aprendizaje automático, crea una función objetivo que describe qué tan bien su modelo predice los datos e intenta optimizarlos.
Con modelos complejos, a menudo es demasiado difícil encontrar los parámetros óptimos exactos para su modelo. Pero las personas con frecuencia usan el descenso en gradiente. Es decir, eligen valores aleatorios para los parámetros, luego ven si modificar cada parámetro en una pequeña cantidad los llevará a una solución mejor o peor.
Para calcular cuánto cambia cada parámetro el valor de su función, debe usar derivados.
- Si está analizando un algoritmo que depende de múltiples parámetros, y desea encontrar la mejor opción de parámetros para optimizar el tiempo de ejecución, en realidad solo está buscando el punto mínimo de una función. Entonces puede tomar una derivada y establecerla igual a cero.
Probablemente hay muchas más aplicaciones, pero esas son las dos que recuerdo de mi cabeza.
- ¿Cómo obtenemos una suma de 100 agregando solo 7 números primos?
- Cómo ser bueno en matemáticas para la programación competitiva
- ¿Qué aprendería una función de valor de acción de estado si colocamos múltiples objetivos en el espacio de estado y nos movemos de un punto de partida a un objetivo y luego de un objetivo a otro utilizando el aprendizaje de refuerzo con aproximación de funciones?
- ¿Qué debo hacer después de completar mi B.Tech para ingresar a una carrera relacionada con las matemáticas?
- ¿Por qué la función gamma está diseñada de tal manera que su argumento se desplaza hacia abajo en 1 en comparación con la función factorial para enteros positivos?