Para ponerlo en términos muy simples, Gradient Descent es un algoritmo auxiliar que tiene como objetivo lograr la solución óptima requerida a través del método de prueba y error.
Entonces, ¿cuál es el problema y cuál es la solución?
Como ejemplo, hay un modelo de aprendizaje automático supervisado llamado Modelo de regresión lineal. En este modelo, se nos da un conjunto de datos específico, por ejemplo, la tasa a la que se vende una casa en particular en función de su tamaño.
- ¿Cómo se puede minimizar el riesgo regularizado utilizando métodos bayesianos?
- ¿Siguen siendo relevantes los enfoques simbólicos de IA después de los recientes éxitos del aprendizaje profundo?
- ¿Cuánto tiempo le lleva a un programador experimentado aprender el aprendizaje automático?
- ¿Es Bayes jerárquico básicamente una introducción de hiperparámetros en el modelo?
- Yoshua Bengio: ¿Será el aprendizaje profundo un paso hacia la IA consciente?
Entonces, precio de venta = función (tamaño)
Trazamos el conjunto de datos dado en un gráfico y, según este modelo, intentamos dibujar la mejor línea recta posible a través de este gráfico de modo que cubra la mayoría de los valores dados. Al hacer esto, podemos llegar a un precio de venta relativamente preciso para una casa cuyo tamaño no figura en nuestro conjunto de datos.
Ahora, el problema radica en encontrar los coeficientes apropiados para la línea que deseamos dibujar. Eso es encontrar ‘m’ y ‘c’ en la ecuación de línea recta,
y = mx + c
Entonces, encontramos una función llamada función de costo que ayuda a determinar estos valores de coeficientes. Asocia un valor de costo con un par particular de coeficientes y lo hace para una amplia gama de combinaciones. Entre estos resultados de costos, elegimos el que sea menor porque solo el valor de menor costo garantiza una desviación mínima de nuestra línea del conjunto de datos.
El algoritmo de descenso de gradiente nos ayuda a encontrar una ruta al valor de costo más bajo dados todos los valores de costo.
Funciona así (esto se puede comparar con bajar una colina):
- Comienza con un par particular de coeficientes y ve su valor de costo.
- Luego busca un valor de costo menor de lo que sea en este momento.
- Se mueve al valor más bajo y actualiza los coeficientes en consecuencia.
- Después de un período de tiempo particular, alcanza un mínimo local más allá del cual no puede continuar.
- Por lo tanto, ha encontrado el par correcto de coeficientes requeridos en ese punto donde no puede continuar.
NOTA: En el caso del modelo de regresión lineal, solo hay un mínimo y es el mínimo global. Por lo tanto, decimos que se encuentran los coeficientes requeridos para la línea.
En otros casos, el mínimo local alcanzado depende de los coeficientes iniciales tomados en consideración.
Esta es mi explicación más simple posible del algoritmo de descenso de gradiente.
Si desea obtener más información sobre el aprendizaje automático, le sugiero que tome el Curso Coursera en Aprendizaje automático del Sr. Andrew Ng. Es un curso muy agradable y el ejemplo proporcionado anteriormente se toma de eso.
Aprendizaje automático – Universidad de Stanford | Coursera
Espero que la respuesta haya ayudado.