Claro, intentaré si por lego queremos decir “persona que recuerda un poco de cálculo de la escuela pero que no sabe mucho sobre optimización o aprendizaje automático”. Creo que es un punto de partida razonable, porque su hipotético laico tiene los antecedentes para haber escuchado sobre el descenso coordinado y tiene curiosidad por lo que significa.
En el descenso de gradiente ordinario, utiliza el cálculo para encontrar la mejor dirección para dar un pequeño paso que reduce el error. La dirección del gradiente será diferente en cada punto, por lo que es un campo vectorial. En el descenso coordinado, las direcciones que considere se fijan con anticipación. En lugar de determinar la mejor dirección para dar un paso, recorre las instrucciones dando pequeños pasos siempre que reduzca el error. Se ha ahorrado el esfuerzo de calcular el gradiente, pero tomar pasos no óptimos requerirá que tome más pasos. Esto puede ser un problema si evaluar su función es costoso o si tiene muchas dimensiones, como suele ser el caso en la práctica. Si algunas de las variables influyen en la función más que otras, este problema con el descenso de coordenadas puede abordarse haciendo un seguimiento de qué dimensiones son más importantes y gastando menos muestras en variables menos importantes.
Nunca he usado el descenso coordinado, y no estoy convencido de que sea robusto.
- ¿Cuál es la diferencia entre AODE y una red bayesiana?
- Soy un graduado en ingeniería eléctrica. Quiero seguir estudios superiores en aprendizaje automático o inteligencia artificial en EE. UU. ¿Qué tengo que hacer?
- ¿Cómo funcionan las redes neuronales convolucionales?
- ¿Por qué las redes de confrontación generativas son tan creativas?
- ¿Qué métricas debo usar para evaluar un modelo generativo cuantitativamente y qué tan confiables son?