El método de regularización de red elástica incluye los métodos de regularización LASSO (L1) y Ridge (L2).
Sobreajuste : La idea central detrás de los algoritmos de aprendizaje automático es construir modelos que puedan encontrar las tendencias generalizadas dentro de los datos. Sin embargo, si no se toman medidas, a veces los modelos tienden a memorizar los datos en lugar de aprender los patrones. Durante tales casos, aunque el modelo se ajusta bien a los datos de entrenamiento (el modelo arroja resultados precisos cuando se evalúa en los datos de entrenamiento), sin embargo, se evaluó mal en los datos de la prueba. Esto se llama sobreajuste.
La regularización se utiliza para evitar sobreajustar el modelo a los datos de entrenamiento. Esto se logra perturbando levemente (agregando ruido) la función objetivo del modelo antes de optimizarlo (optimizar un modelo significa encontrar los parámetros del modelo w * de modo que se encuentre el argmin / argmax de la función objetivo; en otras palabras, es para encontrar los óptimos globales de la función objetivo). En la regularización L1, un ruido de magnitud lambda. w * | se agrega mientras que en la regularización L2, ruido de magnitud lambda. w * |. | w * | está agregado. donde | w * | es la magnitud del vector de parámetros óptimo.
- Cómo hacer que una red neuronal funcione como PCA
- ¿Qué marco de trabajo en el aprendizaje automático puede manejar grandes conjuntos de datos?
- Si pudieras elegir cinco miembros perfectos para un equipo de desarrollo de aprendizaje automático y en la nube, ¿qué habilidades requerirías que tuvieran?
- ¿Cómo se puede comparar Big data con Machine Learning?
- He estado aprendiendo la red neuronal de retroalimentación y la propagación hacia atrás durante 3 meses y todavía no puedo entenderlo, ¿qué debo hacer?
En Elastic Net Regularization, se agrega una suma lineal de ambos ruidos. Por lo tanto, la función objetivo sería entonces
Tenga en cuenta que las regularizaciones L1 y L2 son casos especiales de regularización de Elastic Net.