El término ‘ponderado’ aquí se refiere al peso asignado a cada ejemplo de entrenamiento. En un entorno muy genérico, comienzas con una distribución uniforme sobre todos los puntos de entrenamiento y muestras de ejemplos de esta distribución para entrenar a un clasificador débil. Luego AdaBoost identifica los puntos de entrenamiento que su clasificador débil clasifica incorrectamente y les asigna un peso que es relativamente más alto que los correctos. El resultado es una distribución de probabilidad que pone más peso en los puntos de entrenamiento que su clasificador débil se equivocó. En la próxima iteración del algoritmo, AdaBoost entrena un clasificador débil sobre esta nueva distribución.
Esa es mi respuesta, que describe los detalles esenciales de lo que está haciendo AdaBoost. La intuición detrás de esto es que desea que cada clasificador débil sea entrenado en muestras que el clasificador débil previamente entrenado se equivocó.
- ¿Cuál es la diferencia entre un sistema recomendado basado en la utilidad del sistema y un sistema recomendado basado en el contenido del sistema?
- ¿Qué es la base del lenguaje?
- ¿Para qué tipo de problemas de aprendizaje automático no sería adecuado el aprendizaje profundo?
- ¿Por qué las computadoras no pueden superar de manera confiable a los humanos en reconocimiento facial?
- ¿Debo memorizar las matemáticas y los algoritmos al aprender el aprendizaje automático y el aprendizaje profundo?