Con referencia a AdaBoost, ¿qué se entiende exactamente por ‘ponderado’ cuando se dice que entrena a un clasificador débil dada una distribución ponderada?

El término ‘ponderado’ aquí se refiere al peso asignado a cada ejemplo de entrenamiento. En un entorno muy genérico, comienzas con una distribución uniforme sobre todos los puntos de entrenamiento y muestras de ejemplos de esta distribución para entrenar a un clasificador débil. Luego AdaBoost identifica los puntos de entrenamiento que su clasificador débil clasifica incorrectamente y les asigna un peso que es relativamente más alto que los correctos. El resultado es una distribución de probabilidad que pone más peso en los puntos de entrenamiento que su clasificador débil se equivocó. En la próxima iteración del algoritmo, AdaBoost entrena un clasificador débil sobre esta nueva distribución.

Esa es mi respuesta, que describe los detalles esenciales de lo que está haciendo AdaBoost. La intuición detrás de esto es que desea que cada clasificador débil sea entrenado en muestras que el clasificador débil previamente entrenado se equivocó.