Considere Machine Learning University. Consiguen 10 solicitantes por cada puesto de primer año disponible. El comité de solicitud de 6 profesionales (A, B, C, D, E, F) se encarga de decidir a quién aceptar. Han estado haciendo esto durante años y su principal preocupación es: “¿Quién tendrá éxito en MLU?”
El primer año, simplemente hicieron que todos votaran sí o no. Pero después de unos años, podrían mirar sus registros de votación y compararlos con la forma en que los estudiantes realmente lo hicieron (para este ejemplo, un pase binario o no).
Como se trata de MLU, descubrieron que el Administrador C tenía el mayor poder predictivo. Consideremos su voto más alto. Desafortunadamente, ella solo tuvo éxito en predecir el 60% del tiempo.
- ¿Cuáles son algunos temas de proyectos realmente interesantes para la investigación en informática como el reconocimiento de gestos a través de Kinect o el sexto sentido de Pranav Mistry?
- ¿Qué son los vectores en el contexto del procesamiento del lenguaje natural?
- ¿En qué situaciones, ha encontrado que el aprendizaje profundo no funciona bien?
- Quiero comprar una PC de segunda mano decente para comenzar con el aprendizaje profundo comprando una GeForce GTX 1070, ¿qué características me deberían interesar?
- ¿Los HMM aún superan a los LSTM en pequeños conjuntos de datos?
El siguiente predictor más poderoso fue el administrador D, pero las respuestas de D estaban muy correlacionadas con C. Era como si estuvieran considerando el mismo criterio, pero C era mejor en eso. Así que dejemos de lado a D por ahora.
D es mejor que F, pero F parece estar mirando algunos criterios diferentes que C o D (quizás centrándose en actividades extra curriculares en lugar de académicas). El poder predictivo de F es menor que C o D, pero combinado con C, F agrega más información que D. Es decir, C y F es un mejor clasificador que C y D a pesar de que D es mejor que F. ¿Obtuviste eso?
Y así continúa. Incluso encontramos que la predicción de B se correlaciona negativamente con el éxito del estudiante. Pero eso está bien. No la despediremos. En MLU se valora cualquier cosa diferente al azar. Simplemente pondremos un coeficiente negativo frente a su suposición. Sin embargo, decidimos que D no estaba agregando nada nuevo y lo dejamos volver a investigar.
Así que ahora, en lugar de sumar los votos por igual A + B + C + D + E + F y elegir el mejor, ponderamos estos clasificadores débiles para hacer uno mucho más fuerte.
Eso, mi amigo, es AdaBoost.
Para un tratamiento más técnico, consulte Wikipedia o este Tutorial de Raul Rojas.