No es una respuesta muy técnica.
Adaboost es una construcción de clasificadores fuertes de varios clasificadores débiles.
Clasificador débil: un clasificador débil es un clasificador que funciona ligeramente mejor que un clasificador aleatorio cuya precisión de clasificación es ligeramente superior al 50% (a diferencia de SVM, redes neuronales)
Llegando al ejemplo: supongamos que desea clasificar una imagen como cara o no cara
puede tomar el color de la piel como una característica, es un clasificador débil porque otras partes del cuerpo tienen la misma propiedad. Tiene una alta tasa de falsos positivos pero una baja tasa de falsos negativos, es decir, si es una cara, debe tener color de piel, pero si tiene color de piel, no necesita ser una cara.
entonces puedes aprovechar el hecho de que la cara tendrá vello por encima (una región oscura a su alrededor). Este también es un clasificador débil porque otras partes del cuerpo también pueden tener un fondo que satisfaga esto.
luego, dentro de las regiones que satisfacen las dos anteriores, buscamos otras características faciales como ojos, labios, etc.
Entonces, clasificamos los clasificadores débiles en cascada, cada uno de ellos tiene una alta tasa de falsos positivos pero baja, y el resultado final es el mismo que el de un clasificador fuerte.
- ¿Ubuntu es mejor con machine learning que mac?
- Al predecir un resultado binario, ¿cómo toman en cuenta las personas el orden en que ocurren las entradas?
- ¿Es malo tener una gran cantidad de funciones en Machine Learning?
- Si, en el futuro, los robots / IA se vuelven comunes en los hogares, ¿cuál es el lenguaje de programación más probable en el que se escribirán?
- ¿Cuáles son los cursos necesarios para aprender la recuperación de información y el aprendizaje automático?
La figura anterior muestra N clasificaciones débiles en cascada. Si pertenece a la CLASE, debe satisfacer a todos los clasificadores débiles. Cada uno de los clasificadores puede rechazar una entrada negativa (No CLASE) pero no puede decidir a favor de la CLASE.
Ps: es solo un ejemplo de clasificadores débiles en cascada y difiere del algoritmo original. Hacer cascada y tomar una combinación lineal son más o menos lo mismo. En combinación lineal, la salida final es una suma ponderada de salidas de clasificadores individuales donde los pesos son inversamente proporcionales a los errores respectivos.