- Adaboost es un algoritmo de aprendizaje automático de aprendizaje automático (ML), es decir, se puede utilizar sobre cualquier otro algoritmo de ML. Un clasificador perceptrón no es metaaprendizaje ML.
- Si no tiene una capa oculta, entonces el perceptrón es tan bueno como un clasificador lineal, si tiene una o más capas ocultas, entonces es un clasificador no lineal. Si es profundo (o múltiples capas), se pueden aprender las características jerárquicas. La salida de un perceptrón es la combinación lineal de la característica y sus pesos asociados.
- Adaboost no aprende características como tal. En Adaboost, la salida de los otros algoritmos de aprendizaje (‘estudiantes débiles’) se combina en una suma ponderada que representa la salida final del clasificador potenciado. AdaBoost es adaptativo en el sentido de que los alumnos débiles posteriores se modifican en favor de aquellas instancias mal clasificadas por clasificadores anteriores [1].
- El algoritmo Perceptron permite el aprendizaje en línea, ya que procesa los elementos del conjunto de entrenamiento de uno en uno [2].
Notas al pie
[1] AdaBoost – Wikipedia
[2] Perceptrón – Wikipedia
- ¿Cómo detectaría el modelo de aprendizaje profundo los mismos objetos varias veces en un parche de imagen si existe?
- ¿Qué tipo de algoritmo de aprendizaje profundo utiliza IBM Watson para la clasificación del lenguaje natural? ¿Utiliza CNN o RNN?
- ¿Cuáles son algunas de las ventajas del aprendizaje por diferencia temporal y cómo se puede mejorar?
- ¿En qué se diferencia la investigación de Machine Learning en la academia de la investigación en la industria?
- Durante la validación cruzada k-fold, ¿cuáles son algunas soluciones posibles cuando la varianza de las estimaciones de error de prueba es muy alta?