¿Cuáles son los pros y los contras de los diversos algoritmos de clasificación de Tree Ensemble?

No estoy seguro de todo, pero para algunos,

Ada boost es un enfoque muy bueno, ya que corrige sus errores, sin embargo, la mayor deficiencia que conozco es que en los datos ruidosos cuando tienes valores atípicos, debido a la naturaleza del algoritmo, se adapta a ellos. Por lo tanto, es sensible a los valores atípicos.

Random Forest, es una forma muy buena e inteligente de evitar el ajuste excesivo. También puede realizar la selección de funciones implícitamente. Todavía no conozco ninguna deficiencia, la he visto utilizada en muchos lugares. Por un lado, dependiendo del número de trenzas que cultives, durante el entrenamiento toman bastante tiempo.

No estaba al tanto de árboles adicionales como tal, e hice una lectura rápida. Sería similar a los bosques aleatorios, pero con un costo computacional menor, ya que solo estamos aleatorizando cosas en cada nodo. Como no estoy seguro de esto, tómalo con una pizca de sal. 🙂

y sí, por último pero no menos importante. Los árboles de decisión sufren de un ajuste excesivo de los datos de entrenamiento. (Bastante obvio por ahora)

Espero eso ayude,