Los árboles de decisión no seleccionan la mejor característica, seleccionan la mejor característica de la muestra en la que se entrenaron. Después de un montón de divisiones, el número de puntos de datos se reduce rápidamente (exponencialmente) y estamos tomando decisiones sobre una pequeña muestra sobreajustando el conjunto de entrenamiento y obteniendo una generalización inferior. Si podamos mucho los árboles, es probable que generalicemos bien, pero al principio no será muy preciso.
Los bosques aleatorios construyen muchos árboles, cada uno de ellos posiblemente demasiado ajustado, pero la aleatoriedad en filas y columnas crea diversidad, por lo que los errores solo se correlacionan libremente y cuando promediamos las predicciones obtenemos predicciones más precisas.
También vale la pena señalar que incluso en el conjunto de entrenamiento, un árbol podado no será óptimo debido a la codicia. Construir un árbol óptimo es difícil.
- ¿Se pueden usar las redes neuronales para resolver problemas de aprendizaje no supervisados?
- ¿Por qué los investigadores de sistemas informáticos no creen en la IA o la aplican a problemas en los 'sistemas informáticos'?
- ¿Cuánto tiempo le lleva a un programador experimentado aprender el aprendizaje automático?
- ¿Cuáles son las diferencias entre el enfoque basado en reglas y el enfoque de aprendizaje automático en el análisis de sentimientos?
- ¿Cuál es la forma correcta de encapsular la creación y capacitación del modelo Tensorflow en una clase?