La mayor diferencia entre los dos algoritmos es que SVM usa el truco del kernel para convertir un problema linealmente no separable en uno linealmente separable (a menos, por supuesto, que usemos el kernel lineal), mientras que los árboles de decisión (y los bosques basados en ellos, y los árboles potenciados, ambos en menor medida debido a la naturaleza de los algoritmos de conjunto) dividen el espacio de entrada en hiperrectángulos según el objetivo.
Por lo general, uno funcionará mejor que otro en una situación dada, pero es difícil saberlo en la mayoría de los casos en espacios de alta dimensión a menos que haya algo sobre los datos que sugiera uno sobre el otro. Este es el método preferido, pero difícilmente obvio en la mayoría de los casos.
La mayoría de las veces, las personas usan un conjunto de validación no solo para optimizar los hiperperametros sino también para elegir entre algoritmos. No es perfecto, pero a menudo funciona.
- ¿Por qué el aprendizaje profundo no tiene un mínimo local?
- Como el sistema de recomendación está relacionado con el aprendizaje automático, ¿cuál será la próxima moda en los sistemas de recomendación?
- ¿Qué son los datos no paramétricos?
- Cómo configurar datos de entrenamiento para una red neuronal para generar valores de joystick basados en una entrada de imagen
- ¿Qué es Kaggle y cómo debo usarlo exactamente?
Ah, si tiene categorías en sus entradas, no puede usar SVM. Solo funcionan con datos numéricos.