El SVM se desarrolló originalmente para el problema de clasificación. Especialmente, para el uso de clasificación binaria. Pero se ha desarrollado para clasificaciones de características N numéricas y categóricas.
Para su caso de uso, supongo que sus conjuntos de características son todos numéricos. Y la variable objetivo también es numérica (eso es lo que entendí).
Si este es el caso, entonces es más una regresión que una clasificación. También puede realizar lo mismo en SVM. El siguiente enlace me pareció muy útil para trabajar con SVM en R como una regresión.
- ¿Cómo entiendes las ecuaciones de MLE para los clasificadores Naive Bayes en el libro de aprendizaje automático de Kevin Murphy?
- Cómo convertirse en un cerebro cuant (un quant que usa IA)
- ¿Se aplica Occam's Razor en el aprendizaje automático?
- Si pudieras elegir cinco miembros perfectos para un equipo de desarrollo de aprendizaje automático y en la nube, ¿qué habilidades requerirías que tuvieran?
- ¿Cuál es el objetivo de la detección de fraude con tarjeta de crédito?
Soporte de regresión vectorial con R – Tutorial SVM
El tutorial es muy claro con el ajuste del modelo también. Y también puedes probar Random forest y Boosting trees for Regression también Clasificación. Dado que es un conjunto, la probabilidad de sobreajuste es menor y depende únicamente de sus datos. (Solo estoy sugiriendo formas, depende de sus datos para analizar cuál se adapta mejor)
Un breve recorrido por los árboles y bosques
El enlace anterior tiene muchos algoritmos de árbol y código de bosque aleatorio.
Aclamaciones. Happy Mining Data. 🙂