Las dos variantes SVM más grandes en este momento son probablemente: SVM (SVM original de Vapnik: redes de vectores de soporte) y SVM de mínimos cuadrados (clasificadores de máquinas de vectores de soporte de mínimos cuadrados). Solo difieren en sus funciones objetivas y en cómo las resolvemos. Aparte de eso, comparten un objetivo similar: encontrar un conjunto de vectores de soporte y construir su función (clasificación / regresión) sobre ellos.
También puede clasificar los SVM en dos tipos: clasificación de vectores de soporte (SVC), regresión de vectores de soporte (SVR). Sus nombres nos dicen lo que hacen.
Otra característica es el margen. Hay SVM de margen blando y SVM de margen duro.
- ¿Cuál es la operación que tiene la constante más pequeña?
- Matrices de sufijos: Dadas dos cadenas s1 y s2. ¿Cuál es el mejor algoritmo para encontrar el número de subcadenas comunes entre s1 y s2 de longitud 1, 2,… hasta min (| s1 |, | s2 |)?
- ¿El interés por los algoritmos genéticos y evolutivos está en declive?
- Cuando se ejecuta el ordenamiento rápido aleatorio, ¿cuántas llamadas se realizan al generador de números aleatorios en el peor de los casos? ¿Y también para el mejor caso?
- Cómo crear mi propia función de hash para usar en una tabla de búsqueda
Entonces, al final, tenemos 8 tipos comunes de SVM:
- SVC (también llamado C-SVC) con / sin margen suave.
- SVR (también llamado epsilon-SVR) con / sin margen suave.
- LS-SVM para clasificación con / sin margen blando.
- LS-SVM para regresión con / sin margen suave.
Si agrega núcleos, se dividirían aún más, pero creo que eso es innecesario.