No en realidad no.
Lo que realmente importa es qué tan bien el sesgo del algoritmo se ajusta al dominio. Una forma de modificar el sesgo de los SVM es elegir un núcleo diferente, pero sigue siendo un enfoque bastante limitante.
Aquí hay algunos ejemplos de situaciones en las que esperaría otros enfoques para superar a los SVM incluso en tareas de clasificación binaria simples:
- ¿Mi licenciatura en ciencias de la computación de Carnegie Mellon Qatar será tratada al mismo nivel que la licenciatura en ciencias de la computación del campus de Pittsburgh?
- ¿Están los informáticos engañando al mundo sobre la importancia del problema P vs. NP?
- ¿Cómo explico la gramática libre de contexto a los 5 años?
- ¿Dónde está el aprendizaje automático o la inteligencia artificial agregando valor a su empresa?
- ¿Cuál es la diferencia entre el trabajo de TI y la informática, trabajo principal?
- Analizando tweets donde la clase es si el sentimiento es positivo o negativo. Aquí, un ingenuo enfoque de bolsa de palabras de Bayes probablemente superará a los SVM.
- Clasificación de si una imagen tiene un peatón o no. Aquí una red convolucional probablemente superará a cualquier otro enfoque.
¿Por qué? Porque los núcleos de texto son un poco raros en comparación con un simple Bayes ingenuo. Y porque las redes neuronales convolucionales son sumamente adecuadas para las tareas de clasificación de imágenes.