¿Es posible que las máquinas de vectores de soporte sean el algoritmo más apto para problemas de clasificación binaria dada la forma en que puede ajustar curvas alrededor del conjunto de datos?

No en realidad no.

Lo que realmente importa es qué tan bien el sesgo del algoritmo se ajusta al dominio. Una forma de modificar el sesgo de los SVM es elegir un núcleo diferente, pero sigue siendo un enfoque bastante limitante.

Aquí hay algunos ejemplos de situaciones en las que esperaría otros enfoques para superar a los SVM incluso en tareas de clasificación binaria simples:

  • Analizando tweets donde la clase es si el sentimiento es positivo o negativo. Aquí, un ingenuo enfoque de bolsa de palabras de Bayes probablemente superará a los SVM.
  • Clasificación de si una imagen tiene un peatón o no. Aquí una red convolucional probablemente superará a cualquier otro enfoque.

¿Por qué? Porque los núcleos de texto son un poco raros en comparación con un simple Bayes ingenuo. Y porque las redes neuronales convolucionales son sumamente adecuadas para las tareas de clasificación de imágenes.

Depende de lo que estés clasificando. Algunas cosas no se dividen muy bien así. Un enfoque largo del núcleo puede ser mejor, o tal vez un árbol de decisión tenga más sentido.