Para agregar a la respuesta de Abhishek Shivkumar, realmente no se puede separar “encontrar la norma de margen máximo” de “encontrar vectores de soporte”: están unidos como parte de un único problema de optimización convexo que necesita resolver para entrenar al SVM.
El problema de optimización involucrado es un programa cuadrático, lo que hace que sea bastante fácil de optimizar. Además, se ha hecho un gran esfuerzo para resolver el problema de optimización rápidamente, y ahora existen solucionadores disponibles que resolverán el problema de optimización por usted, por ejemplo:
- LIBSVM – Una biblioteca para máquinas de vectores de soporte. Esto se basa en una clase de métodos de optimización llamada SMO: optimización mínima secuencial
- LIBLINEAR – Una biblioteca para clasificación lineal grande. Esto se basa en el descenso coordinado en la dual del problema convexo
- PEGASOS: (marque bajo el encabezado PEGASOS en el código fuente de Shai Shalev-Shwartz) basado en el descenso de gradiente estocástico
- Máquina de vectores de soporte SVM-Light
Entonces, si desea acelerar el entrenamiento SVM, realmente tendrá que profundizar en el mundo de la optimización convexa a lo grande.
- Cuando uno usa la función de pérdida al cuadrado para la regresión, ¿significa que asume implícitamente que está agregando ruido gaussiano con la misma varianza?
- ¿Hay alguna manera fácil de configurar AWS para el aprendizaje profundo con Tensorflow y Keras?
- ¿El aprendizaje automático es un subconjunto de la ciencia de datos?
- Durante la limpieza de datos cuando tiene un número decimal que representa el número de personas, ¿debe redondear hacia arriba o hacia abajo? Además, ¿qué sucede si el número total de todos los números redondeados no coincide con el número total de personas, es un error?
- ¿Por qué no se prueba bien Theano en otros sistemas que no sean Linux?