Tómalo de esta manera. El parámetro C en SVM es el parámetro de penalización del término de error . Puede considerarlo como el grado de clasificación correcta que debe cumplir el algoritmo o el grado de optimización que debe cumplir el SVM.
Para valores mayores de C , no hay forma de que el optimizador SVM pueda clasificar erróneamente ningún punto. Sí, como dijiste, la tolerancia del optimizador SVM es alta para valores más altos de C. ¡Pero para Smaller C , el optimizador SVM tiene al menos cierto grado de libertad para cumplir con el mejor hiperplano!
SVC(C=1.0, kernel='rbf', degree=3, gamma='auto')
-> Kernels RBF de baja tolerancia
- ¿Qué método de aprendizaje automático es adecuado para aprender una estrategia comercial no explícita?
- ¿Cómo se usa el aprendizaje automático en la generación de preguntas?
- Además de las redes neuronales profundas, ¿existen antecedentes para cálculos largos con una inferencia máxima a posteriori eficiente?
- ¿Qué debo buscar al comprar una computadora para ejecutar experimentos de Machine Learning?
- Aprendizaje automático: Alex Casalboni: ¿Cuál es la mejor herramienta de ML para desenfocar caras (los tres tipos de visión izquierda, derecha y frontal) y placas en las imágenes?
SVC(C=1000.0,kernel='linear',degree=3,gamma='auto')
-> Kernels lineales de alta tolerancia
Imagen: Slideshare.com
Consulte: http://scikit-learn.org/stable/m…