El parámetro gamma define qué tan lejos llega la influencia de un solo ejemplo de entrenamiento, con valores bajos que significan ” lejos ” y valores altos que significan ” cerca “.
C es esencialmente un parámetro de regularización, se intercambia entre la clasificación errónea de ejemplos de entrenamiento contra la simplicidad de la superficie de decisión. Una C baja suaviza la superficie de decisión , mientras que una C alta apunta a clasificar correctamente todos los ejemplos de entrenamiento.
El parámetro nu es un límite superior en la fracción de errores de margen y un límite inferior de la fracción de vectores de soporte en relación con el número total de ejemplos de entrenamiento. Por ejemplo, si lo configura en 0.05, se garantiza que encontrará como máximo el 5% de sus ejemplos de entrenamiento mal clasificados (a costa de un pequeño margen) y al menos el 5% de sus ejemplos de entrenamiento son vectores de soporte.
- ¿Cuáles son los problemas médicos que el aprendizaje automático puede resolver?
- ¿Cuál es el ejemplo de código más simple para redes neuronales recurrentes (RNN) en TensorFlow?
- ¿Qué debe saber todo programador competitivo (Topcoder) sobre los concursos de Kaggle y ML?
- ¿En qué deberían centrarse los gerentes de productos de software que son nuevos en AI / Machine Learning? Los cursos en línea son extremadamente técnicos. ¿Es eso lo que se necesita?
- ¿Cuál es la diferencia entre gaussiano y bayesiano?
La relación entre C y nu se rige por la siguiente fórmula:
nu = A + B / C
A y B son constantes que desafortunadamente no son tan fáciles de calcular.