* A2A *
¿Cuál es el propósito de las variables de holgura en cualquier problema de optimización? Cuando no puede resolver el problema de optimización (es decir, la región factible está vacía) para el conjunto dado de restricciones, entonces el siguiente paso lógico es relajar sus restricciones mediante la introducción de variables de holgura. SVM también es un problema de optimización que se parece a:
[matemáticas] \ min \ | w \ | [/ matemáticas]
sujeto a: [matemáticas] y_i (w ^ {\ top} x_i + b) \ geq 1; i = 1 \ ldots N [/ math]
donde [math] \ {(x_i, y_i) \} _ {i = 1} ^ N [/ math] son los datos de entrenamiento.
Sin embargo, ¿se garantiza que la región factible del problema anterior no esté vacía para ningún dato de capacitación dado? No. Por defecto, este problema de optimización supone que el conjunto de datos de clase binaria dado es separable por un hiperplano. Si esta suposición falla, entonces no existe una región factible para el problema anterior. Para permitir una región factible no vacía, incluso en los casos en que las dos clases no son separables por un hiperplano, relajamos nuestras restricciones agregando variables de holgura de la siguiente manera:
[matemáticas] \ min \ | w \ | + C \ | \ xi \ | [/ matemáticas]
sujeto a: [matemáticas] y_i (w ^ {\ top} x_i + b) \ geq 1 – \ xi_i; i = 1 \ ldots N [/ math]
donde [math] \ xi [/ math] es un vector de [math] \ xi_i [/ math] ‘s y C es simplemente un parámetro ajustable.
- ¿Hay alguna debilidad en el uso de la agrupación máxima y la agrupación promedio?
- ¿Cuándo se lanzará sklearn 0.18?
- ¿Qué áreas del aprendizaje automático son más importantes para los fondos de cobertura y los bancos de inversión (en equipos cuantitativos)?
- ¿Cuál es el mejor algoritmo de agrupamiento adaptativo k-means (que k se elige automáticamente)?
- ¿Ubuntu es mejor con machine learning que mac?
En el caso anterior, estamos relajando nuestras restricciones al considerar puntos para los cuales nuestras restricciones pueden fallar. Por lo tanto, ahora nuestra región factible no está vacía. Sin embargo, no queremos una solución que falle para todas las restricciones, ya que está completamente en contra de lo que pretendíamos resolver en primer lugar. Por lo tanto, agregamos estas variables de holgura al objetivo e intentamos encontrar una solución que falle por un número menor de puntos o por muchos puntos pero no por una gran cantidad (la elección aquí está dictada por la norma elegida en el objetivo )