¿Qué es una máquina de vectores de soporte?

Support Vector Machine ( SVM ) es un algoritmo de clasificación binaria supervisado. Dado un conjunto de puntos de dos tipos en [math] N [/ math] lugar dimensional SVM genera un hiperplano dimensional [math] (N-1) [/ math] para separar esos puntos en dos grupos.

Digamos que tiene algunos puntos de dos tipos en un documento que son linealmente separables. SVM encontrará una línea recta que separa esos puntos en dos tipos y está situada lo más lejos posible de todos esos puntos. Verifique la figura a continuación. Línea recta [matemática] A [/ matemática] y [matemática] B [/ matemática], ambos están separando dos tipos de puntos correctamente, pero [matemática] A [/ matemática] está situada lo más lejos posible de todos esos puntos. SVM elegirá [math] A [/ math] como el hiperplano de separación. En esta imagen, puede ver un área azul claro alrededor de la línea [matemática] A [/ matemática] y [matemática] B [/ matemática]. Esto se llama Margen . Se define como la distancia desde el hiperplano al punto más cercano, multiplicada por [math] 2 [/ math]. De otra manera, el hiperplance permanecerá en el medio del margen. El margen más alto le dará el hiperplano óptimo.

Otro caso. Mira la imagen a continuación.

En este documento, los puntos azul y rojo no son linealmente separables. SVM usará el truco del kernel para encontrar el hiperplano. Intuitivamente, puedes construir fácilmente un cono usando ese papel donde el ápice está cerca de los puntos rojos. Eso significa que ha creado un cono [matemático] 3D [/ matemático] utilizando un papel [matemático] 2D [/ matemático]. Ahora puede cortar el área cerca del ápice para separar esos puntos rojos del azul. Podemos pensar en otro plano [matemático] 2D [/ matemático] que realiza la tarea de cortar. Ese plano [matemático] 2D [/ matemático] es nuestro hiperplano deseado.

Puede consultar el video para una mejor comprensión.

Imagen 1: Máquina de vectores de soporte – Wikipedia

Imagen 2: SVM de una clase 続 き 、 簡 単 な デ ー タ で 試 し て み る – kanosuke の 日記

Un gran tutorial: Tutorial SVM

Las máquinas de vectores de soporte (SVM, también soportan redes de vectores [1]) son modelos de aprendizaje supervisados ​​con algoritmos de aprendizaje asociados que analizan los datos utilizados para el análisis de clasificación y regresión. Dado un conjunto de ejemplos de entrenamiento, cada uno marcado por pertenecer a una de dos categorías, un algoritmo de entrenamiento SVM construye un modelo que asigna nuevos ejemplos en una categoría u otra, convirtiéndolo en un clasificador lineal binario no probabilístico. Un modelo SVM es una representación de los ejemplos como puntos en el espacio, mapeados para que los ejemplos de las categorías separadas se dividan por una brecha clara que sea lo más amplia posible. Luego se asignan nuevos ejemplos en ese mismo espacio y se predice que pertenecen a una categoría en función de qué lado de la brecha se encuentran.

Además de realizar una clasificación lineal, los SVM pueden realizar de manera eficiente una clasificación no lineal utilizando lo que se llama el truco del núcleo, mapeando implícitamente sus entradas en espacios de características de alta dimensión.

La forma sencilla de describir SVM es un clasificador binario. Intenta encontrar un hiperplano que pueda separar dos clases de datos por el margen más grande. Quazi Marufur Rahman da un muy buen ejemplo de lo que es el margen, y Janice Gates señala el truco del núcleo. Creo que el truco del núcleo es la parte más importante de SVM, distingue SVM con otros clasificadores.