¿Cuál es la diferencia entre la clasificación de vectores de soporte y la regresión? ¿Un regresor de vectores de soporte se comporta como una red neuronal por casualidad?

Supongo que querías decir regresión logística.

Tanto SVM como LR son clasificadores, pero utilizan diferentes hipótesis para la clasificación. SVM es principalmente determinista (aunque también se puede calcular la probabilidad pero eso es secundario) mientras que LR es probabilístico. SVM intenta maximizar el margen entre el vector de soporte más cercano, mientras que LR maximiza la probabilidad posterior.

SVM funciona en un conjunto de datos separable linealmente, aunque también puede usar núcleos no lineales (por ejemplo, RBF) para el conjunto de datos que no es separable linealmente, mientras que LR funciona para ambos.

Se prefiere SVM cuando tiene un conjunto de características pequeño, pero LR también funciona para conjuntos de características grandes. Pero SVM es un clasificador difícil y LR es suave porque obtienes un puntaje de probabilidad.

¿Un vector de soporte se comporta como una red neuronal?

No, no lo hace, Neural Network es un enfoque diferente para la clasificación en conjunto. Pero sí, puedes imitar el comportamiento SVM o LR usando Neural Net.

[RESPUESTA CORTA Si te refieres a Clasificación SVM vs Regresión SVM?

SVM funciona buscando mejores líneas (digamos ecuaciones lineales). En caso de clasificación, necesitamos encontrar una línea que los separe y para la regresión necesitamos una línea que los represente.

Por qué las ecuaciones lineales, es fácil. ¿Cómo para los casos no lineales? Transformaciones del núcleo: cambie a una dimensión diferente donde lo no lineal se vuelva lineal.

More Interesting

Visión por computadora: ¿Cuáles son algunos problemas de investigación abierta en la recuperación de imágenes basada en contenido?

¿Por qué la biblioteca de estadísticas de Python es tan limitada en métodos bioestadísticos avanzados en comparación con R, mientras que la biblioteca de Python de Machine Learning es mucho mejor?

¿Qué métodos de conjunto / aprendizaje automático pueden incorporar covariables que varían con el tiempo?

¿Por qué nadie recomienda JavaScript / Node.js como lenguaje para el aprendizaje automático o el análisis de datos?

Serie temporal: ¿Existe un enfoque para la detección de anomalías que no se base en datos de entrenamiento anteriores?

Hay muchas distribuciones de probabilidad presentes en las estadísticas, ¿cómo debería uno usarlas? En general, veo personas que usan distribución gaussiana en algoritmos de aprendizaje automático.

¿Qué enfoques utilizaron los participantes en Quora ML CodeSprint 2013?

¿Son las preguntas el verdadero punto de partida del análisis de Big Data?

¿Cuál es el papel de una capa totalmente conectada en una red neuronal profunda?

¿Ha habido alguna investigación sobre cómo las pérdidas de capacitación en la convergencia de los algoritmos de aprendizaje profundo varían con el tamaño de los datos que ingresan?

¿Cuáles son las aplicaciones del procesamiento del lenguaje natural en una revista en línea?

Hablando intuitivamente, ¿cuál es la diferencia entre la estimación bayesiana y la estimación de máxima verosimilitud?

¿Cuáles son las condiciones de Dirichlet en una serie de Fourier? ¿Son necesarias las condiciones de Dirichlet?

¿En qué se centran los principales competidores de Kaggle? ¿Qué les ayudó a hacerlo mejor que otros?

¿Qué es la agrupación de datos?