No estas equivocado. Dados los puntos de datos [math] n [/ math], un núcleo lineal proyectaría las observaciones a un espacio de características [math] O (n) [/ math] y un núcleo polinomial de grado [math] d [/ math] proyecta observaciones a un espacio de características [matemáticas] O (n ^ d) [/ matemáticas]. El kernel RBF se proyecta en un espacio de características de dimensión infinita ya que las observaciones se proyectan a una distribución gaussiana continua. La alta dimensionalidad aquí es beneficiosa ya que un conjunto de datos sería más separable en dimensiones más altas. Sin embargo, cuando el número de observaciones es grande, el núcleo se vuelve bastante grande y el rendimiento podría ser un problema.
Ahora, si le preocupan demasiados parámetros del modelo, se trata de la naturaleza de SVM, donde el hiperplano de separación solo depende de los vectores de soporte. Dado [math] f (x) = \ sum_ {i = 1} ^ {1000} a_i K (x, x ‘) [/ math], la mayoría de [math] a_i [/ math] sería 0 y solo un Se necesitan pocos parámetros y productos de punto para hacer una predicción.
- ¿Podrá Kaggle sobrevivir a la explosión en la industria del software de análisis?
- Estoy tratando de entender las redes neuronales y algunas técnicas de aprendizaje automático. ¿Cuál es la mejor fuente para lo mismo?
- ¿Cuál tiene una mejor oportunidad de carrera, desarrollo web, estructuras de datos, codificación algorítmica, ciencia de datos o algo más para un estudiante de BTech CSE en cuarto año en India?
- ¿Qué lenguaje de programación debo aprender para comenzar primero con mi ruta autodidacta de Data Scientist: R o Python?
- ¿Cuál fue su experiencia al pasar de Investigación de operaciones o Ingeniería industrial a Aprendizaje automático o Ciencia de datos?