Para el aprendizaje supervisado, las máquinas de vectores de soporte lineal (SVM) son excelentes para grandes datos porque pueden manejar funciones muy grandes
espacios y están garantizados para cubrir ya que son métodos convexos sin entrenamiento excesivo.
Pueden reducir un espacio de funciones masivo a algo más manejable. También paralelizan naturalmente
si haces el parámetro grid-search en paralelo.
Una limitación es que necesitan ejecutarse en la memoria, aunque con máquinas modernas puede obtener
64 GB de memoria y análisis de submuestra en datos muy grandes
Los algoritmos centrales pueden hacerse paralelos
en máquinas de memoria compartida (aunque no intentaría ejecutar tal cosa con Map_reduce en
su forma actual)
Ver, sin embargo, “Ampliar el aprendizaje automático”
http://www.cs.umass.edu/~ronb/sc…
para detalles sobre cómo escalar SVM y métodos relacionados a arquitecturas de memoria distribuida
Para el aprendizaje no supervisado, y para los métodos de datos puramente grandes que requieren reducción de mapas, son métodos no supervisados
como el Hashing sensible a la localidad (LSH) y las técnicas de proyección aleatoria relacionadas
- ¿Qué método de reducción de dimensionalidad puede mantener las relaciones de traslación entre puntos?
- ¿Cuál es la diferencia entre las redes de Markov y las redes bayesianas?
- En el muestreo de importancia, ¿cuál es la diferencia entre [matemáticas] p (x) [/ matemáticas] y [matemáticas] q (x) [/ matemáticas]?
- ¿Qué es la indexación semántica latente?
- ¿Cuál debería ser el plan adecuado para aprender el aprendizaje automático desde cero para un estudiante del tercer semestre?