La distancia nunca es un problema, el problema es cómo calcular los centroides. Con la distancia euclidiana estándar, el promedio de todos los puntos funciona bien para el centroide de un grupo. También funciona bien para la distancia angular (similitud de coseno) que produce K-Means esféricos que funcionan bastante bien para texto e imágenes. Con otras métricas, el concepto de centroide se vuelve más complicado.
Como Justin dijo, K-Medoids es una extensión de K-Means para diferentes métricas y otra opción interesante es Kernel K-Means.
En Kernel K-Means, reemplaza el cálculo de distancias por el cálculo de un Kernel entre puntos. Lo curioso de Kernel K-Means es que los centroides nunca existen físicamente, solo necesita saber el grupo al que se asigna cada punto.
- ¿Alguno de los IIT ofrece cursos de ingeniería inversa y desarrollo de exploits?
- ¿Cómo se usa exactamente el aprendizaje automático en los motores de recomendación?
- ¿Cómo son los cursos de aprendizaje automático y la investigación en la Universidad de Florida?
- ¿Es el poder computacional de Probe Machine más fuerte que el de la máquina de Turing? ¿Por qué?
- ¿Por qué Facebook detuvo su investigación sobre inteligencia artificial?
Kernel K-Means funciona bien cuando los datos no son lineales y son exactamente iguales a la agrupación espectral y mostrar que es una excelente manera de pasar tiempo en un viaje largo 😉