¿Por qué usar Kohonen SOMs sobre K-means, o viceversa?

Sí, esto es solo k-means con un giro: los medios están “conectados” en una especie de red elástica 2D, de modo que se mueven entre sí cuando los medios se actualizan. Esto le da la propiedad de autoorganización, ya que los medios tenderán a acercar a sus medios vecinos, y la red 2D resultante se deforma a través del espacio dimensional superior de una manera suave en lugar de plegarse sobre sí misma.

El precio de esto es la precisión. Ya no solo trata de encontrar el mejor agrupamiento. No utiliza mapas autoorganizados para la agrupación general, sino cuando el propósito de la agrupación es algún tipo de visualización en 2D.

Los productos de punto no son correlación. La correlación de Pearson en dos series (vectores) es igual a la similitud del coseno, si la media de los valores de cada vector es 0. Y ese es un producto de punto dividido por las longitudes del vector. Esta no es la única forma en que puede elegir la unidad ganadora; puede elegir el que tenga la menor distancia euclidiana. Elegir un producto de puntos es como elegir el vector que está más “en la misma dirección” y favorecer los que tienen valores más altos.

Estos no están relacionados con los perceptrones, no, solo en la nomenclatura que eligieron.

Además de la respuesta de Sean Owen, preferiría la red de Kohonen si sospecha que los puntos de datos están contenidos en un espacio de menor dimensión, posiblemente deformado. Esto introduce un conocimiento previo del conjunto de datos, superando así a k-means. Si la deformación es más extrema, desearía investigar las máquinas de vectores de soporte, que intentan encontrar una forma “simple” subyacente del conjunto de datos asignándolo a dimensiones más altas.

Si le preocupa el rendimiento en el borde de la nube de puntos de datos o en el borde de la red de Kohonen 2D, debe recurrir a K-means. El enrejado 2D en las redes de kohonen tiende a parecerse a un mantel extendido suavemente sobre el centro de la mesa, pero doblado y arrugado en los bordes, donde hay menos puntos de datos (y nodos) para ajustar el enrejado inicializado aleatoriamente. Por esta razón, las redes de Kohonen también pueden ser una mala opción para la extrapolación fuera del conjunto de datos.

Además de todas las respuestas, otra advertencia para K-Means es que impone grupos de tamaños similares, incluso si no es una expectativa razonable para la mayoría de los conjuntos de datos. Sin embargo, Kohonen Maps es más robusto en ese sentido. Si suelta la unidad de mapa Kohonen Map al espacio de datos, algunas de las unidades incluso estarán vacías sin datos asignados. Podría considerarse un argumento de mi punto. Además, también puede utilizar el Procedimiento de aprendizaje de Kohonen [1] en K-Means sin tener en cuenta la función Neighborhood. También es un enfoque alternativo para resolver ese cumplimiento de clúster de tamaño similar.

[1] Procedimiento de aprendizaje de Kohonen K-Means vs Lloyd’s K-means – Un blog de un ser humano-ingeniero

Los mapas de autoorganización de Kohonen proporcionan centros de agrupación que tienen estructura topológica. Por ejemplo, puede restringir los clústeres para que tengan una topología de cuadrícula 2D. En este caso, los centros de clúster uno al lado del otro son más similares que los clústeres más alejados. K-means no tiene esta propiedad.

Este sitio publicó una comparación con la mayoría de los algoritmos de agrupamiento, y los SOM salieron al final.

Página en http://www.u-cursos.cl