Sí, esto es solo k-means con un giro: los medios están “conectados” en una especie de red elástica 2D, de modo que se mueven entre sí cuando los medios se actualizan. Esto le da la propiedad de autoorganización, ya que los medios tenderán a acercar a sus medios vecinos, y la red 2D resultante se deforma a través del espacio dimensional superior de una manera suave en lugar de plegarse sobre sí misma.
El precio de esto es la precisión. Ya no solo trata de encontrar el mejor agrupamiento. No utiliza mapas autoorganizados para la agrupación general, sino cuando el propósito de la agrupación es algún tipo de visualización en 2D.
Los productos de punto no son correlación. La correlación de Pearson en dos series (vectores) es igual a la similitud del coseno, si la media de los valores de cada vector es 0. Y ese es un producto de punto dividido por las longitudes del vector. Esta no es la única forma en que puede elegir la unidad ganadora; puede elegir el que tenga la menor distancia euclidiana. Elegir un producto de puntos es como elegir el vector que está más “en la misma dirección” y favorecer los que tienen valores más altos.
- ¿Sigue siendo el curso de aprendizaje automático de Andrew Ng el mejor curso de aprendizaje automático disponible?
- ¿Es importante aprender Python para el aprendizaje automático? He aprendido R. ¿Cómo puedo aprender el aprendizaje automático en R?
- ¿Cuál es la explicación de la causa de la explosión y desaparición del gradiente de red neuronal recurrente RNN?
- ¿En qué aspectos el aprendizaje automático y la inteligencia artificial cambiarán la fabricación pesada, como la industria del petróleo y el gas?
- ¿Cómo funciona el algoritmo de recomendación de filtrado basado en contenido?
Estos no están relacionados con los perceptrones, no, solo en la nomenclatura que eligieron.