En términos cortos, la similitud del coseno es buena cuando estás interesado en la dirección de tus vectores y no en su posición en el espacio. Esto es útil cuando no desea que la longitud de sus vectores afecte la similitud.
La aplicación más común de la similitud de coseno es comparar textos usando el modelo de bolsa de palabras (BOW), cada palabra es una característica y cada texto es un vector que indica el peso de cada palabra en cada texto.
El coseno también es una buena similitud para comparar incrustaciones de palabras producidas por Word2Vec o GloVE.
- Estoy interesado en el aprendizaje automático y la inteligencia artificial y recién comencé a aprender Python. ¿Qué otras habilidades debo tener en mi haber para tener éxito en este campo?
- ¿Hay alguna prueba de que no hay una solución algebraica para ajustar las redes neuronales con una (o más) capa (s) oculta (s)?
- ¿En qué tipos de búsqueda falla más claramente Google? ¿Y qué vías y sitios abordan estos problemas mejor o más prometedora?
- ¿Cuál es la diferencia entre el descenso en gradiente y el descenso coordinado?
- ¿Cuáles son los mejores marcos de implementación (DL4J, Theano, TensorFlow, etc.) para máquinas de Boltzmann restringidas?
El coseno se puede usar para la agrupación, puede aplicarlo a la agrupación jerárquica o incluso K-Means y luego tiene K-Means esféricos.
En K-Means esféricos, los puntos se agruparán según su dirección.