Tomemos como ejemplo el algoritmo word2vec.
Queremos obtener ‘ representaciones latentes ‘ de palabras como vectores en R ^ n Space. Aquí está la explicación:
- Dictionary = [‘I’, ‘love’, ‘to’, ‘hotel’, ‘motel’, ‘Sleep’]
- Me encantan los hoteles = [1, 1, 0, 1, 0, 0]
- Me encantan los moteles = [1, 1, 0, 0, 1, 0]
- Ambas oraciones son muy similares en términos de significado, pero se asignan a espacios muy diferentes (en 6 dimensiones)
- La representación latente tiene como objetivo explotar la ” cercanía semántica ” de las palabras basándose en su contexto de ocurrencia para establecer una relación significativa. Esperamos representaciones en un espacio que pueda capturar la relación ‘latente’
- hotel = [0, 0, 0, 1, 0, 0], motel = [0, 0, 0, 0, 1, 0] # Codificación en caliente
- hotel = [2, 3] y motel = [2, 3.5] (Obtención en representación 2-D)
- La segunda representación, se mapea en un espacio de aprendizaje de representación de espacio 2D que codifica la relación ‘ Latente ‘ entre las palabras.
Espero que esto tenga sentido. ¡Salud!
- ¿Crees que los algoritmos de aprendizaje automático pueden cambiar la forma en que hacemos simulaciones numéricas?
- ¿Cuáles son algunas buenas aplicaciones o scripts que prueban muchas técnicas de aprendizaje automático a la vez para problemas de predicción?
- ¿Cómo escribe Google las pruebas para su algoritmo de búsqueda para que sepan que no lo rompieron al hacer cambios?
- ¿Cuáles son las diferentes áreas donde los bancos pueden usar NLP (procesamiento del lenguaje natural) para mejorar las operaciones comerciales?
- ¿Se pueden anotar videos usando el aprendizaje automático?