Primero, más popular no significa más efectivo. A menudo, alguna técnica se vuelve más popular porque es más conveniente de usar y funciona razonablemente bien.
Algunos ejemplos clásicos de este fenómeno son:
- Agrupación de k-means: existen todo tipo de métodos de agrupación que no tienen las limitaciones de k-means, pero k-means sigue siendo bastante popular, ya que es muy sencillo de implementar.
- SVM: hay muchas variantes de SVM que han demostrado ser mejores que SVM de vainilla en algún aspecto u otro, pero debido a LibSVM, la biblioteca de código abierto eficiente y fácil de usar para SVM de vainilla, sigue siendo el técnica más utilizada en comparación con las versiones mejoradas.
Ahora, hay 2 ventajas (algo relacionadas) de Word2vec que los hacen tan populares:
- ¿Cuál es la diferencia entre el aprendizaje automático y el análisis de datos?
- ¿Existen motores / algoritmos que puedan equiparar el significado de dos oraciones?
- ¿En qué áreas de la banca / finanzas se utiliza el aprendizaje automático?
- ¿Qué tan buenos antecedentes en ML ofrece el curso Coursera Machine Learning a alguien?
- ¿Cuáles son los desafíos tecnológicos involucrados en alimentar el código fuente de una máquina Linux y hacer que aprenda a codificar un núcleo Linux similar?
- Entrenado previamente : la mayoría de las veces, necesita usar incrustaciones de palabras en alguna aplicación posterior . Por lo tanto, es mucho más fácil usar incrustaciones de palabras pre-entrenadas disponibles de Google que entrenar las incrustaciones de palabras desde cero utilizando una mejor técnica. La pequeña ganancia en precisión a menudo no vale el esfuerzo de implementar la nueva técnica y ajustar cuidadosamente todos los parámetros. Este artículo compara varias técnicas de inclusión de palabras. Aquí hay un resultado importante del documento “… para las tareas en las que la inclusión de palabras se usa como una característica o para la inicialización de redes neuronales, la elección del modelo no afecta significativamente los resultados. Además, con base en los resultados dados en la Tabla 4, los márgenes entre los modelos simples y complejos son relativamente pequeños. Por lo tanto, los modelos más simples suelen ser suficientes para tareas reales “.
- Tamaño del cuerpo : en general, cuanto más grande sea el cuerpo en el que entrenes tu modelo, mejores serán las incrustaciones. Obviamente, es difícil competir con los datos a escala de Google y la potencia de cálculo que se utilizó para entrenar Word2vec.
Una alternativa popular a Google Word2vec es GloVe, que también se ha entrenado previamente y se ha entrenado en un corpus lo suficientemente grande. Aquí hay un blog que compara los dos: GloVe vs word2vec revisited.