¿Necesario?
Bueno, generalmente me gusta llamar a los modelos de tema de área general, que en sí mismo es una instancia del área general de factorización de matriz discreta (como los modelos gamma-Poisson, GaP). Entonces, en ese sentido, es mucho más amplio que el antiguo LDA simple.
Pero cuando enseño cosas como LDA y GaP, que deberían enseñarse juntas, lo que me gusta es el hecho de que puedes enseñar un montón de cosas de una vez:
- ¿Cuáles son los avances más significativos del aprendizaje automático en 2017?
- ¿El trabajo de finanzas corporativas será reemplazado por aprendizaje automático?
- ¿Cuáles son algunas buenas aplicaciones o scripts que prueban muchas técnicas de aprendizaje automático a la vez para problemas de predicción?
- ¿Cuál es la diferencia entre un ingenuo clasificador Bayes y una red bayesiana?
- ¿Cómo funcionan las capas de incrustación en TensorFlow?
- métodos variacionales
- Muestreo de Gibbs
- muestreo de Gibbs colapsado
- optimización de hiperparámetros
- problemas con los métodos de máxima verosimilitud
- regularización versus Bayesian MAP versus Bayesian MCMC
- por qué queremos no paramétricos (solo el por qué … la enseñanza de NP viene después)
Es simplemente un problema fabuloso para explicar un montón de ideas. Por lo tanto, es posible que no necesite LDA, pero la factorización matricial y todas las cosas anteriores son bastante útiles para saber. Aprenderá LDA como un subproducto.