Los métodos variacionales pueden verse como una generalización del algoritmo EM donde la idea es aproximar un posterior a través de una distribución variacional. Esta aproximación generalmente se realiza porque la parte posterior puede no tener una forma cerrada y la distribución variacional es mucho más simple de manejar.
Hay un repositorio de Bayes Variacional del sitio mantenido por Gatsby. Allí encontrará los documentos relevantes que está buscando, comenzando con la tesis doctoral de Beal [1] que introdujo por primera vez la técnica de bayes variacional.
Además, quisiera señalar algunos enlaces tutoriales:
1] Explicación de alto nivel de la inferencia variacional por Jason Eisner
2] Tutorial FMRIB sobre Bayes Variacionales
http://users.fmrib.ox.ac.uk/~cha…
3] Un tutorial sobre inferencia de Bayes variacional (aproximación media de campo)
Página sobre orquídea
- En su opinión, ¿la sugerencia de lectura recomendada basada en la actividad de navegación de los usuarios de Wikipedia mejorará la genialidad del sitio?
- ¿Cuáles son las ventajas y desventajas de usar R vs. C ++ para el aprendizaje automático?
- ¿Qué son las redes amplias?
- Si las redes neuronales son opacas y poco entendidas, ¿cómo pueden los ingenieros mejorar aún más el modelo de aprendizaje automático?
- Cómo obtener una pasantía de investigación en aprendizaje automático o inteligencia artificial en una universidad de los EE. UU., Ser indio trabajando en una startup
[1] Matthew J. Beal – Tesis: Matthew J. Beal, Algoritmos variacionales para la inferencia bayesiana aproximada