¿Cuáles son algunas buenas implementaciones para modelos gráficos probabilísticos? En particular, quiero poder crear y visualizar redes de creencias y aplicar varios algoritmos como la eliminación de variables y otros algoritmos de aproximación.

Encontré un conjunto de funciones bajo el nombre UGM (modelos gráficos no dirigidos) implementado por Mark Schmidt bastante útil. Puede encontrar una variedad de métodos de descodificación, inferencia y estimación de parámetros aquí.

http://www.di.ens.fr/~mschmidt/S…

Kevin Murphy, su asesor tiene una colección de códigos que tiene CRF, HMM, etc.

http://www.cs.ubc.ca/~murphyk/So…

Modelos ocultos de Markov:
http://www.cs.ubc.ca/~murphyk/So…

Bayes net:
https://code.google.com/p/bnt/

El CRF 2D (para imágenes, similar a campos aleatorios discriminativos (DRF)) se puede adaptar de:
http://www.cs.ubc.ca/~murphyk/So…

CRF totalmente conectados con código: (documento NIPS 2011)
Inferencia eficiente en CRF totalmente conectados con potenciales de borde gaussianos

Métodos de Monte Carlo para la inferencia bayesiana en modelos gráficos
http://www.mrc-bsu.cam.ac.uk/bugs/

R tiene filtros kalman / HMM discretos, etc.
http://cran.r-project.org/

Yair Weiss ha publicado mucho trabajo en modelos gráficos y ha puesto a disposición la mayor parte de la implementación:
http://www.cs.huji.ac.il/~yweiss/

He encontrado que pgmpy es bastante completo. Intenta proporcionar la mayor parte de lo que solicita (incluso la visualización, aunque mis torpes intentos para que funcione no tuvieron éxito). Proporciona una forma genérica de definir modelos probabilísticos y diferentes algoritmos de inferencia. Sus autores también han proporcionado buena documentación y ejemplos.

Si está familiarizado con el libro de Daphne Koller, se sentirá como en casa.

David Barber tiene una caja de herramientas para su libro de texto “El razonamiento bayesiano y la inclinación de la máquina”, que tiene una interesante colección de herramientas:

David Barber: Brml

En el paquete de OpenGM, la mayoría de los algoritmos están implementados.

http://hci.iwr.uni-heidelberg.de

La propagación de creencias sería como cualquier otro virus yk (1-y) con una constante de confiabilidad k. y sería el porcentaje de una población que cree. La creencia descabellada sería algo que no coincidía con la realidad. BE (r): este sería el resultado esperado del índice de creencia. Sería recursivo. No veo ninguna razón por la que no deberían estar allí, o que serían tan difíciles de manejar.

More Interesting

¿Hay algún ejemplo de código de agrupación de documentos utilizando PCA o Autoencoder o algún otro algoritmo de agrupación?

¿Importa el número de imágenes para cada categoría mientras se entrena para una red neuronal convolucional?

¿Qué puedo hacer si soy un experto en aprendizaje automático supervisado?

¿Por qué el aprendizaje en estructuras de datos complejas (gráficos, árboles, etc.) está tan poco representado en el aprendizaje automático?

¿Se puede colocar un previo en el hiperparámetro de un modelo bayesiano jerárquico?

¿Podría el aprendizaje profundo vencer a los métodos tradicionales en 3D Vision?

Supervisado versus no supervisado, inferencia versus predicción, paramétrico versus no paramétrico, ¿cómo se combinan esas características entre sí?

¿Por qué hay tantos enfoques generativos en la clasificación de escenas, mientras que el enfoque discriminatorio es el principal en el reconocimiento / detección de objetos?

¿Cómo realizo la selección de funciones?

Cómo aprender los conceptos básicos del aprendizaje automático dentro de una semana para una entrevista de trabajo

¿Cómo se puede utilizar la máquina de Boltzmann restringida en problemas de clasificación?

¿NVIDIA GTX 1050 Ti 4GB es suficiente para Deep Learning?

¿Qué es un gran blog para el aprendizaje automático?

¿Qué tipo de problemas han funcionado bien con Bayesian Networks?

¿Cómo utiliza Foursquare el aprendizaje automático para mejorar el producto?