¿Cómo se relacionan los modelos gráficos probabilísticos (PGM) con el aprendizaje automático?

Bueno, eche un vistazo al libro de texto de Kevin Murphy. “Aprendizaje automático: una perspectiva probabilística”.
Y / o abra cualquier artículo reciente con algún elemento de aprendizaje no supervisado o semi-supervisado de NIPS o incluso KDD.
por ejemplo, “Modelar conjuntamente aspectos, calificaciones y sentimientos
para la Recomendación de películas (JMARS) ”
Diao, Qiu, Wu, Smola, Jiang y Wang, KDD 2014 .

Lo que verá es que muchos modelos de aprendizaje automático se definen con modelos gráficos.

La cuestión básica es que los modelos gráficos le permiten definir la estructura de la inferencia probabilística subyacente al modelo. Esto se vuelve importante para
modelos con cientos o miles de variables. Es una forma de organizar las cosas y, en consecuencia, ofrece una forma de organizar la inferencia que uno puede usar. De hecho, sistemas como BUGS (de Cambridge) y Stan (de Cornell) le permiten definir clases de modelos enormes, amplias y útiles utilizando modelos gráficos, y estos sistemas prácticamente “compilan” un algoritmo para usted. Esto muestra el poder general del marco.

Observe otras formas de definir la estructura o mediante ecuaciones y mediante reglas gramaticales.

Muchos de nosotros nos dimos cuenta a principios de la década de 1990 de que este era el camino hacia el futuro. Le tomó un tiempo a la comunidad darse cuenta, pero a fines de la década de 1990 se estaba haciendo cargo.

Primero necesitas saber qué es un PGM. Un PGM es una forma matemática de codificar las relaciones probabilísticas (como independencia y dependencia condicional) entre las variables aleatorias en cuestión en un gráfico. Por lo general, los nodos en el gráfico son variables aleatorias y los bordes codifican dependencia o independencia probabilística. Esto solo nos dice cómo creemos que las variables están relacionadas en nuestro modelo generativo (probabilístico) y también, por lo general, cómo los factores del modelo.

Luego hay diferentes cosas que puedes aprender (mencionaré las que recuerdo). Por ejemplo, una vez que tiene un modelo especificado por un PGM, puede aprenderlo de los datos. es decir, puede aprender de los datos cuál es la probabilidad de cada distribución condicional que codifica su gráfico de los datos (o cada factor de la PGM), es decir, puede aprender la distribución conjunta y las partes que la componen. Las partes que lo componen están especificadas por el modelo gráfico que especificó. ¿Cómo a partir de los datos? Puede hacerlo con la máxima probabilidad o MAP o, si tiene un previo, también puede hacerlo utilizando métodos bayesianos. También puede aprender las relaciones con las variables a partir de los datos, es decir, la estructura gráfica a partir de los datos. Puede usar el algoritmo EM si algunos de sus nodos no son observables.

Para que pueda aprender las distribuciones de probabilidad, las probabilidades reales o cómo se ve la distribución.