Imagine que tiene una distribución conjunta de P (y | theta), donde y es un vector
Usando modelos gráficos puede modelarlo como un MRF (no dirigido) o como un BBN (dirigido).
Cada nodo del modelo representaría una probabilidad condicional, digamos P (y1 | y2, theta) en el caso dirigido o algún potencial potencial (y1, y2 | theta) que sería mayor para estados más probables y menor para estados menos probables , pero no sea una verdadera probabilidad.
Si va a multiplicar todos los nodos, obtendrá una distribución conjunta que está modelando (tendrá que normalizar en caso de MRF para obtener la distribución adecuada, pero el punto sigue en pie).
Ahora imagine que en lugar de simplemente modelar algo de P (y | theta), le gustaría modelar P (y | theta, x). Entonces, en el momento de la predicción, en lugar de solo predecir el estado más probable de uno de los elementos de y, le gustaría predecir este estado, dada cierta información adicional x, así como calcular sobre otro y)
- ¿Cómo podemos usar la cadena de Monte Carlo Markov y bayesiano no paramétrico para la reducción de dimensionalidad?
- ¿Cómo puedo explicar el hecho de que el aprendizaje por transferencia ofrece un mejor rendimiento que el entrenamiento estándar?
- Cómo aprender un campo aleatorio condicional
- ¿Qué son las máquinas complejas?
- ¿Cómo se comparan las bibliotecas de aprendizaje automático de C ++ con las disponibles en Python?
MRF con condicionamiento en algunos datos externos x es un CRF.