¿Por qué es importante la eliminación de variables en los modelos gráficos probabilísticos?

Supongamos, el siguiente modelo gráfico.

[matemáticas] A \ rightarrow B \ rightarrow C \ rightarrow D \ rightarrow E [/ math]

Supongamos que queremos calcular P (E) o podemos calcular E para cierto valor como P (E = e). Luego, bajo el modelo gráfico, necesitamos calcular

[matemáticas] p (E) = \ sum_ {A, B, C, D} P (A, B, C, D, E) [/ matemáticas]

Si consideramos que cada variable toma los valores posibles de [math] n [/ math], esto tomará el tiempo de cálculo [math] O (n ^ 4) [/ math].

Sin embargo, E solo depende de D. Por lo tanto, no necesitamos calcular otras variables, podemos eliminarlas (por supuesto, eliminamos mediante la reorganización del término de suma a lo largo de los nodos de dependencia).

Finalmente, terminaremos con

[matemáticas] P (E) = \ sum_ {D} P (E | D) P (D) [/ matemáticas] esto solo requiere [matemáticas] O (n ^ 2) [/ matemáticas].

La eliminación de variables es importante porque reduce el tiempo de cálculo al eliminar cálculos innecesarios.

Es la técnica que le enseña cómo hacer inferencia al marginar sobre las variables. Sin ella, no puedo ver cómo haríamos inferencia. Tal vez habría otro algoritmo, supongo. No estoy seguro si hay un límite inferior en las cosas, pero me sorprendería bastante si hay un mejor algoritmo por ahí.

para detalles:

https://ocw.mit.edu/courses/elec

More Interesting

¿Cómo se puede utilizar la máquina de Boltzmann restringida en problemas de clasificación?

¿Cuáles son algunas buenas escuelas de investigación (PhD) para Inteligencia Artificial General (no Machine Learning)?

¿La validación cruzada más pequeña siempre es un indicador de un mejor modelo predictivo incluso si un modelo predictivo tiene una gran cantidad de parámetros?

¿Qué piensa Andrew Ng sobre Deep Learning?

¿Qué es la enseñanza profunda?

¿Cuál es el propósito de usar la variable slack en SVM?

Las entidades biológicas inconscientes que simplemente reaccionan automáticamente a su entorno han evolucionado y se han vuelto autoconscientes. ¿Qué impide que AI lo haga?

¿Cómo se puede interpretar el teorema de Bayes en términos de inferir relaciones causales en los datos?

Soy un ingeniero electrónico que conoce algoritmos de aprendizaje automático, big data, estadísticas, SQL, Matlab. ¿Puedo ser contratado como ingeniero de IA de nivel básico?

¿Cuál es la diferencia entre análisis de datos, ciencia de datos, big data y aprendizaje automático?

¿Qué ha causado la gran mejora en los algoritmos de reconocimiento de voz en los últimos años: mejores algoritmos (si es así, ¿cuál?) O la mayor potencia informática?

¿Qué quieres decir con optimización?

¿Cómo es tomar 9.520 (teoría de aprendizaje estadístico) en el MIT?

¿Cómo se aplica el análisis tensorial al aprendizaje automático, en términos de contexto específico de aplicación?

¿Dónde puedo encontrar un tutorial detallado sobre los árboles de decisión?