La probabilidad en EM aumenta en cada paso. Eso significa tanto en los pasos de Expectativa como de Maximización.
La salida del paso M en la iteración [matemática] n [/ matemática] le proporciona algunos parámetros [matemática] \ theta_n [/ matemática] y el valor de función asociado alcanzado por estos parámetros en la función objetivo Q es [matemática ] x_n [/ matemáticas]. Luego, el E-step modificará esa función que acaba de optimizar. La buena noticia es que lo que hace el E-step es aumentar aún más la probabilidad de que [math] \ theta_n [/ math]. Entonces, cuando vuelve a optimizar (el paso M en la [matemática] (n + 1) [/ matemática] -th iteración) y comienza en [matemática] \ theta_n [/ matemática] usando su nueva función Q, eso el primer valor es donde te ubica el E-step. Y a partir de ahí, aumentarás la probabilidad aún más al pasar a nuevos parámetros [math] \ theta_n [/ math].
Entonces, el valor de la función objetivo Q siempre, siempre, siempre aumenta.
- ¿Se aplican las estructuras de datos y algoritmos para C / C ++ a JavaScript?
- ¿Qué consejos y técnicas puedo aprender para retener mi comprensión de algoritmos y estructuras de datos?
- ¿Existe un algoritmo para encontrar un árbol con una longitud de ruta mínima ponderada para un gráfico conectado genérico?
- Cómo usar un video como entrada en un algoritmo de aprendizaje automático
- Dadas N monedas cada una se puede usar la mayoría de las veces T, ¿de cuántas maneras se puede hacer un valor V usando exactamente K monedas en total?
Trataré de decirlo metafóricamente. Es como si tu eres la variable [matemáticas] \ theta [/ matemáticas] y el mundo define una función objetivo Q que mide la felicidad. En el paso M, te adaptas al mundo. En el E-step, los mundos se adaptan a ti. En cada paso, la felicidad aumenta. Tenga en cuenta que, dado que el mundo se ha movido para aumentar su felicidad, tiene al menos la misma felicidad que en la iteración anterior. De lo contrario, mover el mundo (E-step) no tiene sentido.