En el algoritmo EM, ¿debería aumentar el valor de la función objetivo a través de cada M-STEP?

La probabilidad en EM aumenta en cada paso. Eso significa tanto en los pasos de Expectativa como de Maximización.

La salida del paso M en la iteración [matemática] n [/ matemática] le proporciona algunos parámetros [matemática] \ theta_n [/ matemática] y el valor de función asociado alcanzado por estos parámetros en la función objetivo Q es [matemática ] x_n [/ matemáticas]. Luego, el E-step modificará esa función que acaba de optimizar. La buena noticia es que lo que hace el E-step es aumentar aún más la probabilidad de que [math] \ theta_n [/ math]. Entonces, cuando vuelve a optimizar (el paso M en la [matemática] (n + 1) [/ matemática] -th iteración) y comienza en [matemática] \ theta_n [/ matemática] usando su nueva función Q, eso el primer valor es donde te ubica el E-step. Y a partir de ahí, aumentarás la probabilidad aún más al pasar a nuevos parámetros [math] \ theta_n [/ math].

Entonces, el valor de la función objetivo Q siempre, siempre, siempre aumenta.

Trataré de decirlo metafóricamente. Es como si tu eres la variable [matemáticas] \ theta [/ matemáticas] y el mundo define una función objetivo Q que mide la felicidad. En el paso M, te adaptas al mundo. En el E-step, los mundos se adaptan a ti. En cada paso, la felicidad aumenta. Tenga en cuenta que, dado que el mundo se ha movido para aumentar su felicidad, tiene al menos la misma felicidad que en la iteración anterior. De lo contrario, mover el mundo (E-step) no tiene sentido.