En la Maximización de Expectativa regular (maximizando la probabilidad de datos con respecto a los parámetros de distribución), el paso de maximización es esencialmente maximizar un límite inferior de la probabilidad de datos. Sin embargo, maximizar directamente ese límite inferior (introducido por la desigualdad de Jensen) podría ser difícil y, de hecho, solo optimizando la probabilidad de datos, el límite inferior en cada paso de maximización no necesariamente es óptimo, pero solo un poco, puede la probabilidad de datos ser optimizado eventualmente
La maximización condicional de expectativas es uno de esos algoritmos, que, en lugar de maximizar el límite inferior de probabilidad de datos directamente en el paso de maximización, aumenta el límite inferior de probabilidad de datos simplemente maximizando los parámetros de distribución individualmente, condicionado a que otros parámetros de distribución permanezcan fijos.
- Cómo multiplicar elementos de matriz sin usar bucle
- Cómo mejorar en la resolución de problemas para JEE
- ¿Cuál es la diferencia entre un problema formal y solo un problema?
- ¿Cuáles son los algoritmos que uno debería usar para generar automáticamente intentos de chatbots?
- ¿Por qué alguien no puede encontrar un algoritmo para la detección de imágenes que funcione mejor que SIFT (Scale Invariant Feature Transform)? ¿De dónde viene exactamente el problema?