Si utiliza una parametrización ingenua de matriz completa de los parámetros de covarianza del GMM, es improbable que una actualización de gradiente estocástico ingenuo con respecto a las entradas de la matriz de covarianza conserve su definición positiva, lo que conduce a GMM inválidos.
Sin embargo, podría ser posible parametrizar las matrices de covarianza como factorizaciones de Cholesky [matemática] C_k = L_k L_k ^ T [/ matemática] (con [matemática] L_k [/ matemática] triangular inferior) y calcular las actualizaciones de gradientes en las entradas de L en lugar de [matemáticas] C_k [/ matemáticas].
Sin embargo, no he visto ninguna implementación de este enfoque en este enfoque en la literatura, por lo que podrían ser otros problemas.
- Quiero comprar una PC de segunda mano decente para comenzar con el aprendizaje profundo comprando una GeForce GTX 1070, ¿qué características me deberían interesar?
- Aprendizaje profundo: ¿Una versión suave de unidades lineales rectificadas funciona mejor o peor que una no lineal?
- ¿Qué es el aprendizaje automático y cuál es su futuro?
- ¿Por qué es óptimo establecer el tamaño del paso para la regresión logística con el descenso del gradiente al recíproco de la consistencia de lipschitz?
- ¿Cómo debo comenzar a escribir una IA que jugará FIFA?
Editar : probablemente sea más inteligente parametrizar la factorización de Cholesky de las matrices de precisión en lugar de las matrices de covarianza para ahorrar una costosa operación de inversión de matriz al calcular la función de probabilidad de registro (y su gradiente) para un lote de muestras.