Es un modelo probabilístico generativo para ajustar datos multimodales (conjuntos de datos con múltiples “picos”).
Para entender los modelos de mezcla gaussianos (GMM), es una buena idea dar un paso atrás y mirarlo desde el contexto de los modelos de mezcla en general.
La idea central de un modelo mixto es suponer que el conjunto de datos fue generado por un conjunto de diferentes problemas. distribuciones Clásicamente, un modelo de mezcla tiene la siguiente forma:
- ¿Por qué el preentrenamiento no supervisado actúa como un regularizador en arquitecturas profundas?
- Cómo aprender a limpiar datos usando R rápidamente
- ¿Cuáles son las condiciones de Dirichlet en una serie de Fourier? ¿Son necesarias las condiciones de Dirichlet?
- ¿Cómo funciona la detección de rostros?
- ¿La máquina está aprendiendo la 'versión del hombre tonto' de intentar recrear la inteligencia?
[matemáticas] P (x_i | \ theta) = \ sum_m c_m P (x | \ theta_m) [/ matemáticas]
donde [math] x_i [/ math] es un punto de datos en el conjunto de datos, [math] c_m [/ math] es el componente anterior, [math] P (x_i | \ theta_m) [/ math] es la probabilidad de que La distribución del componente m ^ th generó [math] x_i [/ math] y [math] \ theta_m [/ math] son los parámetros para el componente m ^ th.
Si queremos muestrear algunos puntos de datos con un modelo mixto, primero elegiríamos el componente [math] m [/ math] con probabilidad [math] c_m [/ math], luego muestrear [math] x [/ math] de ese componente distribución con probabilidad [matemática] P (x | \ theta_m). [/ matemática]
En el caso particular de los GMM, estamos asumiendo que todas esas distribuciones de componentes toman la forma de un gaussiano. Esto significa que:
[matemáticas] P (x_i | \ theta) = \ sum_m c_m P (x | \ theta_m) [/ matemáticas]
se convierte en:
[matemáticas] P (x_i | \ theta) = \ sum_m c_m N (x | \ mu_m, \ Sigma_m) [/ matemáticas]
que te da la ecuación probabilística para un GMM!