¿Cuál es un ejemplo de aplicación en el mundo real de los modelos de mezcla gaussiana?

Los modelos de mezcla gaussiana se usan mucho cuando las poblaciones subyacentes pueden explicarse por una distribución normal y hay muchas poblaciones heterogéneas.

Como ejemplo, podemos observar las alturas promedio de personas de diferentes etnias, digamos afroamericanos, caucásicos, asiáticos y latinos. Podemos suponer que la distribución de altura es ligeramente diferente dentro de cada etnia, y sigue una distribución normal. El factor de ponderación puede ser el porcentaje de la población que proviene de cada grupo étnico como se define anteriormente. Entonces, este sería un modelo de mezcla gaussiana de 4 puntos.

Puede haber modelos mucho más complicados posibles cuando se usan mezclas gaussianas multivariadas o mezclas continuas. (Por cierto, una distribución t, que se usa ampliamente en pruebas estadísticas, es una mezcla continua de distribuciones gaussianas). Aunque este es un ejemplo simple, las posibilidades son infinitas, ya que casi todos los fenómenos, a largo plazo, tienden a una distribución gaussiana por el Teorema del límite central.

Modelos de mezclas para pronosticar devoluciones de activos

La predicción de retorno de activos es difícil. La mayoría de las técnicas tradicionales de series temporales no funcionan bien para la devolución de activos. Una razón importante es que los modelos de análisis de series de tiempo (TSA) requieren que sus datos sean estacionarios. Si no es estacionario, debe transformar sus datos hasta que sea estacionario.

Eso presenta un problema.

En la práctica, observamos múltiples fenómenos que violan las reglas de estacionariedad, incluidos los procesos no lineales, la agrupación de volatilidad, la estacionalidad y la autocorrelación. Esto hace que los modelos tradicionales sean en su mayoría ineficaces para nuestros propósitos.

Cuales son nuestras opciones?

Hay muchos algoritmos para elegir, pero pocos son lo suficientemente flexibles como para abordar los desafíos de predecir los rendimientos de los activos:

  • la media y la volatilidad cambian a través del tiempo
  • a veces los rendimientos futuros están correlacionados con los rendimientos pasados, a veces no
  • a veces la volatilidad futura se correlaciona con la volatilidad pasada, a veces no
  • comportamiento no lineal

Para recapitular, necesitamos un marco modelo que sea lo suficientemente flexible como para (1) adaptarse a procesos no estacionarios y (2) proporcionar una aproximación razonable del proceso no lineal que está generando los datos.

¿Pueden los modelos de mezcla ofrecer una solución?

Tienen potencial Primero, se basan en varios conceptos bien establecidos.

Modelos de Markov : se utilizan para modelar secuencias en las que el estado futuro depende solo del estado actual y no de estados pasados. (procesos sin memoria)

Modelos ocultos de Markov : se utilizan para modelar procesos en los que el estado verdadero no se observa (está oculto) pero hay factores observables que nos brindan información útil para adivinar el estado verdadero.

Expectativa-Maximización (EM) : este es un algoritmo que itera entre los parámetros de la clase de computación y maximiza la probabilidad de los datos dados esos parámetros.

Una manera fácil de pensar acerca de la aplicación de modelos mixtos para la predicción del rendimiento de activos es considerar los rendimientos de activos como una secuencia de estados o regímenes . Cada régimen se caracteriza por sus propias estadísticas descriptivas que incluyen la media y la volatilidad. Los regímenes de ejemplo podrían incluir baja volatilidad y alta volatilidad. También podemos suponer que los rendimientos de los activos harán la transición entre estos regímenes en función de la probabilidad. Al enmarcar el problema de esta manera, podemos usar modelos mixtos, que están diseñados para tratar de estimar la secuencia de los regímenes, la media y la varianza de cada régimen, y las probabilidades de transición entre los regímenes.

El más común es el modelo de mezcla gaussiana (GMM).

La suposición del modelo subyacente es que cada régimen es generado por un proceso gaussiano con parámetros que podemos estimar. Bajo el capó, GMM emplea un algoritmo de maximización de expectativas para estimar los parámetros del régimen y la secuencia más probable de los regímenes.

Los GMM son modelos generativos y flexibles que han tenido éxito al aproximarse a datos no lineales. Los modelos generativos son especiales en el sentido de que intentan imitar el proceso de datos subyacente de modo que podamos crear nuevos datos que deberían verse como datos originales.

Fuente: Modelos de mezclas para pronosticar el retorno de activos

More Interesting

Cómo usar la función Master-Slave de PHPMyAdmin para replicar una base de datos en una máquina diferente

¿Por qué las redes neuronales recurrentes no pueden ampliarse bien?

¿Cómo cambiará el aprendizaje automático la sociología?

¿Para qué se utiliza el aprendizaje automático?

¿Cuáles son las mejores fuentes para aprender el aprendizaje automático y el procesamiento del lenguaje natural?

¿Qué es ingenuo Bayes en minería de datos?

¿Cuáles son los mejores métodos de detección de anomalías para imágenes?

¿Cómo detectaría el modelo de aprendizaje profundo los mismos objetos varias veces en un parche de imagen si existe?

¿Por qué Quora eligió a HackerRank como plataforma para organizar sus competiciones de ML en lugar de algún sitio más familiar como Kaggle?

¿Cuál es la forma completa de AUC en el estado de AUC de los resultados del examen AKTU?

¿Cuál es la mejor hoja de ruta para aprender el aprendizaje automático usando Python?

¿Estamos presenciando las primeras etapas del uso de ML en la industria o cree que la aplicación de ML hacia la industria ya está muy extendida?

Cómo calcular el factor de escala 1 / z en la clasificación de Naive Bayes

¿Qué pasos son necesarios para construir un sistema de aprendizaje profundo para el análisis de sentimientos, tomando como datos de entrada de las redes sociales?

¿En qué se diferencia la teoría del "cuello de botella de información" del aprendizaje profundo del ejemplo conocido de tener una capa oculta de dimensión reducida en un codificador automático?