Aunque se introdujeron principalmente para encontrar temas latentes en documentos de texto, los modelos de temas han demostrado ser relevantes en una amplia gama de contextos.
Encontrar temas latentes en un gran corpus de documentos
Esta es la aplicación práctica más famosa de los modelos de temas, e históricamente la que se utilizó para demostrar sus beneficios y su eficiencia (pero también algunos de sus límites). Se pueden considerar diferentes tipos de documentos / corpus, como el claro ejemplo de Twitter propuesto por Harish en otra respuesta.
La mayoría de las mejoras relacionadas con el modelado de temas se realizaron en el contexto de minería y modelado de documentos de texto:
- ¿Cuáles son algunos textos recientes sobre métodos de kernel?
- Estoy tratando de evaluar el rendimiento del modelo (regresión). En la literatura, algunos usan RMSE y otros usan correlación. ¿Hay alguna diferencia entre ambos enfoques?
- ¿Cuál es el mejor clasificador HOG de detección de peatones para descargar?
- ¿Cuál es el papel del análisis de datos exploratorios (EDA) en el aprendizaje automático?
- ¿Cuáles son las principales debilidades de la estadística de brecha para evaluar el número de clústeres presentes en un conjunto de datos?
- Se introdujeron modelos de temas correlacionados para modelar las interacciones entre temas (http://www.cs.columbia.edu/~blei…).
- Se exploraron modelos de temas dinámicos para descubrir cómo evolucionan los temas con el tiempo (http://www.cs.columbia.edu/~blei…).
- Se describieron modelos de temas sintácticos para explicar las restricciones sintácticas sobre las palabras en un documento de texto (http://www.cs.columbia.edu/~blei…).
Estas mejoras se centran en mejorar la LDA básica con un modelo gráfico más sofisticado (es decir, un proceso generativo más complejo) y abordar los problemas resultantes que surgirán más adelante durante la inferencia posterior. Estos son trabajos de investigación, pero también son algunos casos de uso bastante buenos.
Encontrar acciones recurrentes en transmisiones de videovigilancia
Básicamente, un video es una secuencia de imágenes. Construyamos la analogía con documentos textuales:
- La muestra de video completa es el corpus de documentos
- Cada documento es un videoclip de un par de cientos de cuadros.
- Ahora necesitamos tener palabras, un vocabulario que nos permita construir un documento. Para este asunto, consideraremos un videoclip (es decir, un documento). Primero, realicemos una resta de fondo y calculemos el flujo óptico de los píxeles de primer plano. Luego dividamos nuestra imagen en una cuadrícula de cuadrados de 10 píxeles de ancho. Ahora podemos definir un vocabulario dado al completar la posición de los píxeles de primer plano en nuestra cuadrícula con la dirección de su flujo óptico asociado (por ejemplo, {izquierda, arriba, derecha, abajo, aún}). Para una imagen de resolución de video 240 * 360, eso nos da un vocabulario de tamaño 24 * 36 * 5 = 4320 palabras. Al agregar todas las palabras en cada imagen del videoclip, se puede obtener un documento.
La analogía ahora está completa y los temas resultantes pueden interpretarse como acciones recurrentes. Una explicación muy detallada y algunos resultados muy interesantes se pueden encontrar aquí: http://www.idiap.ch/~odobez/publ…. Hay algunos trabajos recientes de Jean-Marc Odobez que aplican modelos gráficos más sofisticados para lograr objetivos similares.
Otros casos de uso
Los casos de uso son infinitos, solo hay que pensar en LDA como un proceso generativo (sin embargo, tenga cuidado, ya que podría comenzar a ver modelos de temas en todas partes).
En lo alto de mi cabeza, puedo pensar en:
- Indización masiva de películas automáticas a partir de subtítulos.
- Mociones de cotizaciones bursátiles de actualidad.
- Modelado de influencia musical (Página en jmlr.org).
- Comportamiento minero de usuarios de Internet.