¿Son los modelos gráficos probabilísticos comúnmente vistos / muy utilizados en la minería de datos práctica / cotidiana?

La asignación de Dirichlet latente es el método de referencia actual para el modelado de temas en PNL. Los campos aleatorios condicionales (CRF) son un método popular para el reconocimiento de entidades con nombre.

Según las redes de creencias profundas,

Se han utilizado redes de creencias profundas para generar y reconocer imágenes (Hinton, Osindero y Teh 2006, Ranzato et. Al. 2007, Bengio, 2007), secuencias de video (Sutskever y Hinton, 2007) y datos de captura de movimiento (Taylor et. al. 2007). Si el número de unidades en la capa más alta es pequeño, las redes de creencias profundas realizan una reducción de dimensionalidad no lineal y pueden aprender códigos binarios cortos que permiten la recuperación muy rápida de documentos o imágenes (Hinton y Salakhutdinov, 2006; Salakhutdinov y Hinton, 2007) .

Según la red bayesiana,

Las redes bayesianas se usan para modelar creencias en biología computacional y bioinformática (redes reguladoras de genes, estructura de proteínas, análisis de expresión génica, aprendizaje de epistasis de conjuntos de datos GWAS) medicina, biomonitoreo, clasificación de documentos, recuperación de información, búsqueda semántica, procesamiento de imágenes, fusión de datos, sistemas de soporte de decisiones, ingeniería, apuestas deportivas, juegos, derecho, diseño de estudios y análisis de riesgos. Hay textos que aplican redes bayesianas a bioinformática e informática financiera y de marketing.

Todos los anteriores son modelos gráficos probabilísticos, por lo que sí, se usan en varios aspectos de la minería de datos. Creo que los más utilizados son los HMM para el reconocimiento de voz y el reconocimiento de escritura, como dijo Soumyadeep Chatterjee.

Suponiendo que se refiere a modelos gráficos probabilísticos , la respuesta varía significativamente según la aplicación. Para el análisis de texto, por ejemplo, en realidad son muy comunes (ver, por ejemplo, Campo aleatorio condicional).

En otros campos pueden no ser generalizados, pero siguen siendo un gran paradigma para saber con el fin de tener un muy buen punto de partida sobre cómo realizar inferencia en un modelo, dónde pueden encontrarse las complejidades, qué aproximaciones puede realizar (si es necesario ) y dónde fallarán.

Los modelos ocultos de Markov (HMM) son modelos gráficos (con una estructura especial) que se utilizan habitualmente en el procesamiento de voz, por ejemplo, Siri o Google Voice Search.

Nunca he visto ninguno en mi campo (procesamiento de imágenes médicas). Pero han pasado un par de años desde que asistí a las principales conferencias en el campo, por lo que es muy posible que se hayan vuelto algo populares mientras tanto.

Debo agregar que usamos campos aleatorios de Markov a diario, y que probablemente estén relacionados o incluso una especie de modelos gráficos.

More Interesting

¿Cuáles son algunos problemas de aprendizaje automático que están más allá del poder de scikit-learn para resolver?

¿Qué tan poderoso es la PNL?

¿Cuál es el mejor lenguaje de programación para un bootcamp de aprendizaje automático?

¿Hay algún programa en desarrollo que pueda escuchar un idioma y comenzar a aprenderlo, como en Star Trek?

¿El trabajo de finanzas corporativas será reemplazado por aprendizaje automático?

¿Cuál es la mejor manera de aprender la regresión logística?

Cómo explicar intuitivamente los tensores

¿Dónde puedo encontrar algunas empresas que trabajen con técnicas de aprendizaje automático y minería de datos, en el campo biomédico?

¿Cómo puede un joven de 16 años comenzar a aprender sobre el aprendizaje automático?

¿Cuál es el mejor método para la reducción de dimensionalidad y la selección / extracción de características en datos de espectrometría de masas?

¿Qué significa cuando obtengo buenos resultados de la medida F con un CV de 10 veces pero resultados pobres en los datos de la prueba, resultados similares si participo el conjunto de datos original en el conjunto de entrenamiento / validación? Obtengo buenos resultados en la validación pero malos resultados en el conjunto de pruebas.

¿Cuál es el método del núcleo? ¿Cómo se usa en los sistemas de recomendación?

¿Cuáles son algunos de los documentos fundamentales sobre el aprendizaje profundo?

¿Hay algún proyecto / investigación de Machine Learning interesante en el que pueda trabajar de forma independiente?

¿Cuál es el mejor instituto en Bangalore para aprendizaje automático, inteligencia artificial y aprendizaje profundo (necesita práctica)?