Durante mi última semana como estudiante de medicina, un médico de medicina de emergencia me llevó a un lado y me explicó que “la toma de decisiones médicas se trata del Teorema de Bayes”. El médico no tenía antecedentes matemáticos o técnicos, pero su perspicaz comentario resumía la belleza de los modelos gráficos probabilísticos. Los PGM son excelentes herramientas para tomar decisiones y calcular la probabilidad de un resultado particular en función de colecciones (a menudo incompletas) de conocimiento previo. En medicina, un médico hace su diagnóstico basándose en la información disponible, que nunca es 100% confiable o completa. Un paciente que acude al servicio de urgencias quejándose de dolor abdominal puede tener una de las muchas afecciones que causan dolor abdominal. Si sabemos que es una mujer joven en sus veintes y que su dolor comenzó alrededor de su ombligo y se movió a su abdomen inferior derecho en el transcurso de un día, nuestra lista de diagnósticos candidatos cambia para que la apendicitis suba más en la lista. Por otro lado, si nuestra paciente era una mujer anciana que había sido hospitalizada muchas veces con quejas similares y que su dolor abdominal estaba en su abdomen inferior izquierdo, el diagnóstico más probable sería otra afección llamada diverticulitis, en lugar de apendicitis.
Dejando a un lado la jerga médica, los modelos gráficos probabilísticos se prestan bien para el diagnóstico asistido por computadora (y análisis de fallas y análisis de herencia genética) porque usan probabilidades previas y un diagrama de flujo secuencial de eventos para llegar a conclusiones sobre los resultados basados en eventos anteriores. A diferencia de la lógica en blanco y negro (IF – THEN), son útiles en casos en los que queremos modelar eventos como una serie de probabilidades interconectadas de eventos. También son excelentes para casos en los que nuestro conocimiento previo tiene agujeros.
Si desea obtener más información sobre PGM, le recomiendo encarecidamente el curso Coursera de la profesora Daphne Koller. Ella presenta varios ejemplos interesantes, incluido el diagnóstico médico, en las conferencias introductorias:
- ¿Por qué TF (frecuencia de término) a veces da mejores puntuaciones F que TF-IDF para la clasificación de texto?
- ¿Hay un equivalente a Rosalind en el aprendizaje automático?
- ¿Existe alguna comparación entre las técnicas SLAM monoculares recientes, especialmente aquellas basadas en un aprendizaje profundo?
- ¿Cuáles son los pros y los contras de estos tres modelos de secuencia: modelo MaxEnt Markov, campos aleatorios condicionales y redes neuronales recurrentes?
- ¿Cuál es la forma correcta de calcular la similitud de coseno entre una consulta y un documento? Cuando calculo la magnitud del documento, ¿sumo los cuadrados de todos los términos del documento o solo los de la consulta?
Curso de clase sobre modelos gráficos probabilísticos por el profesor D. Koller