¿Qué tipo de aumento de datos se puede usar para imágenes médicas?

Es cierto que la importancia del aumento de datos depende del tamaño y la calidad del conjunto de datos. No sé cuál es la variedad en el conjunto de datos que tiene. Suponiendo que tenga un buen conjunto, puede intentar hacer lo siguiente:

Diagnóstico automatizado utilizando clasificadores estándar : si tiene imágenes de resonancia magnética de individuos normales vs enfermos, podría construir vectores de características significativas de los aspectos relevantes de la imagen y entrenar un algoritmo de ML para escribir el diagnóstico por usted. Esto funcionará bien si el dominio del diagnóstico de la enfermedad está bien limitado. Si no es así, los métodos avanzados son el camino a seguir.

Puede leer este documento para tener una buena idea: https://github.com/iiSeymour/fun…

Entrenaron a un perceptrón multicapa en imágenes del fondo del ojo para diagnosticar la retinopatía diabética. Como se esperaba, un diagnóstico multifacético se dividió en un conjunto de problemas de clasificación binaria y luego se combinan los resultados para generar el diagnóstico. Los niveles de precisión dependen de una variedad de factores: elección de características, volumen de datos, elección del algoritmo.

Si tiene menos proyecciones de resonancia magnética: aún podría estudiar qué combinación / número de proyecciones se requieren para clasificar la imagen en el escaneo con la mayor precisión. Una vez que haya definido su tarea de clasificación, puede intentar responder las siguientes preguntas

  1. Construya una gráfica de No. de proyecciones vs. precisión del clasificador. ¿que ves?
  2. ¿Las características están mejor separadas en una proyección determinada que en otra? haga un KNN simple después de que haya extraído las características de sus cortes de MRI
  3. Si solo tiene un tipo de conjunto de datos (solo todos los escaneos normales, por ejemplo), intente detectar todas las regiones automáticamente

3. Impacto de la resolución: adquiera las imágenes en múltiples resoluciones y estudie el impacto en el resultado del aumento.

Métodos espectrales: si quieres hacer algo realmente avanzado, puedes buscar el trabajo del profesor Anima Anandkumar. Ella trata de sortear los inconvenientes de tener menos datos o menos dimensiones en los datos utilizando modelos gráficos probabilísticos y nuevos métodos de Tensor para análisis de baja dimensión. Su software y su trabajo están en su página de inicio.

Animashree Anandkumar

Sin embargo, la idea del diagnóstico basado en el aumento de datos está lejos de ser nueva. El primer documento completo que he leído es este. Construye una lógica estructurada sobre cómo construir su enfoque basado en datos basado en los datos / problemas que tiene a mano.

Inteligencia Artificial en Diagnóstico Médico

Espero que esto pueda ser de alguna ayuda. ¡Buena suerte!

Depende mucho de las imágenes médicas en las que esté trabajando, si puede saber en qué está trabajando, podrá obtener una mejor ayuda.

Si bien para algunas modalidades se aplican todas las técnicas de aumento comunes utilizadas para imágenes de cámara natural, no tiene sentido aplicar nada aparte de una ligera rotación en algunas otras fuentes. La razón es que el reconocimiento en muchas imágenes médicas suele ser un problema resuelto de arriba abajo y no de abajo hacia arriba (como la mayoría de las imágenes naturales). Además, las intensidades son mucho más importantes en muchas modalidades de imágenes médicas en comparación con las imágenes del mundo real, otra razón por la cual muchos aumentos no funcionan. Eso, combinado con pequeños conjuntos de datos, es la razón por la cual Deep Learning no tiene el estado del arte para muchos problemas de imágenes médicas. Si puede acumular un gran conjunto de datos, existen algunos métodos muy innovadores para aplicar Deep Learning on Medical Imaging, que son diferentes de lo que sabemos.

Para los problemas en los que se pueden aplicar los aumentos tradicionales, parece que el aprendizaje por transferencia funciona mucho mejor que las redes de entrenamiento debido a pequeños conjuntos de datos.

HTH

Puedes leer esto: Cómo usar Deep Learning cuando tienes datos limitados – Parte 2 | Aumento de datos

Supongo que esto cubre bastante bien las imágenes: varias técnicas, código y casos de esquina.

More Interesting

¿Cómo es el estado de ML en Palantir?

¿Qué tipo de algoritmos utilizamos para el análisis de sentimientos? ¿Hay alguna lista para los algoritmos y sobre su estructura?

¿Cómo aprendo el aprendizaje automático y dónde puedo practicarlo?

Cómo comenzar a trabajar en un proyecto de análisis de sentimientos

¿Por qué la precisión del entrenamiento de la red CNN aumenta rápidamente cuando elijo un tamaño de lote relativamente más pequeño?

¿Cuál es el algoritmo de aprendizaje automático más rápido para implementar para la detección de fraudes?

Cómo saber que un modelo de similitud de documentos puede lograr un alto rendimiento / mejor calidad que los otros modelos

¿En qué áreas podría el aprendizaje automático ayudar a las personas a tomar decisiones imparciales?

¿Puedes explicar el descenso coordinado en términos simples?

¿Cuál es el mejor artículo para entender cómo se mapea el vector de salida de RNN con un vocabulario para predecir la secuencia?

¿Puedo usar el algoritmo de aprendizaje automático en mi proyecto de investigación aunque no soy un experto en él?

¿Cuáles son algunas buenas aplicaciones o scripts que prueban muchas técnicas de aprendizaje automático a la vez para problemas de predicción?

¿Cuáles son las cosas divertidas que encontró en el procesamiento del lenguaje natural (PNL)?

¿Es posible usar datos sintéticos (no de la vida real) en un modelo de aprendizaje automático?

Cómo construir un conjunto de datos para el aprendizaje automático