Su suposición es correcta: los conjuntos de datos de ECG son demasiado pequeños para las redes neuronales, que son extremadamente hambrientos de datos (ImageNet es 10m + entrenamiento, y CIFAR-10 es 50k imágenes de entrenamiento).
Las GAN realmente no solucionan el problema de datos insuficientes. Si el conjunto de entrenamiento es demasiado pequeño, el discriminador simplemente aprenderá a memorizar los datos de entrenamiento, por lo que el generador simplemente copiará los datos de entrenamiento. El problema subyacente es que queremos cierta noción de suavidad en algún espacio semántico, pero no hay forma de inferir ese espacio semántico con un número muy pequeño de muestras.
Siempre hay otras formas de aumentar el tamaño de los datos, pero existe una compensación entre el esfuerzo de ingeniería y los resultados, y en algún momento, jugar con más estrategias de aumento de datos por unos pocos puntos porcentuales no agrega mucho al valor de la investigación.
- ¿Qué resultado arrojará una máquina de aprendizaje profundo bien entrenada de esta imagen?
- ¿Qué son los datos estructurados en el contexto del aprendizaje automático?
- ¿Cuál es la diferencia entre la clasificación de vectores de soporte y la regresión? ¿Un regresor de vectores de soporte se comporta como una red neuronal por casualidad?
- ¿Funciona el aprendizaje profundo si las entradas están en un espacio dimensional relativamente bajo?
- ¿Dónde se usa la función de pérdida con clases verdaderas desconocidas?