Encuentro que el rendimiento de los modelos (vgg16,19, xception) disminuye con el aumento en el número de instancias de capacitación y validación.
Según los pequeños detalles proporcionados, me pregunto si su observación (disminución del rendimiento del conjunto de pruebas) es estadísticamente significativa.
Para el caso, incluso el entrenamiento en el mismo conjunto de entrenamiento varias veces, para el mismo número de iteraciones, produce un rendimiento diferente del conjunto de prueba debido a la naturaleza aleatoria de SGD.
- ¿La mayoría de los algoritmos de aprendizaje automático se ejecutan en lotes, o se ejecutan cada vez que obtienen un nuevo bit de datos?
- ¿El aprendizaje automático es un subconjunto de la ciencia de datos?
- ¿Puedo usar TensorFlow sin tener experiencia con el aprendizaje automático?
- ¿Cuál es una explicación intuitiva de la aproximación de la función de codificación de mosaico en el aprendizaje por refuerzo?
- ¿Qué enfoque se debe tomar para decidir el modelo de clasificación?
También supongo que no tienes muchas imágenes RBC, por lo que debes comenzar desde la red pre-entrenada (ImageNet?) En primer lugar. ¿Es entonces significativo el “aumento en el número de instancias de capacitación”? ¿Es esto un aumento del 10%, un aumento del 100% o un aumento del 1000% (10x)? No tomaría en serio aumentos menores en las instancias de entrenamiento (nada menos que duplicar los datos de entrenamiento; en el régimen de datos bajos) en serio. Tus observaciones podrían ser solo ruido.
¿Estás tratando de aprender toda la red con un puñado de datos? Eso tampoco sería sabio. Las redes mencionadas son bastante profundas y pueden adaptarse fácilmente. Solo recomendaría optimizar las últimas capas de la red; de hecho utilizando una red más pequeña, por ejemplo, AlexNet.
También recomendaría dar más detalles, incluido el tamaño de los conjuntos de entrenamiento / val, así como los intervalos en los que los aumenta, así como la diferencia en el rendimiento. Quizás también un par de ejemplos de cómo se ven estas imágenes.