Primero, le preguntaría exactamente qué hizo cuando dice que repitió la muestra del 80% 5 veces. Si realizó un muestreo aleatorio cada vez, eso no se denomina validación cruzada. Esto se debe a que es bastante posible que las cinco muestras del 80% contengan conjuntos muy similares de puntos de datos. La forma correcta de hacer una validación cruzada 5 veces es:
- Divida el conjunto de datos en 5 conjuntos de igual tamaño.
- Reserve uno de los 5 juegos para la validación y use los otros 4 juegos para el entrenamiento. Ajuste su modelo y mida las métricas requeridas.
- Repita reservando uno diferente de los 5 conjuntos para la validación y los otros 4 para el entrenamiento. Esto le dará un total de 5 corridas para ajustar su modelo y calcular las métricas.
Cuando tiene muy pocos puntos de datos, debe usar la validación cruzada “dejar-k-fuera” en lugar de la validación cruzada “k-fold”, pero son esencialmente lo mismo. Aquí hay un enlace a un artículo sobre validación cruzada del Prof. Rob Hyndman, que encontré muy útil cuando estaba aprendiendo al respecto: ¿Por qué cada estadista debería saber sobre la validación cruzada
Con respecto a qué métricas usar y cómo usarlas: recuerde que el objetivo principal de la validación cruzada es evitar el sobreajuste. Elija sus métricas en consecuencia y ajuste su modelo en función de la suma (o promedio, como usted menciona) de las métricas en las k ejecuciones. Un ejemplo es: si ejecuta la selección del modelo utilizando la selección hacia adelante basada en AIC, calcule el AIC total de cada conjunto de entrenamiento sobre todas las k ejecutadas para cada atributo del modelo restante antes de elegir el atributo para agregar al modelo.
- ¿Qué es un núcleo universal en el contexto del aprendizaje automático?
- En cuanto al aprendizaje automático o el aprendizaje profundo, ¿existe el fenómeno de que el modelo funciona bien pero el diseñador no puede explicar la razón?
- Después de las estructuras de datos y algoritmos (DSA), ¿qué debo aprender (ML, AI, ciencia de datos)? ¿O debería comenzar a hacer algunos proyectos sobre cosas que ya he aprendido?
- ¿Cuáles son algunos buenos recursos para aprender sobre el control y la optimización de procesos sin modelos?
- ¿Por qué las redes neuronales artificiales se usan ampliamente en la clasificación de imágenes?
Es más probable que esté utilizando la validación cruzada solo para verificar su modelo después de desarrollarlo. En este caso, vería la suma o la media de la métrica de rendimiento en los k conjuntos de validación. Cabe señalar que la varianza de la métrica a través de las k carreras es tan importante como la media : si hay un sobreajuste, su rendimiento será alto en algunas muestras y pobre en otras. Un buen modelo debe mostrar un rendimiento similar en todas las muestras.
El área bajo la curva ROC es una buena métrica para usar en la validación cruzada de un modelo de regresión logística, pero le recomendaría que verifique también la Concordancia (explicada muy bien en esta página: Interpretación de la estadística de concordancia de un modelo de regresión logística: relación con la varianza y odds ratio de una variable explicativa continua).