¿Tiene sentido tener un conjunto de validación y realizar una validación cruzada al construir modelos?

Gracias por A2A.

Definitivamente tiene sentido tener un conjunto de validación para construir modelos, ya que de lo contrario su modelo podría sobreajustar los datos de entrenamiento y generalizarse mal en los datos de prueba. Las pruebas de rendimiento en los datos de validación nos dan cierta confianza en que el modelo se generalizaría bien en los datos de prueba (no vistos). Además, si evaluamos el conjunto de validación durante el entrenamiento, puede darnos algunos consejos sobre cómo proceder con el entrenamiento para evitar el sobreajuste; por ejemplo, en el entrenamiento de CNN, si el error de entrenamiento disminuye pero el error de validación aumenta, disminuimos la tasa de aprendizaje para contrarrestar el sobreajuste.

Ahora, en los casos en que no podemos tener un conjunto de validación, generalmente debido a la falta de buenas cantidades de datos anotados, hacemos validación cruzada.

¡Pero en caso de que podamos tener un conjunto de validación considerable como la mayoría de los conjuntos de datos de aprendizaje profundo, solo tenemos que probar el rendimiento en el conjunto de validación, sin encontrar ninguna validación cruzada!

Espero que ayude !!

Al desarrollar un modelo ml (algoritmo), la mejor práctica es usar los datos de validación cruzada (CV) para seleccionar el mejor modelo de una serie de candidatos modelo, y usar los datos de prueba para verificar qué tan bien se generalizó el algoritmo. Además, puede utilizar los datos de CV para seleccionar parámetros dentro del modelo seleccionado. Dado que los datos de CV se han utilizado para modificar el modelo ml, no lo usaría para realizar pruebas. Entonces 60–20–20 puede ser una partición entre tren, CV y ​​prueba. Por supuesto, reducir el conjunto de entrenamiento puede reducir el rendimiento del aprendizaje. Al analizar el error de entrenamiento y el error CV, puede determinar si el algoritmo sufre un ajuste insuficiente o excesivo. Recolectar más datos de entrenamiento o aumentar el parámetro de regularización lamda puede ayudar a reducir el sobreajuste. Siempre podría tratar de obtener más datos de entrenamiento si pudiera. Usar todos los datos para el entrenamiento final probablemente no sea una buena idea. Sin datos de prueba, todavía está ciego en el rendimiento final. Por cierto, en el dominio de dispositivos médicos, la FDA, como organismo regulador, puede no permitir que un dispositivo entrene en datos de prueba si planea colocar el dispositivo en el mercado estadounidense.

More Interesting

¿Por qué Bayes ingenuo se considera un modelo generativo?

Si la IA de aprendizaje automático no puede explicar una respuesta, ¿se puede 'confiar' en un diagnóstico médico?

Minería de datos: utilizando el análisis de la cesta de la compra para el pronóstico de ventas, ¿cuál es el mejor algoritmo?

¿Cuáles son algunas formas de preprocesar imágenes antes de aplicar redes neuronales convolucionales para la tarea de clasificación de imágenes?

¿Cuáles son algunos de los requisitos previos necesarios para aprender el aprendizaje automático o la inteligencia artificial?

Cómo detectar texto / imágenes en una imagen de documento

¿Cuál es la relación entre física y aprendizaje automático / IA?

¿Cuál es el mejor marco de aprendizaje profundo que puedo usar para clasificar las imágenes de resonancia magnética? ¿Keras es adecuado para eso?

¿Cuáles son algunos ejemplos reales de modelos estadísticos que son pobres en la predicción pero útiles para la inferencia?

¿Cuál es una buena secuencia de autoaprendizaje para el aprendizaje automático?

¿Pueden las redes neuronales profundas resolver problemas NP-Hard?

¿Cuál es la definición de 'conjunto de desarrollo' en el aprendizaje automático?

¿Es el aprendizaje automático una mejor forma o técnica para comprender los datos y hacer pronósticos que las estadísticas?

¿Cuáles son algunas falacias o errores comunes cometidos por los principiantes en estadística, aprendizaje automático y análisis de datos?

¿Cuál es la mejor manera de predecir una clase +/- en un escenario de aprendizaje automático donde tengo k características trinarias y un conjunto de datos del orden de cientos o miles?