Te sugiero que nunca hagas eso. Porque lo que realmente queremos aprender es un modelo que pueda generalizar a los datos de prueba.
Si nos entrenamos en los datos de la prueba, por supuesto, probablemente pueda encajar en los datos con una precisión que podría estar muy cerca. Pero estoy bastante seguro de que puede que no se generalice a los datos nuevos desde el problema de sobreajuste.
Lo que puede hacer es dividir sus datos de entrenamiento en un conjunto de entrenamiento y un conjunto de validación (por ejemplo, 80% y 20%). Entrene a su modelo en el conjunto de entrenamiento y luego ajuste los parámetros en el conjunto de validación. Para obtener el mejor rendimiento en el conjunto de validación, ya que si prueba sus datos en el mismo conjunto de datos de entrenamiento, no puede predecir la precisión de su modelo en los datos que no ha visto antes.
- ¿Qué debo hacer para poder contribuir al campo de la visión por computadora y trabajar en Google en el futuro?
- ¿Por qué asumiríamos que los datos son iid cuando no lo son?
- ¿Apache Spark es un buen marco para implementar Reinforcement Learning?
- ¿Cómo calcular la precisión y recuperación generales? ¿Obtengo la precisión y la recuperación de cada clase y obtengo el promedio
- ¿Cuáles son los problemas de investigación en la detección de objetos?
En caso de que no tenga suficientes datos para dividir, la validación cruzada 10 veces puede ayudar en su caso.