La idea detrás de esto es que su modelo teórico es una buena réplica de la realidad si tiene un error aceptable en su predicción. Por lo tanto, si realiza una validación cruzada, su modelo se prueba con datos que no han servido para construirlo, por lo tanto, si puede predecirlo sin haber visto dichos datos, es una buena réplica de la realidad. Al revés, la intuición es que no puede probar el rendimiento de su modelo teórico en los datos que han servido para construirlo porque implícitamente tiene la dinámica de los datos en él, porque para estimar el parámetro de su modelo desea ajustar el modelo lo mejor posible para los datos por alguna medida, como la minimización del error. Por lo tanto, predecir que los datos después no tienen sentido, necesita otro conjunto de datos para probarlos. La validación cruzada le permite hacerlo dividiendo sus datos antes de construir su modelo para tener esos dos conjuntos de datos.
¿Cuál es el punto de probar los datos en k-fold cross validation?
Related Content
More Interesting
¿Por qué los modelos basados en árboles son robustos para los valores atípicos?
¿A quién o qué investigación de laboratorio en aprendizaje automático le parece más interesante?
¿Cuándo debo usar la agrupación antes de ejecutar un modelo de regresión logística?
Cómo explicar claramente el aprendizaje profundo a alguien con antecedentes matemáticos limitados
¿Cuál es la diferencia entre una red neuronal y una red de codificador automático?
¿Cuáles son las principales diferencias entre la regresión logística, la red neuronal y las SVM?
¿Cuál es la diferencia entre los pronósticos de combinación y conjunto?
¿Cuándo funciona el aprendizaje conjunto?