Por lo general, se denominan pliegues en el contexto de la validación cruzada, cuando se divide la muestra inicial en una serie de “pliegues” (subconjuntos) y se desplaza por esos pliegues utilizando todos los pliegues, excepto uno para realizar el entrenamiento de su modelo. , mientras se usa el último pliegue retenido para la validación (es decir, pruebas).
La técnica de validación cruzada K-fold promedia los errores de prueba obtenidos en cada uno de los conjuntos de validaciones K, y lo designa como el error de validación cruzada.
Esta técnica de CV está diseñada para maximizar el uso de la muestra de datos existente que tiene a mano, como una alternativa a dividir sus datos por adelantado para fines de entrenamiento versus validación (o entrenamiento / validación / prueba, cuando está ajustando parámetros y desea tener un tercer conjunto de datos prístinos para pruebas verdaderas como un proxy para estimar el error de generalización en la población en general).
- Cómo programar una computadora para tomar la decisión más racional
- ¿Cuáles son los usos de una máquina Turing?
- ¿Qué tipo de estadísticas usan los programadores de juegos de IA?
- ¿Cómo podrían usarse las expresiones faciales para medir los niveles de amenaza usando redes neuronales?
- ¿Cuáles son algunos buenos proyectos potenciales de IA?