Los criterios de evaluación varían de competencia a competencia. Tenga en cuenta que los concursos de Kaggle tienen datos muy estructurados, con los “objetivos” (respuestas correctas) conocidos por los organizadores. Por lo tanto, tienen la capacidad de comparar hasta qué punto cualquier presentación es los objetivos conocidos.
La métrica depende del tipo de problema de aprendizaje automático que se resuelve, y esencialmente analiza el error entre el vector de predicciones y el vector real .
Algunos de los más comunes son:
Error cuadrático medio (porcentaje)
Error medio absoluto (porcentaje)
Desviación binomial limitada
La métrica de las AUC
Métricas de Gini normalizadas
- ¿Cuáles son los buenos algoritmos para la extracción de características para grandes conjuntos de datos?
- Quiero construir una copia casi perfecta de Eva de ex machina, entonces, ¿qué curso o área de informática necesito aprender profundamente?
- ¿Por qué es importante la ciencia de datos?
- ¿Cómo se compara la industria del aprendizaje automático con las opciones de carrera dentro del desarrollo web?
- ¿Cómo funciona la función "Tiempos populares" de Google Maps?
Los criterios de evaluación se especifican muy claramente en cada competencia, en la pestaña “Evaluación”.
Un último punto: durante el transcurso de una competencia de Kaggle, los organizadores generalmente puntuarán cada presentación solo contra una fracción más pequeña del conjunto total de ‘prueba’ para mostrar los puntajes y crear las clasificaciones de la tabla de clasificación. Sin embargo, una vez que se cierre el concurso, compararán la presentación final con el conjunto de prueba * completo *.