Creo que la mayoría de las métricas son generales, pero funcionan de manera un poco diferente en diferentes tareas. Creo que las métricas como nDCG o ERR están orientadas a consultas de tipo búsqueda web, donde obtener algunos elementos relevantes en los rangos altos es más importante que recuperar muchos elementos relevantes en general (en los rangos bajos). Es decir, estas métricas tienen un sesgo de precisión. El MAP, a pesar de que también recompensa al sistema que coloca elementos relevantes en las primeras posiciones, está más orientado hacia los sistemas de alta recuperación. Obviamente, también hay métricas orientadas exclusivamente al retiro, como el retiro general o [correo electrónico protegido]
Si considera las versiones @ 1 de las métricas, como [correo electrónico protegido] o [correo electrónico protegido] , puede decir que son más apropiadas para encontrar elementos conocidos (el rango recíproco medio es quizás otra métrica de este tipo). Sin embargo, las variantes genéricas de muchas métricas propuestas (MAP, nDCG, ERR) capturan un sentido más general de relevancia.
- ¿Cómo es trabajar en problemas de aprendizaje automático en un entorno empresarial?
- ¿Cuáles son las diferencias en profundidad, amplitud y rigor entre 6.036 Introducción al aprendizaje automático - MIT, y el curso del Curso de aprendizaje automático de Andrew Ng?
- ¿Cómo se usa el aprendizaje automático en DevOps?
- ¿Cuántos tipos de técnicas utilizan los limpiadores profesionales?
- ¿Son las preguntas el verdadero punto de partida del análisis de Big Data?