La razón principal es que una diferencia de, digamos, [matemática] 0.01 [/ matemática] puede ser insignificante o extremadamente importante.
Considere la diferencia entre las probabilidades [matemáticas] 0.5 [/ matemáticas] y [matemáticas] 0.51 [/ matemáticas]. La diferencia no es muy grande, y en la mayoría de los entornos no esperamos que el sistema modelado se comporte de maneras muy diferentes. Sin embargo, considere las probabilidades [matemáticas] 0.99 [/ matemáticas] y [matemáticas] 1.0 [/ matemáticas]. La primera probabilidad significa que existe una clara posibilidad de que el evento en cuestión no ocurra. Si obtenemos nuestros datos y vemos que algunos de los datos tienen una etiqueta negativa, todo está bien. Sin embargo, si hubiéramos cometido un pequeño error y hubiéramos utilizado la probabilidad [matemática] 1.0 [/ matemática], nuestro modelo completo se rompe. Hay una gran diferencia entre [matemáticas] 0.99 [/ matemáticas] y [matemáticas] 1.0 [/ matemáticas]. La pérdida logística captura esto: la diferencia entre [matemática] 0.5 [/ matemática] y [matemática] 0.51 [/ matemática] es pequeña, y la diferencia entre [matemática] 0.99 [/ matemática] y [matemática] 1.0 [/ matemática] es infinito.
Esta es también la razón por la cual las probabilidades de registro a menudo se usan para describir numéricamente una situación probabilística. Cuando usamos log-odds, solo podemos mirar el RMSD.
- ¿Es suficiente tomar todos los cursos de la especialización de Machine Learning de la Universidad de Washington en el curso para obtener mi primer trabajo / pasantía en ML?
- ¿Qué formación matemática se necesita para aprender Deep Learning?
- ¿Cuál es la forma más rápida de aprender matemáticas para el aprendizaje automático y el aprendizaje profundo?
- ¿Por qué el submuestreo de características u observaciones mejora el rendimiento de GBM?
- ¿Qué tan avanzado es el aprendizaje autónomo robótico?