f (x) es el valor de verdad fundamental para el parámetro; No está muestreado. El sesgo le indica qué tan lejos de la marca está su estimación (E [f ^ (x)]), promediada en múltiples muestreos, desde esa verdad básica (f (x)).
Simplifiquemos esto un poco. Probablemente hayas visto la metáfora de práctica objetivo de sesgo y varianza. La imagen inferior izquierda es la que se debe mirar: una agrupación ajustada (de baja varianza) que está consistentemente a 2 anillos por encima del objetivo. Aquí, el centro del objetivo rojo es la verdad fundamental, o f (x); la agrupación de tomas negras encima es un conjunto de muestras f ^ (x), y el centro de esa agrupación es E [f ^ (x)], que tiene una distancia distinta de cero desde el centro del objetivo rojo. Esa distancia es el sesgo.
- ¿Cuáles son algunas técnicas comunes para el aumento de datos de video en el aprendizaje profundo?
- ¿Cómo se pueden engañar los modelos de clasificación existentes?
- Cómo hacer una clasificación en tiempo real con CNN
- ¿Qué tensiones tienen entre sí el diseño de productos y el aprendizaje automático?
- ¿Por qué la disminución de la tasa de aprendizaje también aumenta la tasa de sobreajuste en una red neuronal?