A2A.
En el sentido habitual de las palabras, por lo general, no puede sobreajustar y subestimar todos los datos de entrenamiento. Los gráficos típicos de precisión vs complejidad se parecen a los siguientes:
- ¿Se beneficiaría el plan de estudios general de informática de la universidad al dividirse en pistas CS aplicadas y puras?
- ¿Cuáles son los hacks HTML / JS / DOM / CSS más interesantes que la mayoría de los desarrolladores web no conocen?
- ¿Las grandes empresas comerciales (como Glencore) están interesadas en el aprendizaje automático / IA?
- ¿Es demasiado tarde para entrar en el aprendizaje automático?
- ¿Cómo es el trabajo en Broadcom, Hyderabad?
Es decir, desde la complejidad óptima (en el centro del gráfico), si te mueves hacia la izquierda, te subestimas, y si te mueves hacia la derecha, te sobreestimes. Entonces son mutuamente excluyentes.
Sin embargo, es muy posible que pueda sobreajustar una parte de los datos de entrenamiento y subadaptar alguna otra parte de los datos de entrenamiento.
Imagine que tiene algunos datos de clasificación en el espacio 2D. Ahora, en alguna parte del espacio, puede separar las clases usando un clasificador lineal. Sin embargo, en otra parte del espacio, necesita un polinomio de grado 5 para capturar el modelo subyacente. Por lo tanto, si usa algo como un polinomio de grado 3, se sobreajustará a la primera parte de los datos y se ajustará a la segunda parte.
De hecho, si observa los árboles de decisión o los modelos relacionados con estructura de árbol, a menudo no están equilibrados, es decir, un lado del árbol es más profundo que el otro. Una de las razones del desequilibrio es que el lado poco profundo está ajustando datos que tienen una estructura más simple, mientras que el lado más profundo está ajustando datos que tienen una estructura compleja. Una vez más, si intenta ajustar los datos utilizando un árbol de profundidad fija, equiparía y sobreajustaría simultáneamente.
[Fuente de la imagen: error de predicción del modelo de medición precisa]