Utilice una red neuronal grande (NN), especialmente una red neuronal profunda (DNN) sin regularización y entrénela durante mucho más tiempo de lo habitual. El DNN simplemente memorizará todos y cada uno de los ejemplos de entrenamiento, por lo tanto, alcanzará un 100% de precisión en el conjunto de entrenamiento.
La regla general para sobreajustar cualquier modelo es simplemente memorizar los datos de entrenamiento. Eso se puede lograr mediante:
- Asegurarse de que la capacidad del modelo sea lo suficientemente grande como para memorizar los datos de entrenamiento. En las máquinas de vectores de soporte (SVM), puede aumentar la capacidad utilizando núcleos más sofisticados.
- Capacitar a los modelos mucho más tiempo porque la detención temprana tiene cualidades de regularización y la regularización es lo último que necesitamos si el objetivo es sobreajustar un modelo.
Memorizar los ejemplos de entrenamiento se llama aprendizaje vago. Por lo tanto, los estudiantes perezosos básicos como el clasificador vecino k-vecino más cercano (kNN) con k = 1 también es una buena manera de sobreajustar los datos de entrenamiento.
- ¿Qué es la inteligencia neuronal?
- ¿Debería considerarse que la computación flexible forma parte de la inteligencia artificial o la informática blanda debe considerarse una disciplina separada? ¿Y por qué?
- ¿Se volverán obsoletos los científicos de datos con el surgimiento de la IA en términos de codificación, estadísticas, aprendizaje automático, gestión de bases de datos y técnicas de visualización?
- Si los humanos se vuelven más tontos y la IA de la máquina se vuelve más inteligente, ¿qué sigue?
- ¿Dónde aplicas la IA?
Entonces puedes usar
- NNs
- SVM
- Clasificadores KNN
Todo lo cual puede sufrir fácilmente de sobreajuste.
Aunque no estoy exactamente seguro de por qué querrías sobreajustar tu modelo porque en ML, la generalización es muy importante.
Espero que esto ayude.