No es que se me ocurra. Pero debe comprender que la bondad de ajuste del modelo no se basa en los datos de entrenamiento, por lo que solo mirar el error de entrenamiento en sí mismo puede ser muy engañoso. Una comprensión clave esencial cuando se construyen modelos es The Bias-Variance Tradeoff. Idealmente, desearía un modelo que funcione bien en el conjunto de entrenamiento y se generalice a datos invisibles, pero esto es típicamente imposible y, por lo tanto, tenemos una compensación. Una vez que comprenda la compensación, debe tomar decisiones sobre la complejidad de su modelo, los datos reales que se usarán para la capacitación, qué modelo usar y qué tan bueno es lo suficientemente bueno, entre otras cosas.
Una de las cosas que he aprendido es que un modelo más simple siempre es preferible a uno más complejo. Digo esto, porque aunque cada modelo y conjunto de datos es un poco diferente, generalmente puede ser muy inteligente y reducir el error al agregar una complejidad loca. Mira el Premio Netflix. Los equipos pudieron hacer mejores predicciones, pero eventualmente las cosas se volvieron tan complejas que la implementación real puede no ser práctica, por lo que usar un modelo más simple, que puede funcionar peor, puede ser más deseable.
Mayor precisión / Menos error no siempre es mejor. Los modelos de datos a menudo deben ser entendidos por personas que no son necesariamente científicos de datos, pero tal vez solo ejecutivos de negocios, personal de marketing, equipos de ventas, etc. Si les das algo muy complejo con muchas palabras griegas y polinomios de alto orden, puede que no Sé muy entusiasta. Necesitan comprender las entradas, cómo están afectando los resultados y cómo todo se relaciona con el negocio. Las covariables como “edad”, “peso”, “colesterol”, etc. serán mucho más interesantes que algunos parámetros gamma que haya encontrado a través de alguna función de perplejidad y otros 50 términos que no entenderán. De esta manera, pueden hacer cambios, obtener información y, de hecho, tener un modelo de trabajo que está en mejora continua … en lugar de una caja negra construida por un tipo inteligente de matemática / computadora.
- Cómo crear big data
- ¿Cuán vital será la ciencia de datos en los próximos diez años?
- ¿Cuál es la diferencia entre analista de datos y científico?
- ¿Qué se necesita para que un estudiante de matemáticas e informática se convierta en un científico de datos?
- ¿Qué lenguaje de script puede funcionar con Big Data?
De todos modos, me desvié bastante, pero mi punto es no enfocarme demasiado en minimizar el error de entrenamiento. Puede ver en su gráfico que publicó que no cambia mucho después de cierto punto, por lo que todo lo que hace es introducir complejidad y, lo que es peor, el error de predicción comienza a aumentar. Así que encuentre el punto óptimo, lo que probablemente significa menos que perfecto en el conjunto de entrenamiento, pero va a generalizar mejor a datos invisibles, que es el punto principal de por qué construye un modelo en primer lugar.