Sí lo es. En lo básico, la intuición detrás de los algoritmos. Si conoce la intuición, sabrá los requisitos previos, cómo preparar los datos, cómo medir el rendimiento de su modelo.
Supongamos que ejecuta todos los paquetes posibles sobre sus datos y que puede obtener algún resultado, por ejemplo, tiene un problema de clasificación, ejecuta todo, imprime todas las matrices de confusión y, en función de eso, elige un modelo.
¿Ahora que? ¿Elegiste el modelo correcto? ¿Está sobreajustado? ¿Escogió el modelo correcto para su cuerpo de datos? Si no, ¿por qué? ¿Qué pasaría si ensamblas modelos?
- ¿Cómo se puede aplicar la ciencia de datos a los negocios de banca privada o gestión de patrimonio en los bancos de inversión?
- ¿Cuáles son las razones por las que Pandas aún no puede convertirse en el kit de herramientas más poderoso para el análisis de datos?
- ¿Cuáles son las desventajas de las notebooks iPython para el análisis de datos? ¿Hay algún trabajo de investigación disponible que hable sobre la rigidez y la linealidad del portátil?
- ¿Es realista que las personas puedan tener el control total de sus datos digitales? ¿Cómo podría cambiar la web comercial y la publicidad en línea?
- ¿Cuál es una forma divertida de aprender programación R?
Aún más importante, ¿cómo preparó los datos? ¿Lo preprocesó? ¿Fue el proceso previo igual para todos los modelos? ¿Si es así por qué? ¿Si no, porque no?
Todas estas preguntas ocurren antes y después de ajustar un modelo para validar nuestro conocimiento de los datos y los supuestos del modelo. Eso solo es posible cuando se conoce la intuición detrás del modelo. Cualquiera puede escribir la línea de código para que se ajuste a un modelo. Muy pocas personas saben qué hacer antes y después de esa línea.