Una comprensión “profunda” solo es necesaria si está creando las herramientas subyacentes. Por ejemplo, si fue uno de los primeros desarrolladores de lenguajes de alto nivel de Hive o Pig, necesitaría una comprensión profunda para obtener esos patrones correctos.
Un usuario de Hive hoy no necesita saber nada sobre computación paralela (SQL / HQL es declarativo, por lo que describe el conjunto de resultados, no cómo) y un usuario de Pig solo necesita saber lo suficiente para no cometer un error matemático conmutativo. Si está escribiendo su propio código MapReduce, entonces necesita comprender un poco más, pero no diría que es necesaria una “comprensión profunda” para la mayoría de los problemas que he tratado. Como otros han mencionado, dar sentido a los datos que tiene es mucho más importante que poder procesarlos en paralelo utilizando conceptos de nivel inferior.
- ¿Por qué los especialistas en informática han tenido más éxito en la realización de investigaciones en aprendizaje automático en comparación con sus contrapartes de otros campos?
- ¿Cómo ayudan los grandes datos o la ciencia de datos a los equipos deportivos y otras empresas relacionadas con la industria?
- ¿Cuál es su opinión sobre el Programa Insight Data Science Fellows?
- Cómo decidir cuándo es el momento de modificar su modelo
- ¿Existe alguna mejor práctica o técnica para modelar bases de datos / conjuntos de datos para big data y / o aprendizaje automático?