Hay una variedad de cursos que se ofrecen para Data Science. Sin embargo, siempre recomendaría ir con el aprendizaje inmersivo.
En pocas palabras, se trata de trabajo real, problemas reales, datos reales, escenarios reales del lugar de trabajo y experiencia real en el terreno.
Puedo enumerar algunos temas que son imprescindibles para Data Science.
- ¿Cómo han fomentado los grandes datos la ciencia? ¿Existen ejemplos en los que el análisis de big data ha llevado a una mejora significativa en cualquier campo científico que no se podría hacer mediante el análisis tradicional?
- ¿Qué libro de ciencia de datos / blog-artículo / texto debería leer cada profesional de ciencia de datos para tener una mejor comprensión del tema?
- ¿Qué compañía es mejor unirse como una más fresca, Mu Sigma o Fractal Analytic?
- ¿Qué conocimiento básico es imprescindible si quiero entrar en el campo de big data o data science? ¿Cuál es la mejor manera de comenzar mi carrera en el mismo?
- ¿Por qué hay tantos científicos de datos falsos e ingenieros de aprendizaje automático?
- Actualización sobre los temas básicos necesarios para comprender la ciencia de datos
- Conceptos básicos de la programación de R y Python
- Análisis exploratorio de datos con Excel, R
- Regresión lineal, sus variaciones y proyecto industrial
- Árboles de decisión, conjunto y clasificación
- Agrupamiento
- Regresión de series de tiempo
- Bases de datos y ecosistema de Big Data
- Visualización de datos, narración de historias, tablero, Tableau
- Creación de productos de ciencia de datos a escala de producción y su implementación
- Ingeniería de Big Data, aprendizaje profundo y flujo de tensor, PNL
En GreyAtom ponemos énfasis en el aprendizaje inmersivo que en realidad significaría:
- Replicando posibles escenarios de trabajo
- Aprendizaje interactivo
- Enseñar habilidades o técnicas particulares
- aprender = hacer trabajo real
- Aprendizaje practico
- Trabajando en equipo, aprendiendo del instructor
- Menos basado en el aula
- Más proyecto / estudio de caso basado
- Manejo de problemas reales, datos reales, escenarios reales, flujo de trabajo real
- Herramientas que reflejan la industria, herramientas y estructuras alineadas a la industria.
- Imitando una situación o escenario que enfrentan la industria / empresas
- O llevar a cabo proyectos basados en escenarios reales de trabajo.
- Juego de roles y realización de una tarea como se hace en el lugar de trabajo.
- Capacitación para la industria antes de ser contratado.
- Buscando alternativas para la gestión tradicional de proyectos / escenarios / problemas
- Fases cortas de trabajo, reevaluación frecuente, adaptación de planes.
- Scrum sprints: evaluación colaborativa, agradable y rápida, entrega de productos en ciclos cortos, retroalimentación rápida, mejora continua,
- Scrum sprints: creación de lugares de trabajo alegres y sostenibles
- Los sprints ágiles mejoran la comunicación, el trabajo en equipo y la velocidad.
Full Stack Data Science Engineer es uno de los trabajos más solicitados en este momento. GreyAtom se enfoca en crear ingenieros de ciencia de datos de Full Stack y le brinda todas las herramientas, técnicas y conceptos básicos necesarios para lograr un impacto. En solo 14 semanas, aplicará la resolución de problemas y el pensamiento creativo a conjuntos de datos del mundo real, ganando experiencia en toda la pila de ciencia de datos.
Tendrá un historial de contribuciones de código abierto y ayudará a la comunidad más amplia de ingeniería de software (a través de Github, StackOverflow, un blog o similar).
Puede consultar los detalles del curso haciendo clic en este enlace Full Stack Data Science Engineering | Greyatom
Los datos realmente impulsan todo lo que hacemos. Si le apasiona la ciencia de datos y quiere redefinir su carrera, visítenos en los programas in situ de GreyAtom: ciencia de datos, aprendizaje automático, Big Data
Creemos que “Aprender = hacer trabajo real”
Descargo de responsabilidad: soy cofundador de @GreyAtom y ayudar a las personas a encontrar carreras sostenibles en Data Science es mi pasión.