Existen numerosos proyectos en big data y análisis de datos en los que puede concentrarse.
Lo primero es que necesita encontrar interés en los datos y analizarlos.
Puede usar servicios como los servicios web de Amazon (aws), si no es proporcionado por la universidad, puede optar por pagar a medida que avanza (la mejor parte de aws).
- ¿Es posible comprimir una gran cantidad de datos no redundantes, por ejemplo 1000 GB a 100 KB, sin perder ningún dato?
- Tengo un doctorado en matemáticas y 18 años de experiencia en programación (Python, Perl, C ++). Ahora quiero entrar en la ciencia de datos. ¿Cuál es mi primer movimiento?
- No soy muy bueno con las matemáticas y las estadísticas, pero soy un programador decente. Quiero ser muy bueno con el aprendizaje automático / aprendizaje profundo. ¿Dónde debo comenzar y cómo puedo continuar?
- ¿Cómo es el departamento de ciencia de datos en PSG Tech College, Coimbatore?
- ¿Cuántos datos puede manejar JMP?
Trabajar en diferentes servicios que se proporcionan en AWS tienen un mayor alcance de aprendizaje.
Si no, puede intentar usar el modelado para conjuntos de datos creando algunos modelos que usen el lenguaje R y las estadísticas, creando tableros usando tableau / excel usando cualquier tipo de datos (como películas, acciones)
Si desea ingresar a una escala mayor, puede probar los conjuntos de datos que están disponibles en Internet y puede usar la programación o las herramientas (hadoop) para conjuntos de datos extremadamente grandes y mostrar el resultado como una idea significativa que se puede apreciar.
Como individuo, siempre puede probar programas simples de Python para extraer datos de innumerables fuentes en línea y jugar con diferentes posibilidades.
Esto incluye el raspado de la web, necesita usar API como jabón hermoso, raspado, etc.
Pruebe las operaciones tomando pequeños conjuntos de datos y podrá implementar el concepto de redes neuronales que trabajen estrechamente en la línea de aprendizaje automático.