¿Cómo se debe enfocar el aprendizaje de big data?

Hola,

Creo que la mejor manera de aprender algo es hacerlo realmente. Afortunadamente para nosotros, hay muchísimas tecnologías de big data y herramientas analíticas que son de código abierto o le brindan la posibilidad de aprender de forma gratuita a través de una licencia de prueba / desarrollo. Entonces, esto es lo que haría.

En aras de proporcionar una respuesta algo simple, supondré que la herramienta de big data que desea utilizar es la pila Hadoop. Y en aras de no proporcionar una respuesta demasiado simple, que no está buscando una solución industrial o proveedor de SaaS ya construido. En términos generales, las bases de datos NoSQL no se usan realmente para análisis (pero pueden ser una fuente).

1) Piensa en un problema de big data que quieras resolver.

Tradicionalmente, los grandes datos han sido descritos por los “3V”: volumen, variedad, velocidad. ¿Cuál es un problema real de análisis que se resuelve mejor con herramientas de big data? ¿Qué tipo de métricas quieres capturar? Los casos de uso más comunes hoy en día implican raspar grandes volúmenes de datos de registro. Esto se debe a que los datos de registro tienden a ser muy desestructurados, pueden provenir de múltiples fuentes y, especialmente para sitios web populares, pueden ser enormes (terabytes + por día). Por lo tanto, tener un marco para realizar tareas informáticas distribuidas es esencial para resolver este problema.

2) Descargue y configure su solución de big data

Lo más fácil es usar una máquina virtual preconstruida que casi cualquier proveedor de Hadoop pone a disposición gratuitamente [1], y luego ejecutarla localmente. También puede usar un servicio como Amazon Web Services. La mayoría de las personas usarán el marco de reducción de mapas y Hive para procesar grandes volúmenes de datos. Como solo está buscando aprender, no necesitará terabytes, o incluso gigabytes de datos para jugar, por lo que obtener acceso a un clúster de 100 nodos no será una prioridad. Aunque ciertamente hay desafíos que superar y comprender una vez que comience a entrar en entornos de múltiples nodos.

3) Resuelve tu problema de big data
Una vez que haya configurado su entorno, ¡empiece a codificar! Hay mucha documentación y tutoriales para consultar y aprender de [2]. Y realmente, simplemente escriba preguntas en Google y obtendrá una tonelada de recursos. Lea las herramientas y comprenda cómo se puede aplicar la tecnología para resolver su caso de uso. Piense en los tipos de métricas que desea capturar dentro de sus datos. Piense en qué tipo de programas de reducción de mapas necesitará escribir para capturar los datos que desea analizar. Piense en cómo puede aprovechar algo como Hive o Pig para hacer muchos de los cálculos de números pesados. Algo que probablemente no será evidente en un entorno de un solo nodo, pero que es un problema del mundo real en cualquier entorno distribuido, es comprender el sesgo de datos y cómo afecta el rendimiento [3].

4) Análisis y visualización: el lado sexy de Big Data y BI
Ahora que ha resuelto su problema de big data y tiene sus datos en un formato manejable, es hora de deslumbrar a su jefe con algunos buenos informes. La mayoría de las arquitecturas empresariales que aprovechan Hadoop seguirán teniendo una base de datos SQL para almacenar e informar datos de Hadoop (rápidamente se dará cuenta de que map-reduce tiene un tiempo de respuesta muy largo, incluso en pequeños conjuntos de datos). Cargar datos desde Hadoop y hacia una base de datos SQL es una buena práctica para el mundo real, pero no es necesario aprender el lado de los grandes datos. Existen varias herramientas de informes (gratuitas) que se conectarán a Hadoop / Hive directamente y funcionarán bien con fines de aprendizaje [4]. Si quieres ser el chico genial de la cuadra (y súper empleable en grandes empresas), yo elegiría. También podrías prestarte a aprender algunas habilidades de modelado predictivo y aprendizaje automático con algunas de las herramientas disponibles [6]. ], ¡y tal vez empieces a llamarte científico de datos!

Hay 2 formas de aprender Hadoop: mediante el autoaprendizaje o uniéndose a cualquier instituto.

Para el autoaprendizaje, obtendrá un gran material en Internet que lo ayudará a aprender los conceptos teóricos. Pero no le proporcionarán conocimientos prácticos. Entonces, si desea aprender Hadoop para ingresar a la industria de Big Data, le recomendaré que continúe con las clases en vivo. Si quieres saber cómo aprendí Hadoop, a continuación está mi experiencia de entrenamiento:

Estaba teniendo experiencia en PHP y después de aprender Hadoop y Spark a través del curso en vivo de DataFlair, pude cambiar mi empresa y mi perfil en Big Data. Su curso es perfecto para la demanda de la industria y el instructor Anish sir es una facultad increíble que comparte su experiencia de Big Data para ayudar a sus estudiantes a convertirse en maestros en esta tecnología. Podrá comenzar su carrera en Hadoop muy fácilmente después de hacer prácticas y los proyectos en vivo en DataFlair y, finalmente, su asistencia de colocación lo ayudarán aún más a conseguir el trabajo de sus sueños.

Conéctese conmigo a [correo electrónico protegido] si necesita ayuda con respecto a la tecnología o el curso.

Puede tomar el programa de capacitación en línea, la capacitación en línea es más flexible y tiene más ventaja sobre el programa de capacitación en el aula.

Además de la capacitación, también obtendrá proyectos estándar de la industria para trabajar, para que pueda obtener experiencia práctica en Hadoop.

Puede aprender el ecosistema Hadoop de Collabera TACT, Big Data Hadoop Developer Training

Galardonado como uno de los mejores institutos de capacitación de Hadoop, brindamos la mejor capacitación en su clase.

Características clave del entrenamiento:

· Programa de entrenamiento dirigido por un instructor en vivo usando el aula virtual GoToTraining.

· Acceso de por vida a LMS (sistema de gestión de aprendizaje).

· Acceso gratuito al laboratorio virtual , donde el entorno Hadoop está instalado para usted, durante 6 meses.

· Experiencia práctica en el uso de Hadoop y Big Data mediante la realización de proyectos estándar de la industria durante la capacitación .

· Certificación globalmente reconocida de TACT . . Soporte técnico 24 * 7.

Videos de demostración : haga clic aquí para ver videos de demostración.

Haga clic en el enlace para ver un seminario web reciente realizado en Big Data

Haga clic aquí http://bit.ly/1o8Gw5u para conocer el mercado y el alcance de la industria.

No dude en contactarnos, puede enviar un correo electrónico a [correo electrónico protegido] o llamar a EE. UU. – 973–774–7835, India – 7069380289

Creo que le proporcionaré el camino que lo ayudará a aprender Big Data.

Primero, debe revisar los videos y blogs de Big Data que aclararán sus conceptos sobre Big Data.

Puede consultar el siguiente enlace para aprender Big data:

Por qué debería aprender Big Data – Introducción a Big Data – DataFlair

En segundo lugar, le recomendaré que se prepare para la capacitación de certificación Hadoop Big Data. Te hará más seguro y más fuerte en esta tecnología y tu aprendizaje debe ser orientado a la práctica.

Como había hecho mi entrenamiento de Dataflair y descubrí que era muy beneficioso y práctico.

Entonces, si realmente quieres cambiar en el campo Big Data, entonces puedes unirte a él y comenzar tu carrera como yo.

More Interesting

¿Cuáles son algunos ejemplos del mundo real de análisis predictivo?

¿Julia (lenguaje de programación) está creciendo rápidamente?

¿Cuál tiene el mejor alcance, Big Data o AWS?

¿Qué tipos de datos utilizan los informáticos para encontrar mejores valores de números irracionales como pi?

Si pudieras hacer análisis en la base de datos de un periódico, ¿qué preguntas harías?

¿Cuál es una forma divertida de aprender programación R?

¿Cómo pueden los estudiantes de estadísticas implementar realmente las pruebas A / B cuando no tienen una gran cantidad de datos disponibles para sitios web personales y no saben mucho sobre el diseño de páginas web?

Entre la criptografía y la seguridad de la red, el procesamiento de imágenes y la minería de datos, ¿qué 2 asignaturas son mejores como asignatura optativa?

¿Qué habilidades de codificación se necesitan para ser un científico de datos?

Cómo iniciar una nueva empresa de ciencia de datos en un país en desarrollo como Bangladesh

Cómo cuidar sus datos de aprendizaje automático cuando hay demasiados experimentos

¿Cómo se puede usar la ciencia de datos en la aviación?

¿Cuáles son algunos de los mejores sitios de cartera de desarrolladores web / científicos de datos / especialistas en visualización en ciernes?

¿Cuál es el significado de big data?

¿Cuál es la diferencia entre la pista de ciencia de datos de Coursera (a través de Johns Hopkins) y el nano grado de analista de datos de Udacity?