¿Es una buena idea pasar a Big Data (Hadoop)? Tengo más de 11 años de experiencia en .NET y C ++.

Hola,

Por favor, lea la publicación a continuación por completo. Le ayudará a elegir el centro de capacitación adecuado. Piensa en ello lógicamente y vota si es útil.

La mayor parte del centro de capacitación ofrece hadoop durante 30-50 horas.

  1. ¿Es hadoop un tema tan pequeño para aprender en solo 50 horas?
  2. La mayoría de los capacitadores afirman trabajar en una empresa multinacional de renombre y promete enseñarle tanto a usted como a su desarrollador. ¿Hay alguna multinacional en el mundo donde un solo individuo tenga experiencia tanto de administrador como de desarrollo?
  3. Prometen cubrir casi más de 10 temas. ¿Podemos aprender cada tema en solo 3 horas?
  4. Dicen que Java no es obligatorio. Todo el hadoop y sus componentes están escritos en Java. ¿Cómo entiende la programación Map-reduce, Pig, Hive UDFs, HBase Clients, todos escritos en Java?
  5. Certificado de finalización del curso. ¿Alguna vez conseguirás trabajo cuando digas que aprendí hadoop del centro de capacitación XYZ?
  6. Muy buenos PPT, pero ¿Puede un PPT contener toda la información minuciosa?
  7. Sin apoyo laboral una vez que termine su capacitación. Pero inicialmente promete un paquete de 6–8 LPA para 2 años de candidato.

Buscando en el problema anterior.

Hice un currículum hadoop de 6 meses que contiene prácticas y lo convertirá en un verdadero experto con mucha práctica.

Puede consultar mis videos gratuitos en la siguiente URL y probarlo.

Hay más de 30 horas de videos disponibles incluso antes de inscribirse con nosotros.

Puede contactarme si está satisfecho con mis sesiones. Encontrarás mi número de contacto en mis videos.

Para actualizaciones de trabajo gratuitas Suscríbase aquí

Sesiones de Java de núcleo absolutamente gratis – YouTube

Tutorial de Hadoop – YouTube

Hadoop 2 Series – YouTube

Síguenos en Facebook Hadoop Learning Center

Los sistemas Hadoop Cluster y No SQL se están utilizando como pistas de aterrizaje y áreas de preparación de datos antes de que se carguen en un almacén de datos para su análisis, a menudo en forma resumida que es más propicio para las estructuras relacionales. Sin embargo, cada vez más, los proveedores de big data están impulsando el concepto de una toma de datos de Hadoop que sirve como el depósito central para los flujos entrantes de datos sin procesar de una organización.

En tales arquitecturas, los subconjuntos de datos se pueden filtrar para su análisis en almacenes de datos y bases de datos de análisis, o se pueden analizar directamente en Hadoop utilizando herramientas de consulta por lotes, software de procesamiento de flujo y tecnologías SQL y Hadoop que ejecutan consultas interactivas y ad hoc escritas en SQL Las posibles trampas que pueden hacer tropezar a las organizaciones en iniciativas de análisis de big data incluyen la falta de habilidades analíticas internas y el alto costo de contratar profesionales analíticos experimentados.

La cantidad de información que generalmente está involucrada, y su variedad, también pueden causar dolores de cabeza en la gestión de datos, incluidos la calidad de los datos y los problemas de coherencia. Además, integrar sistemas Hadoop y almacenes de datos puede ser un desafío, aunque varios proveedores ahora ofrecen conectores de software entre Hadoop y bases de datos relacionales, así como otras herramientas de integración de datos con capacidades de big data.

Las empresas están utilizando el poder de los conocimientos proporcionados por Big Data para establecer instantáneamente quién hizo qué, cuándo y dónde. El mayor valor creado por estos conocimientos oportunos y significativos de grandes conjuntos de datos es a menudo la toma de decisiones empresariales efectivas que permiten los conocimientos.

Extrapolar información valiosa de grandes cantidades de datos estructurados y no estructurados de fuentes dispares en diferentes formatos requiere la estructura adecuada y las herramientas adecuadas. Para obtener el máximo impacto comercial, este proceso también requiere una combinación precisa de personas, procesos y herramientas analíticas.

Hadoop es un marco de programación de código abierto basado en Java que admite el procesamiento y almacenamiento de conjuntos de datos extremadamente grandes en un entorno informático distribuido. Es parte del proyecto Apache patrocinado por la Apache Software Foundation.

Como se trata de una programación basada en Java, primero debes aprender Java para eso, debes hacer Core Java, es decir, J2SE.

Después de eso puedes mudarte a Hadoop.

Y para hacer Java, pruébelo en udacity y luego de completar ese curso, pruébelo en el sitio web de Nptel .

Feliz aprendizaje…!!!

Definitivamente, es un buen movimiento cambiar su carrera en esta tecnología de tendencia Big data hadoop. Recientemente, he visto a una de las personas que tiene alrededor de 15 años de experiencia aprendió esta tecnología de DataFlair, recibió una guía completa de su instructor y cambió su trabajo con mucho éxito y ahora está trabajando como arquitecto Hadoop en una de las empresas líderes en Singapur.

Por lo tanto, no existe un límite de experiencia para aprender esta tecnología, ya que las empresas aún buscan personas de alto nivel en el hadoop de Big Data. Comience a aprender esta tecnología con la sesión de video introductoria a continuación:

Sí, es posible, pero comenzar desde Java y luego pasar a Big Data y Hadoop.

Pero cualquiera que ya conozca la programación de esta manera puede aprender fácilmente estas cosas y comenzar a trabajar.

Feliz aprendizaje 🙂