¿Hay alguna posibilidad de convertirse en un ingeniero de big data sin tener conocimientos de Java o conocimientos de codificación?

Sí, incluso si no tenemos conocimiento de Java o conocimiento de codificación, aún puede convertirse en un gran ingeniero de datos.

Java no es obligatorio para todos, por lo que cualquiera podrá asistir a esta capacitación y comprender los conceptos de Hadoop.

Dos componentes importantes de Hadoop respaldan el hecho de que puede trabajar con Hadoop sin tener un conocimiento funcional de Java: Pig y Hive .

Pig es un lenguaje de alto nivel de flujo de datos y un marco de ejecución para el cómputo paralelo, mientras que Hive es una infraestructura de almacenamiento de datos que proporciona resumen de datos y consultas ad-hoc. Pig es ampliamente utilizado por investigadores y programadores, mientras que Hive es un favorito entre los analistas de datos.

Para navegar por Pig y Hive, solo necesita aprender Pig Latin y Hive Query Language (HQL), los cuales solo necesitan una base SQL. Pig Latin es muy similar a SQL, mientras que HQL puede describirse mejor como un avatar de SQL mucho más rápido y tolerante. Estos idiomas son fáciles de aprender.

Lo que estas dos interfaces tienen como punto de referencia es que son increíblemente fáciles de utilizar, y ambas realizan trabajos MapReduce muy optimizados, que a menudo se ejecutan mucho más rápido que el código comparable creado en un lenguaje no Java mediante la API Streaming.

Hadoop tiene la capacidad de almacenar una gran cantidad de datos estructurados y no estructurados en la nube con poca inversión de capital. Por lo tanto, el CIO de cada empresa mantiene a Hadoop en su lista de tareas pendientes. Esto lleva a un crecimiento en auge en las oportunidades de carrera en Hadoop.

Si realmente desea explorar las oportunidades profesionales en torno a Hadoop sin conocer Java en detalle, solo debe alinearse con las principales características de Hadoop: almacenamiento y procesamiento. Aprenda las funciones de clúster de Hadoop y las formas de hacer que los datos sean seguros y estables mediante Hadoop.

El conocimiento sobre HDFS y HBase puede ayudarlo enormemente en este proceso de aprendizaje. Si prefiere trabajar en el lado de procesamiento de Hadoop, Pig and Hive puede ayudarlo en esto. Para un trabajo relacionado con el almacenamiento de Hadoop, puede aprender cómo funciona el clúster de Hadoop y cómo Hadoop hace que sus datos sean seguros y estables.

Más información sobre el examen de certificación Hadoop

Aquí le proporciono información útil para aprender el examen de certificación de Hadoop.

  • Certificación HDPCA en Hortonworks
  • Certificación de administrador certificado HDP (HDPCA)
  • ¿Qué es Apache Hadoop?
  • ¿Cuáles son los requisitos previos para aprender Hadoop y big data?

¡¡Espero que esto ayude!!

Si está buscando ayuda para prepararse para los exámenes de certificación de Hadoop, envíeme un mensaje.

No … parece imposible.

Sin ningún conocimiento de codificación no sería un ingeniero de datos … al menos debería tener conocimiento en un lenguaje de codificación como java, python o cualquier otro.

Sí … En usted puede tener una muy buena carrera en Big data y el conocimiento de codificación de programación Core no es obligatorio, sin embargo, necesitará un poco de él. Ahora la pregunta es cómo comenzar con esto. Explore aquí y tendrá muchos tutoriales en línea para Big Data

Deseo que tengas una carrera feliz

No tener Java está bien, pero necesitas conocimientos de codificación con seguridad.

Incluso si encuentra una herramienta que le permita hacer trabajo de big data, habrá alguna u otra limitación de herramientas que dificultará su trabajo.

Por supuesto que sí sin Java.

¡Pero claramente no sin codificación!

Pero debe tener en sus manos el lenguaje de programación Python o R para la ciencia de datos.

Sin ninguna interacción de lenguaje o codificación, no creo que pueda convertirse en ingeniero de datos.

Simplemente NO Para la ciencia de datos, debe tener un buen conocimiento de la codificación y la computadora.

More Interesting

Como experto en aprendizaje automático, ¿con qué aspectos de las bases de datos y la optimización de bases de datos debería estar familiarizado?

¿Cómo es tomar CS 229 (Machine Learning) en Stanford?

¿Qué cursos debo hacer para convertirme en científico de decisiones?

¿Qué es el análisis de Pareto?

¿Cómo se relacionan la ciencia de datos y el aprendizaje automático, si es que están relacionados?

¿Sería mejor tomar un curso de análisis de datos? ¿Hay mejores oportunidades para un nuevo análisis en India como analista de datos?

¿Existe una oportunidad para una empresa de consultoría de datos que atiende específicamente a nuevas empresas en etapa inicial?

¿GoLang es una mejor opción de lenguaje de programación para proyectos de aprendizaje automático manteniendo el rendimiento y la escala horizontal como las principales preocupaciones de diseño?

¿Cuál es la mejor especialización de Coursera ML / Big Data?

¿Es necesario obtener un doctorado para ser un científico de datos?

¿Cuáles son ejemplos de datos primarios y datos secundarios?

¿Cuáles son las principales tendencias en big data?

¿Flipkart tiene un grupo de ciencia de datos cautivo o algo similar? ¿Flipkart emplea 'Data Scientists'?

Después de realizar una validación cruzada K-fold en una entrada 7 * 98 con una salida de datos 1 * 98, ¿cómo selecciono los datos para el entrenamiento y las pruebas?

Estoy analizando datos en la oficina y me siento determinado. ¿Qué canciones debo escuchar?