¿Cómo se fragmentan los archivos en el hadoop en 64 MB o 128 MB? ¿Cuál es el algoritmo utilizado para fragmentar los archivos?

Gracias por A2A Harsha.

Déjame intentar explicarlo.

Hadoop tiene un sistema de archivos como todos los demás ecosistemas, HDFS.

HDFS tiene un tamaño de bloque como cualquier otro sistema de archivos, 128 MB por defecto desde Hadoop 2.xy 64 MB por defecto antes. Este valor predeterminado es realmente configurable.

Puede usar una propiedad llamada dfs.blocksize en hdfs-site.xml para hacerlo.

Ahora vamos a tu pregunta. Cómo se fragmentan los archivos en bloques de 64/128 MB.

Hadoop tiene una arquitectura de tres capas

  1. Clientes en la cima
  2. Maestros en el medio para recibir la solicitud del cliente
  3. Esclavos en la parte inferior para hacer todo el procesamiento.

La última capa es responsable del almacenamiento y el procesamiento.

Cuando el cliente solicita que necesite escribir un archivo de 1 GB, puede usar un comando como este.

hadoop fs -put / localFileLocation / someHDFSlocation

Cuando lo hace, divide el archivo en bloques y le pregunta al namenode, que resulta ser consciente de dónde debe ir el bloque. Nombre nodo da tres direcciones diferentes, por defecto, donde se deben escribir los bloques.

Una vez que el cliente adquiere la información, escribe los datos en las máquinas esclavas, distribuidas en forma de bloques.

¡Espero que ayude!