Hola,
Déjame ayudarte con esto.
Hadoop
- ¿Por qué los científicos usan palabras no rigurosas como "ultra intenso"?
- ¿Qué es el análisis de Pareto?
- ¿Debería unirme a 'dominar el análisis de datos con R' por edureka o 'Análisis de datos con R' por Udacity?
- ¿Cuáles son algunos algoritmos de aprendizaje automático que todo estudiante de informática debe saber?
- ¿Podemos usar análisis de datos, SAS y probabilidad al aplicar un modelo a una hipótesis para encontrar la pareja adecuada para el matrimonio?
La plataforma más importante para el análisis de big data es la plataforma de procesamiento de datos distribuidos de código abierto Hadoop (plataforma Apache), desarrollada inicialmente para funciones rutinarias como la agregación de índices de búsqueda web. Pertenece a la clase de tecnologías NoSQL (otras incluyen CouchDB y MongoDB) que han evolucionado para agregar datos de maneras únicas. Hadoop tiene el potencial de procesar cantidades extremadamente grandes de datos al asignar principalmente conjuntos de datos particionados a numerosos servidores (nodos), que resuelven individualmente diferentes partes del problema mayor y luego los integran nuevamente para el resultado final. Puede servir en los roles gemelos, ya sea como organizador de datos o como herramienta de análisis.
Colmena
Facebook ha desarrollado una arquitectura de soporte de Hadoop en tiempo de ejecución que aprovecha SQL con la plataforma Hadoop. Esta arquitectura se llama colmena; permite a los programadores de SQL desarrollar sentencias de lenguaje de consulta Hive (HQL) similares a las sentencias SQL típicas. Sin embargo, HQL está limitado en los comandos que reconoce.
Espero que esto responda a su pregunta.
Para obtener más información sobre Big Data y visualización de datos , consulte este blog:
https://goo.gl/TwZ5pt