Aumentar proporcionalmente.
El volumen de datos por sí solo nunca debería ser el punto decisivo para implementar Hadoop. El análisis de datos tiene un costo, y el liderazgo empresarial necesita entender eso. No es realista para la mayoría de las empresas suponer que simplemente pueden almacenar y analizar todo bajo el sol. El beneficio debe superar el costo. Para ayudar a lidiar con esto, tener una estrategia de archivo y purga de datos de sonido es increíblemente importante, y la mayoría de las bases de datos tienen herramientas para ayudar con esto (desde la compresión hasta el almacenamiento en frío).
Si bien la pila de Hadoop se puede descargar y usar de forma gratuita, implementarla, desarrollarla y mantenerla es muy costosa (solo mire el salario de un desarrollador de reducción de mapas). Los proveedores del almacén de datos eliminan gran parte del dolor de cabeza de escalar, eso es lo que estás pagando.
- ¿Por qué no se puede usar el porcentaje (%) para la normalización de datos en estadísticas?
- Cómo encontrar aplicaciones de big data
- ¿Cuáles son los patrones de diseño para proyectos de minería de datos / aprendizaje automático?
- ¿Existen aplicaciones para el aprendizaje automático / ciencia de datos en el campo de los vuelos espaciales?
- Deep Learning se implementa principalmente en big data. ¿Qué piensa sobre usarlo en datos con muestras limitadas pero de altas dimensiones como fMRI?