Como dice Omri Mendels, no existe tal cosa. Sin embargo, veamos esta pregunta un poco diferente. ¿Cuáles son los casos de uso que desea resolver en Big Data? Su respuesta lo ayudará a determinar el almacén de datos necesario para el problema que necesita abordar.
Por ejemplo, si necesita escanear y agregar Petabytes de datos, entonces este tipo de caso de uso se alinearía con Hive [1].
- ¿Cuáles son las 10 principales expectativas de los clientes de Big Data?
- Si planeo enfocarme en Data Science usando Python en el futuro, actualmente para desarrolladores web ¿debería pasar tiempo aprendiendo Node / Express o enfocarme en Django?
- Cómo restaurar los archivos en mi partición eliminada
- ¿Es mejor tener demasiados falsos positivos o demasiados falsos negativos?
- ¿Cuál es el mejor libro de matemáticas que debería leer un aspirante a científico de datos?
Si necesita búsquedas rápidas en miles de millones de filas de datos, considere HBase [2].
Si desea la sintaxis de SQL, pero necesita las capacidades de HBase, podría considerar usar Apache Pheonix [3] con HBase.
Si necesita almacenar el tipo de datos JSON y la funcionalidad de búsqueda Geo requerida, entonces MongoDB [4] sería una opción a considerar.
Si quería una solución que requiriera AWS [5], dependiendo del caso de uso, Snowflake [6], o como Brian Schuster declaró RedShift [7].
Y la lista continúa.
En el espacio de Big Data, no hay una talla única para todos. Sin comprender el caso de uso y los requisitos, es casi imposible determinar cuál es la herramienta adecuada para el trabajo.
Notas al pie
[1] Apache Hive TM
[2] Apache HBase – Inicio de Apache HBase ™
[3] Descripción general | Apache Phoenix
[4] MongoDB para ideas GIGANTES
[5] Amazon Web Services (AWS) – Servicios de computación en la nube
[6] El almacén de datos construido para la nube | Copo de nieve
[7] Amazon Redshift – Solución de almacenamiento de datos – AWS