Si cada registro tuviera solo 200 bytes, serían doscientos millones de exabytes. No estoy seguro de si alguno de los sistemas masivamente escalables podría acomodar eso. Pero, si pudieran, un sistema de bajo presupuesto con RAID 2/3/4 o duplicación simple, suponiendo un 50% de eficiencia y sin indexación que no sea una búsqueda de hash, ocuparía casi 1000 yottabytes. Con la compresión, si contuviera datos altamente comprimibles como el texto, podríamos reducirlo a mucho menos, digamos 100YiB.
Todavía nadie fabrica una unidad de disco ni ningún almacenamiento de acceso aleatorio que esté cerca de ese tamaño (aunque las unidades de cinta pueden ser bastante grandes), así que iremos con una unidad de 100TiB. Necesitarías tener un billón de esos. A $ 100 cada uno le costaría $ 10,000 trillones. Agregar el costo de los servidores y otra infraestructura lo duplicaría, lo que lo elevaría a más de 100 veces el producto nacional bruto de los Estados Unidos. (Ni siquiera me gusta llevar tanto dinero).
Entonces preguntaste cómo harías esto. Primero, tendría que robar todos los bancos de depósito federales o bancos centrales del mundo. Luego, tendría que pedir el equipo y esperar algunas décadas para que se fabrique, suponiendo que puedan aumentar según sus necesidades, y luego tendría que reunir algunos centros de datos que podrían proporcionar la energía y la refrigeración necesarias. Oh. Potencia y enfriamiento. Ese es otro problema. Hmm
- ¿Por qué hay mucho autismo en informática?
- ¿Hay algún software de respaldo continuo?
- Cómo formatear una tarjeta SD protegida contra escritura
- ¿Qué cambios se pueden hacer al algoritmo de Floyd-Warshall para resolver este problema NAJKRACI de SPOJ?
- ¿Cuál es la diferencia entre el cambio de contexto y el manejo de interrupciones?
¿Estás seguro de que quieres gastar tanto?