Interesante….
Primero, saquemos un poco de vocabulario. Los FLOP son “instrucciones de coma flotante por segundo”. “Giga” son miles de millones, por lo que una máquina de gigaflop produce aritmética aproximadamente a esa velocidad. Cualquier computadora portátil o procesador de servidor debería poder hacer esto.
Mil veces más rápido que giga es tera. Ahora estamos en territorio GPGPU.
- ¿Salir al exterior chocaría los sensores de los Microsoft Hololens?
- Estoy en ingeniería informática pero creo que disfrutaré mucho más de la informática. ¿Cómo puedo aprovechar al máximo esta decisión?
- ¿Es 'ciencia de datos' simplemente un nombre elegante para la ingeniería de características?
- ¿Cuál es la diferencia entre una computadora y una IA?
- ¿Puedo triplicarme en ingeniería informática, ingeniería eléctrica e ingeniería aeroespacial?
Mil veces más rápido que la tera es peta. Las máquinas petascale existen ahora. Puede encontrar una lista de los 500 mejores del planeta aquí: Sitios de supercomputadoras TOP500. La máquina más rápida a partir de noviembre de 2015 tiene núcleos de procesador> 3M; eso te dará un rendimiento sostenido de 33.9 PFLOPs.
Mil veces más rápido que peta es exa. Estas máquinas están en la mesa de dibujo ahora. Así es como se verían (la línea de tiempo era demasiado agresiva):
Así que piense en tener 1k nodos de cómputo, cada uno con paralelismo de 1M. Y piense en los 20 megavatios que necesitará proporcionar para que la máquina haga algo útil.
Mil veces más rápido que exa es zetta. Si estamos ampliando la tecnología exascale, esa computadora zettaflop de bolsillo usará 20 gigavatios de energía eléctrica. Eso está en el orden de “toda la energía eólica instalada en Alemania”.
Mil veces más rápido que zetta es yotta. Ahora estamos en teravatios. Estamos viendo el 1% de la energía eléctrica total de los EE. UU. En tu bolsillo.
Ahora hablemos de memoria. Esta máquina “tiene puertos USB”. Digamos 10. Eso es gigabits de ancho de banda por segundo. Solo arrojando algunos números: 1k segundos para un terabyte, 1M segundos para un petabyte, 1B segundos para un exabyte, 1T segundos para un zettabyte. Simplemente descargar el contenido de la memoria llevará decenas de miles de años. Cómprate un sistema de archivos paralelo, ¿de acuerdo?
Ahora, ¿qué haces con todo este hardware?
La mejor respuesta es probablemente “tratarlo como una pila de máquinas de petaflop y cuantificar la incertidumbre en él”. Todavía no tenemos una buena comprensión de cómo escribir simulaciones físicas de exascala (y no lo haremos hasta que nos establezcamos en una arquitectura), pero tenemos una idea de cuán crítico es explorar los espacios de parámetros de las simulaciones que tenemos para descubrir dónde se descomponen nuestros modelos. Por lo tanto, tomaría una simulación climática o una simulación de ciencia de materiales, y la ejecutaría una y otra vez mientras varia los parámetros de entrada para ver qué sucedió con la salida. Eso podría conducir a una ciencia innovadora, pero no es el tipo de cosas que se pueden resumir en una grabación de 30 segundos.