Hay (en términos muy generales) dos clases de supercomputadoras: capacidad y capacidad. Las máquinas con capacidad tienden a ser clústeres de Linux x86 diseñados con la intención de que muchos usuarios envíen trabajos que ocupan solo una fracción de la máquina. Las máquinas con capacidad están diseñadas para ejecutar un subconjunto de aplicaciones mucho más pequeño con la expectativa de que cada una requerirá el uso exclusivo de toda la máquina. En LLNL, estas máquinas han tendido a ser una de las series Blue Gene (arquitectura Power de IBM, núcleos livianos en los nodos de cómputo, interconexión toro).
Compare Quartz (96k Broadwell cores, 344 terabytes de DRAM, interconexión OmniPath) con Sequoia (1.5M PowerPC A2 núcleos, 1.5 petabytes de DRAM, interconexión toro 5d).
En cuanto a las tareas informáticas, dada la memoria y el tiempo suficientes, cualquier computadora puede emular a cualquier otra computadora. Las máquinas con capacidad tienden a ejecutar simulaciones físicas existentes en un espacio más amplio del mundo real (aumentando el número de átomos en una simulación de dinámica molecular) o aumentando la resolución de problemas existentes (simulaciones climáticas que se ejecutan en una cuadrícula cada vez más fina). Un uso que ha adquirido importancia en las máquinas de capacidad reciente es la cuantificación de incertidumbre. Lograr que funcionara bien en Sequoia requirió algunas modificaciones, como se detalla aquí: Cramming Sequoia Full of Jobs for Incertidumbre Cuantificación.
- ¿Existe alguna simulación informática actual del crecimiento basado en el ADN a través del cual podamos manipular mutaciones e inferir los posibles resultados? ¿Si no, porque no?
- ¿Cuáles son los enfoques actuales para resolver problemas completos de NP?
- ¿Es obligatorio tener un conocimiento de la ciencia de datos antes de comenzar el aprendizaje automático?
- ¿Por qué elegir la estructura de datos incorrecta hace que un programa sea ineficiente?
- ¿Cuándo tenemos un corte mínimo único en una red de flujo?