Imagine que tiene una supercomputadora tan poderosa como las 500 mejores supercomputadoras juntas, durante un mes, con todos los costos incluidos. ¿Qué importante problema científico, útil para la humanidad, podría resolverse con todo ese poder, que actualmente no está resuelto?

Top500 en conjunto puede parecer mucho, pero no lo es. Por lo general, es tanto como la supercomputadora más potente será en 4 años.

En 2014, la supercomputadora más potente Tianhe-2 tiene una potencia de cálculo 33.9 PFLOPS. Es más que todas las supercomputadoras top500 tenían en junio de 2010. Anteriormente, en 2012, el más poderoso era Titan, con 17.6 PFLOPS. Era más de lo que tenían todas las supercomputadoras top500 en noviembre de 2008.
Mira esta pagina para mas detalles:
Desarrollo de desempeño

Entonces, tener este poder computacional durante un mes no importaría demasiado. Después de todo, la mayoría de esas supercomputadoras están realizando investigaciones importantes:
– análisis de la estructura de la proteína: desenredando enzimas
– Investigación de superconductores: las simulaciones de superconductores basadas en hierro generan nuevas posibilidades en Titán
– aumento de la eficiencia de los motores: las complejidades de la combustión
– aumento de la seguridad de los reactores nucleares: Going Nuclear
– modelado climático: afinando el futuro acelerado del modelado climático
– y muchos otros

No es que uno de estos problemas sea mucho más importante que los demás. Todos empujan los límites de nuestro conocimiento y pueden conducir a un avance importante. Pero no está garantizado. Centrarse en un problema puede significar que simplemente estamos perdiendo el tiempo, porque este problema es demasiado difícil. Ponerlos a todos para resolver un problema en particular solo significaría que obtendríamos respuestas que obtendremos de todos modos en varios años.

A2A

No puedo pensar en ningún problema puramente científico en el que el principal obstáculo sea la falta de potencia informática. Sin embargo, algunas aplicaciones “lo suficientemente cercanas” que podrían calificar, y donde ya existe un software adecuado para computadoras paralelas masivas:

  • Modelos climáticos mejores, más finos, más completos y precisos
  • Varios problemas desde la genómica y la proteómica (desde un mejor modelado de la regulación de la expresión génica hasta el plegamiento enzimático)
  • Diseño racional de drogas
  • AI

Editar: Todos los problemas trabajados por BOINC (que avanza lentamente hacia 10 PFLOPS en promedio) obviamente calificarían. Si pudiéramos hacer que los jugadores donen su poder de GPU inactivo para esto, probablemente tendríamos un hipercomputador global más poderoso que el que postulas (una buena GPU es capaz de más de 1 TFLOPS si se programa cuidadosamente; solo 10000 de ellos duplicarían la potencia disponible para BOINC).

A2A

Creo que deberíamos dar prioridad a la investigación de la enfermedad / cura; y espero que la respuesta sea “computable”. Cualquier otro problema parece irrelevante en comparación con los problemas de salud.

Claro que me gustaría saber cómo comenzó el universo. Y cómo transformar el plomo en oro. Y qué tipo de formas de vida hay en el océano profundo y oscuro.

Pero, ¿de qué sirve si todavía no podemos encontrar la cura para el cáncer, el SIDA, el Parkinson, el Alzheimer, la AME, la esclerosis …?

A2A.
El problema, como todos los demás han mencionado, no está limitado por la disponibilidad o la falta de recursos informáticos, sino por la formulación del modelo del problema. Un problema que generalmente se ejecuta en la supercomputadora también se puede ejecutar en un clúster normal hecho de componentes estándar debido a la escalabilidad. Está diseñando algoritmos más eficientes y paralelizando el código en el que se encuentra el futuro de la informática científica.
Responder su pregunta más específicamente sería el problema de identificar patrones climáticos con mayor precisión.

Odio decirte esto, pero tu pregunta se plantea de una manera que muestra un malentendido de las supercomputadoras. Esa palabra clave es “mes”. En lugares como LLNL, una medida anterior de la importancia de las máquinas más antiguas era “Cray-years” de ejecución (programa único). Hacer una cantidad fija de cómputo un orden de magnitud más pronto está bien intencionado y es algo bueno en sí mismo, y hacerlo usando 2 órdenes de magnitud más hardware puede parecer una solución razonable, pero se puede lograr una buena cantidad de esa potencia computacional solo esperando un par de generaciones de la ley de Moore (3-4 años como lo señaló otra persona).

Si está buscando problemas para intentar resolver, mire varias listas de grandes desafíos vagos.

Un atributo clave para tener estas máquinas en manos de las personas inteligentes adecuadas es que la información intermedia obtenida en la computación a menudo produce nuevos algoritmos. Estos parecen llegar primero a la física, la biología es un poco más difícil y tomará un poco más de tiempo.

Seguramente sería imprescindible desarrollar una vacuna contra el ébola, el cáncer y las ayudas con el uso de la red neuronal junto con un ai

El Departamento de Energía de EE. UU. Tiene varios informes públicos sobre los Grandes Desafíos para las futuras supercomputadoras que son cientos o miles de veces más rápidos que los que se encuentran actualmente en el top 10. Documentos del programa ASCR.