¿En qué punto las computadoras dejarán de ser más rápidas?

Esto tiene tres respuestas, dependiendo de su punto de vista: (1) Ya sucedió, en 2005. (2) En menos de 10 años, salvo algún avance en potencia / enfriamiento / whozit cuántico / algo. (3) No por un tiempo, pero será extraño. Detalles:

Caso 1:

Si por “computadora” te refieres a un motor de cómputo individual, individual, bueno, las velocidades del procesador individual básicamente dejaron de aumentar en 2005. Digo “básicamente” porque en realidad han aumentado desde entonces, algo, pero en comparación con la tasa anterior de aumentar es como ver crecer el pasto. Vea el gráfico en la página 9 del informe de la Academia Nacional de Ciencias “El futuro del rendimiento de la informática: ¿Juego terminado o siguiente nivel?”; Es bastante dramático. (Informe disponible, gratis, en http://www.nap.edu/catalog.php?r…).

Ese gráfico en realidad muestra la velocidad del reloj, no la “velocidad de la computadora”, pero para estos fines es un sustituto adecuado.

Caso 2:

Su definición de “computadora” puede ser lo suficientemente amplia como para incluir las instalaciones masivas denominadas “supercomputadoras” en estos días, los tipos de cosas que adornan a National Labs y que figuran en la lista “Top500” de supercomputadoras más rápidas.

La cuestión es que esas no son realmente una sola computadora, y no han sido una sola computadora durante décadas. Son 1000 o 10 de 1000 de lo que de otro modo sería una “computadora” para la mayoría de las personas, agrupadas y unidas entre sí por (generalmente) enlaces muy rápidos (rápido en ancho de banda y latencia). Las personas con mucha experiencia toman problemas científicos únicos y los dividen en miles de millones de partes diferentes, ejecutando cada parte en una de las computadoras (regulares) que se agrupan para hacer la “supercomputadora”.

Este tipo de ensamblaje sigue siendo cada vez más rápido. Ha habido un esfuerzo ahora durante varios años para obtener uno hasta un ExaFLOP (verifique sus definiciones de prefijos en Wikipedia). Todavía no he llegado allí. Trabajo duro, porque simplemente armar suficientes computadoras viejas para hacer eso necesita una gran cantidad de energía para funcionar. Me gusta lo suficiente como para alimentar ciudades pequeñas. No practico. Entonces la gente se esfuerza por llegar allí; Básicamente es investigación.

¿La agregación de más y más computadoras alguna vez se agotará por completo? El padre del clúster de informática técnica simple (“Beowulf”), Tom Sterling, quien es muy activo en el trabajo de Exascale, recientemente en una entrevista dijo que nunca llegaremos a ZettaFLOPS. (http://www.hpcwire.com/hpcwire/2…). Por supuesto, algunos no están de acuerdo (http://www.hpcwire.com/hpcwire/2…) pero no puedo decir cómo llegaremos allí.

Caso 3:

En el caso 3, su definición de “computadora” no requiere que haga todo lo que normalmente hace una computadora de “propósito general”. Estoy pensando aquí en la enorme potencia de fuego que se introduce en las unidades de procesamiento de gráficos. Nunca harán una transacción de base de datos financiera ni ejecutarán Microsoft Word, pero seguro que sombrean píxeles rápidamente. Esto podría decirse que es un caso secundario del Caso 2, ya que hacen lo suyo al dividir los problemas en muchos otros que pueden ejecutarse en paralelo. Simplemente no se está aplicando la informática de propósito general. También se pueden usar para hacer muchas variedades de computación científica, por lo que ahora se usan regularmente en grandes sistemas Case 2.

¿Podría haber un Caso 4, apuntando a los múltiples procesadores ahora en cada teléfono celular, computadora portátil, computadora de escritorio y nodo único de una supercomputadora? Tal vez. Han estado disponibles durante mucho tiempo y no se usan bien en ningún sistema personal. Se utilizan en los sistemas Case 2 y en sistemas web y comerciales a gran escala.

O un caso 5: los almacenes llenos de sistemas de Google / Amazon / whoever. ¿Esa es una computadora? Creo que eso está estirando demasiado las cosas, así que me detendré aquí.

Hace unos diez años. Las velocidades de reloj para las computadoras de consumo han sido casi planas desde que llegaron a 3GHz hace una década. Las mejoras de rendimiento desde entonces han sido sustancialmente arquitectónicas, con el mayor cambio que incluye múltiples núcleos para que se pueda hacer más trabajo en paralelo.

No espero que la velocidad del reloj aumente mucho en el futuro cercano hasta que se desarrollen nuevos materiales semiconductores que sean útiles y lo suficientemente baratos como para reemplazar el silicio. Los transistores hechos de arseniuro de indio y galio y fosfuro de indio han alcanzado los 845 GHz, y una serie de demostraciones de transistores basados ​​en grafeno superan los 100 GHz. Pero llevarlos a la producción a gran escala a un costo razonable puede que nunca suceda. Pasará al menos una década hasta que se vean en dispositivos de consumo.

Estoy respondiendo esto de la manera menos técnica para que todos puedan entender …

La velocidad del procesador se ve afectada por varios factores, el más importante de los cuales es la arquitectura o la escala “nm”. Todos hemos escuchado cosas de 24nm, 16nm y 14nm. Anteriormente, o aún hoy, las computadoras con una escala de 45 nm son menos eficientes que el procesador de 24 nm. Una escala de arquitectura más pequeña permite velocidades de reloj más altas con menos consumo de energía. Actualmente estamos en el soporte de 16nm, cambiando hacia la escala de 14nm muy rápidamente. El obstáculo es que hay un límite al cual podemos reducir la escala de la arquitectura. Cada nivel de nm está asociado con una región del espectro, y una escala inferior a 10 nm es la radiografía, una región en la que no queremos trabajar. Además, 10 nm es aproximadamente el diámetro de un cabello humano, por lo que la construcción de procesadores alrededor de esa escala es REALMENTE sofisticada. Por lo tanto, nuestras velocidades están limitadas por algunos factores que no podemos ignorar o modificar. La hoja de ruta de Intel sugiere que estaremos a 11nm para 2022 como máximo.

Internet puede considerarse una computadora gigante. Cada vez que los chips se aceleran, o se conectan más, la computadora se acelera. Nunca se detendrá.