¿Cuáles son algunos avances tecnológicos que han hecho que las CPU y GPU sean mucho más rápidas?

Hay 2 caminos principales para mejorar las tecnologías CMOS: diseño y proceso.

En el lado del diseño, que personalmente entiendo menos, las mejoras son numerosas, pero requieren un proceso adecuado para su aplicación. Dichas mejoras se encuentran en el bloque funcional y en los niveles superiores (bloques IP), no en el nivel de transistor único.

Innovaciones de proceso que permiten dispositivos más rápidos con menor retraso RC. Esto se puede hacer acelerando los transistores, usando silicio colado (ejemplo a continuación) por ejemplo. La introducción de nuevos materiales, como HiK y Metal Gate, también desempeña un papel en la mejora del nivel del dispositivo. Las interconexiones de Cu, que se introdujeron hace unos 15 años, fueron una pieza crítica para la reducción de RC.

Escalar solo (nodos más pequeños) también permite alguna mejora, simple al reducir la longitud del canal.

Los siguientes en línea son el novedoso diseño de transistores y los nuevos materiales. Los dispositivos basados ​​en grafeno son muy prometedores, pero aún tienen un largo camino antes de entrar en la producción en masa.

TFETs también es un consentimiento muy prometedor, así como dispositivos cuánticos basados ​​en Si.

¡Salud!

Proceso y Arquitectura son los grandes avances.

La respuesta de Daniel Fishman a ¿Cuáles son algunos avances tecnológicos que han hecho que las CPU y GPU sean mucho más rápidas? ¡Cubre la parte del proceso de manera excelente!

Más transistores le permiten hacer cosas como múltiples núcleos, caché de memoria en chip más grande y rápido y múltiples canales de ejecución donde puede usar la ejecución especulativa, la ejecución fuera de orden y los predictores de rama para acelerar la ejecución.

Además, los conjuntos de comandos expandidos como Streaming SIMD Extensions (SSE) y otras unidades de ejecución aceleradas por hardware permiten a los programadores escribir código que “enciende” más transistores en la CPU para la ejecución rápida de cosas como las matemáticas de matriz.

Estoy menos familiarizado con la arquitectura de GPU, excepto que son máquinas SIMD gigantescas que consumen tantos transistores como usted les da. NVidia se encuentra rutinariamente con los límites de su nodo de proceso de fabricación de dispositivos semiconductores, ya que gran parte de su velocidad proviene de replicar sus unidades de ejecución paralelas en el mayor espacio posible.

Una de las razones principales es la existencia de una gran cantidad de ALU en un procesador de gráficos. Están diseñados inherentemente para procesar múltiples bloques sub (macro) en paralelo como parte de la representación (DCT).

El mismo marco es muy adecuado para cálculos numéricos (alto número de ALU) específicamente cuando partes significativas pueden ser paralelas.

Creo que el nodo se encoge y permite que se coloquen más transistores en la misma área de superficie es el mayor logro en el campo de la producción de CPU GPU.

Esto significa que hay menos área del troquel real, menos salida de calor debido al tamaño reducido que requiere menores voltajes y entrada de energía. Siempre es bienvenida una mayor potencia de procesamiento, y los encogimientos de nodos permiten que se agreguen más cosas a las GPU de las CPU, por lo que, en última instancia, más potencia.