Tal vez. Es una tecnología genial. Pero hay algunos problemas que sugieren que, en el mejor de los casos, será un aumento modesto para la mayoría de las aplicaciones, y tal vez un aumento grande para algunas aplicaciones seleccionadas:
1. Primero, en términos de computación, las implementaciones prácticas de HBM y HMC son en realidad tecnologías 2.5D, no tecnologías 3D. La lógica de cálculo se coloca en el mismo intercalador 2.5D, muy parecido a una PCB en lugar de debajo de la memoria apilada. Esto se debe a que el verdadero apilamiento en 3-D hace que sea difícil extraer calor del dado lógico. Las GPU AMD y Nvidia de última generación adoptan este enfoque.
2. Segundo, la latencia de acceso a DRAM no se reduce significativamente en implementaciones 2.5D, o en 3D para el caso, porque el retraso es principalmente interno a la DRAM y no en la interconexión en sí. El principal beneficio es el ancho de banda, pero el beneficio potencial de las mejoras en el ancho de banda estará limitado por la ley de Amdahl debido a la energía. De hecho, si el sistema 2D está limitado por la energía actual, entonces la mejora del sistema 3D estará limitada únicamente por la mejora en la eficiencia energética obtenida al pasar a 3D, que no es mucho.
- ¿Hay algún algoritmo (o aplicación) que pueda distinguir entre música, habla o galimatías al azar?
- ¿Cuál es el lenguaje de programación que debo elegir para realizar una investigación en el área de Visión por Computador?
- ¿En qué se diferencia la investigación de IA en India de la investigación de IA en EE. UU. O China?
- ¿Cuáles son los mejores métodos y herramientas para diseñar una interfaz para una aplicación de investigación científica?
- ¿Qué estructuras de datos son más eficientes que las tablas hash?
3. Los chips actuales ya pueden ser PIM sin tecnología 3D. Puede colocar una red 2D de núcleos con e-DRAM con, digamos, un megabyte de datos por núcleo. El principal beneficio de la integración 3D es que puede acceder a una mayor cantidad de DRAM cercana que antes. Pero muchas aplicaciones tienen buena localidad y no se benefician de esto.
4. La memoria apilada parece muy útil para las redes neuronales de aprendizaje profundo que tienen grandes colecciones de datos de peso.