Sí, los sistemas con más de un terabyte de RAM han estado disponibles durante algún tiempo. En el mundo de los servidores x86, la barrera de la TB se rompió para las máquinas estándar hace 5 años. El gran impulso para esta gran capacidad de memoria tiende a provenir de bases de datos en memoria (por ejemplo, SAP HANA) y virtualización a gran escala.
En la práctica, el problema con esta cantidad de RAM es la densidad / costo de los DIMM frente al número de ranuras de memoria en la placa. Sorprendentemente, uno de los principales impulsores de las placas de servidor de múltiples sockets ha sido a menudo el aumento del número de ranuras de memoria en lugar de la potencia de procesamiento adicional. Entonces, por ejemplo, el conjunto de chips de una placa base de un solo zócalo solo puede admitir 12 zócalos de memoria, mientras que una placa de cuatro zócalos puede hacer 48. Multiplique estos números por el tamaño de los DIMM disponibles fácilmente (estos números son solo ejemplos). A finales de 2016, los 32G DIMM están comenzando a ser más convencionales, mientras que los 16 GB son, a su vez, mucho más asequibles. Ejecutando la matemática para esto: 48 ranuras a 32 gigabytes / cada una llega a 1.5T de RAM.
- ¿Cuál es la base para comenzar la IA y el aprendizaje automático?
- ¿Cuáles son algunas arquitecturas informáticas generales viables y potencialmente útiles que no sean las de Von Neumann?
- ¿Qué son las máquinas profundas de Boltzmann?
- ¿Qué hago si Skype muestra "No se puede iniciar una videollamada"? ¿Intenta cerrar otros programas que podrían estar usando su cámara web?
- ¿Cómo es útil un co-NP Oracle cuando se enfrenta a una tautología?