¿Cuál es la mayor cantidad de RAM que ha tenido una computadora?

Asumiré que no estás hablando de supercomputadoras, sino de una computadora que es factible (pero aún muy costosa) para los consumidores.

Supermicro fabrica placas base con 4 zócalos de CPU Cada zócalo de CPU tiene 8 ranuras de memoria, para un total de 32 ranuras de memoria.

Muchas compañías (es decir, Samsung y Kingston) hacen 32GB de ram. Eso significa que cada una de esas ranuras puede tener 32 GB de RAM en ellas.

Unidades de 32 GB * 32 ranuras = 1024 gigabytes potenciales de memoria.

Ese es un TERABYTE de memoria. Eso es más memoria de la que algunas personas tienen almacenamiento.

EDITAR: Me ha llamado la atención que Crucial realmente hace DIMM de 64 GB. Entonces, la mayor cantidad de RAM que puede tener una computadora es 2048 GB, o dos terabytes de memoria, en teoría. Ni siquiera me molesté en comprobar si la placa base podía soportar esta cantidad de memoria.

EDIT 2: Para citar a Matt Kuhar: “En realidad, tenemos algunos servidores en mi trabajo, HP DL380 Gen 9, que admiten 3 TB de ram (24 ranuras, 128GB Sticks en cada una). muy dulce para mi !!

EDITAR 3: Hay algunas buenas preguntas sobre qué sistemas operativos admiten esta cantidad de memoria.

Red Hat Enterprise Linux (RHEL)

Probablemente sean una buena base, observando las capacidades de RHEL6, están cubiertas aquí, tituladas: capacidades y límites de la tecnología Red Hat Enterprise Linux

NOTA: [5] Los límites arquitectónicos se basan en las capacidades del kernel de Red Hat Enterprise Linux y el hardware físico. El límite de Red Hat Enterprise Linux 6 se basa en el direccionamiento de memoria física de 46 bits. El límite de Red Hat Enterprise Linux 5 se basa en el direccionamiento de memoria física de 40 bits. Toda la memoria del sistema debe estar equilibrada entre los nodos NUMA en un sistema con capacidad NUMA.

Documentos del kernel

Además, si echa un vistazo a los documentos del kernel, https://www.kernel.org/doc/Docum…

Mapa de memoria virtual con tablas de páginas de 4 niveles:

0000000000000000 – 00007fffffffffff (= 47 bits) espacio de usuario, diferente por mm

Entonces 247 bytes = 128TiB = aprox. 140 TB

El valor más alto de todos los tiempos que conozco actualmente es el superordenador Tianhe-2 (chino), que comprende 16,000 nodos (195 núcleos de CPU por nodo, para un total de 3.12 millones de núcleos de CPU en todo el sistema) y ~ 1375 terabytes (1.375 petabytes) de RAM.

El Tianhe-2 fue superado a mediados de 2016 por el TaihuLight, cuyas especificaciones no son tan conocidas (~ 10.6 millones de núcleos de CPU, en comparación con los 3.12 millones de Tianhe-2). El TaihuLight puede tener una memoria equivalente o un poco menos, pero su arquitectura de computación es sustancialmente diferente (Tianhe-2 es SPARC / RISC, Taihu es algo más de propiedad china con similitudes (se rumorea) con DEC Alpha 21164), por lo que los compara de lado by-side no es simple.

Por ahora, voy a ir con Tianhe-2 (1375 TB RAM). Espere cambios pronto.

Supongo que esto depende de lo que clasifiques como una sola computadora.

Las supercomputadoras tienden a ‘pegar’ muchos nodos que contienen procesamiento y memoria utilizando redes de alta velocidad. Entonces, según esa definición, puede obtener máquinas con recuerdos que van desde los petabytes.

En cuanto a lo que se puede considerar un servidor más tradicional, ¿por qué no probar la placa madre X10QBi de Supermicro?

Este monstruo quad CPU toma hasta 8 tarjetas verticales, cada una de las cuales ofrece 12 ranuras DIMM.

Al llenar completamente una placa con elevadores se obtienen un total de 96 ranuras de memoria. Conectar 96 de las últimas tarjetas de memoria DDR4 de 128 GB, además de meter los dedos, le brindará una enorme cantidad de memoria de 12 TB para jugar. Probablemente un poco exagerado para el extraño juego de Fallout, pero muy útil para cosas como bases de datos intensivas que dependen del acceso rápido a la memoria.

Lástima que te costará más de £ 55,000 solo por la memoria.

Si estás hablando de algo que tú o yo podríamos comprar, entonces actualmente (abril de 2017) es X10QRH + de SuperMicro

cuyas 48 ranuras DIMM pueden contener un total de hasta 6TB (6,597,069,766,656 bytes) de 3DS LRDIMM (1.5TB por CPU), y (aproximadamente a $ 1,200) podría decirse que está al alcance del “usuario avanzado” promedio.

Ciertamente, hay supercomputadoras con múltiples (generalmente 4–8 TB) bancos de RAM y (como se señaló anteriormente), en un bus de direcciones de 64 bits, podría emplear hasta 16.777.216 terabytes de ellos. Por ejemplo, el “Sunway TaihuLight” de China tiene actualmente 1.407 TB de RAM.

Hasta donde yo sé, 12 TB es posiblemente el más grande que puede obtener hoy (diciembre de 2016) en una máquina de múltiples zócalos. Recientemente en la conferencia VLDB, SAP HANA mostró su producto ejecutándose en una máquina de 12TB.

Una gran cantidad de memoria es excelente para las bases de datos, ya que todos los datos se pueden guardar en la memoria y las consultas se pueden responder sin tocar el disco. Estos sistemas de alta memoria cuestan una bomba (al menos $ 0.5 millones) y las compañías más grandes lo usan para ejecutar sus bases de datos de alto rendimiento. Aquí hay una publicación de blog de HP: el único sistema de pool en memoria único de 12 TB certificado por SAP para SAP HANA está aquí, ¡y es HP!

Tenga en cuenta que muchas empresas tienen clústeres cuya memoria agregada puede ser de un orden de magnitud mayor y más barata en comparación con esta solución.

Eliminemos de la discusión los grupos de supercomputación de nodos múltiples de acoplamiento flexible.

Entonces, estábamos hablando de servidores SMP con un único conjunto de memoria compartida coherente con caché que puede ejecutar una sola imagen del sistema operativo, y limitándonos a planchar que puede levantar el teléfono y ordenar de un proveedor establecido y tenerlo en su centro de datos en 6– 12 semanas o menos.

La máquina más grande del mercado a diciembre de 2016 que cumple con esas restricciones es la SGI UV300, con una capacidad máxima de 64TB de RAM. El acceso a la memoria no es uniforme, por lo que algunos accesos a la memoria tienen latencias significativamente más altas debido a la ruta física que las operaciones de memoria remota tienen que atravesar.

IBM, HP y SGI (y posiblemente Oracle, pero no estoy seguro) fabrican máquinas con una capacidad de 32 TB de RAM.

El único sistema operativo más grande que conozco que está instalado en un centro de datos y ejecuta una carga de trabajo de producción es de 24 TB con un plan para actualizarlo a 48 TB.

Servidor HPE Integrity MC990 X de Hewlett Packard

admite 12 TB de RAM

Servidor HPE Integrity MC990 X – Documentación del producto

pero espera

el servidor Superdome, también de Hewlett Packard, admitirá 24 TB

https://www.hpe.com/h20195/v2/Ge

La supercomputadora Blue Waters, alojada en la Universidad de Illinois en Urbana-Champaign, tiene 1,5 petabytes de RAM. Esto es más que Tianhe-2 (1.375 petabytes) y el nuevo Sunway TaihuLight (1.31 petabytes). El Blue Waters es relativamente poco conocido porque nunca ejecutó el punto de referencia HPL, por lo tanto, nunca ha estado en la lista Top500 de las supercomputadoras más potentes.

Aguas azules – Wikipedia

He leído muchas de estas soluciones y muchas hablan sobre conectar módulos.
El problema es que tener la memoria no es lo mismo que acceder a la memoria.
El hardware tiene límites basados ​​en el BIOS. Y luego, por supuesto, tiene límites en cuanto a qué memoria puede abordar el sistema operativo subyacente.

Windows 10, por ejemplo, actualmente tiene un máximo de 2 TB con el que puede trabajar. Te puedo garantizar que alguien lo intentó solo por “diversión”. Creo que la mayoría de los sabores de Linux también tienen este límite de direccionamiento actual.

Ahora este sería el récord de memoria “en línea”. En realidad, puede tener varias computadoras usando varias técnicas (almacenamiento en caché en discos duros rápidos, por ejemplo) que extienden los límites y todo depende de lo que quiera contar. Tienes “cuchillas” que usan múltiples computadoras actuando en concierto. Me imagino que sea lo que sea que esté usando la NSA o que las granjas de servidores de Google probablemente sean las más grandes.

Podrías preguntarles a estos tipos …

TidalScale

Construyen grandes máquinas virtuales a partir de servidores más pequeños, por lo que la cantidad de memoria física (RAM) es esencialmente ilimitada.

Actualmente construimos sistemas de cómputo 2D que no son muy eficientes, y la falta de eficiencia limita la densidad (para que no se derrita), lo que a su vez limita la velocidad (la distancia es tiempo). La próxima generación de computación será 3D (memoria y procesamiento apilados), muy densa y mucho más eficiente.

Es imposible saberlo. Podemos adivinar, pero este es un intento de una suposición educada.

[matemáticas] \ infty [/ matemáticas] GB: De acuerdo. Eso es un poco estúpido. Nadie tiene tanto.

17,179,869,184 GB : Esa es la cantidad máxima de RAM que puede tener en una computadora de 64 bits. Teóricamente El valor es [math] \ frac {2 ^ {64}} {2 ^ {30}} = 2 ^ {34} GB [/ math]. [Nota: [matemáticas] log_ {2} (17179869184) = 34 [/ matemáticas]]. De acuerdo, a menos que alguien gaste billones de dólares en esta computadora, nadie tiene tanto.

262,144 GB : la limitación práctica en procesadores de 64 bits, para acelerar las cosas. Solo permiten 48 bits de espacio de direcciones. [matemáticas] \ frac {2 ^ {48}} {2 ^ {30}} = 2 ^ {18} GB [/ matemáticas]. De acuerdo … esto podría ser plausible … ¿tal vez? [Nota: [matemáticas] log_ {2} (262144) = 18 [/ matemáticas]]

4,194,304 GB : Recientemente, Intel ha permitido espacios de direcciones de 52 bits. [matemáticas] \ frac {2 ^ {52}} {2 ^ {30}} = 2 ^ {22} GB [/ matemáticas]. [Nota: [matemáticas] log_ {2} (4194304) = 22 [/ matemáticas]] Eso es mucha RAM … ¿estamos en lo cierto?

Nadie tiene tanta RAM … No quiero decir una sola persona.

La supercomputadora Titan tiene 693.5 TiB de RAM, lo que equivale a aproximadamente 710,144 gigabytes.

Dato interesante : el cerebro puede contener 2,5 petabytes de datos. Algunos sostienen que todo el almacenamiento del cerebro cuenta como RAM … ¿Cuál es la capacidad de memoria del cerebro humano? (ahí está tu trivia para el día)

La mayor huella de memoria que se puede comprar fácilmente es probablemente el Oracle M7–16, que se puede configurar con hasta 16 TB (64 GB DRR4 x 16 por procesador X 16 procesadores) de memoria coherente con 512 núcleos. Alternativamente, IBM Power E880 puede soportar hasta 32 TB de memoria. SGI y HP también realizan configuraciones de inteligencia personalizadas de alta memoria. Si estamos hablando de un centro de datos como una computadora, entonces el ganador aquí es probablemente un centro de datos de Google.

El Tianhe 2 fue una de las computadoras que podemos decir que tiene la mayor cantidad, pero dado que es una supercomputadora, omitámoslas.

Lo máximo que admite una placa base de grado de servidor actual es 64GBx32 ranura quad cpu mobo, que admite 1 TB de RAM debido a ddr4.

La supercomputadora Summit en los Laboratorios Nacionales de Oak Ridge está programada para tener ~ 1.7 Petabytes de DRAM más otros ~ 2.7 Petabytes de NVRAM. Se implementa en 2017.

El almacenamiento es de aproximadamente 120 petabytes de disco con un ancho de banda de 1 TB / segundo.

Ver https://www.olcf.ornl.gov/summit/

Esta pregunta debería estar dirigida a google pero he ayudado por mi propio conocimiento … servidores blade de cisco 384 gb

PC ordinaria para diseñadores 192gb

Depende de usted clasificar un servidor como PC o no … Referencia a continuación

¿Sueña con una PC con 192 GB de RAM? Dell lo hace realidad

En una consulta con nuestro gerente de cuenta de NVidia hace unas semanas, en una discusión sobre sus nuevas API de procesamiento de gráficos y material de memoria híbrida para el trabajo de aprendizaje automático, mencionaron que si lo necesitábamos, podían organizar una máquina con 4 TB de memoria principal.

El Oracle Sun M7 / 8 admite 8TB RAM si está completamente lleno con 64 GB DDR Dimms, aquí está la hoja de datos. http://www.oracle.com/us/product

Ni siquiera estoy seguro de que este sea el servidor más grande que ofrece Oracle, es caro, por supuesto.

Si pudiera proporcionar información sobre lo que define como “computadora”, ¿eso incluye supercomputadoras especializadas?

Si no, lo más que he visto en lo que llamo una computadora de escritorio / estación de trabajo estándar fue una máquina que tenemos en funcionamiento con 96 GB de RAM

Depende de lo que quieras decir con “computadora”, ¿no? Suponiendo que no se refiere a una computadora que un consumidor normal podría comprar (y ejecutar correctamente), un buen candidato podría ser el mainframe IBM Z-series con una memoria máxima del sistema de 2TB. (También 2 PB de almacenamiento).

Asumiré que se refiere a una sola casilla (descartando las supercomputadoras) en mi trabajo anterior en una universidad de investigación, teníamos servidores con 6 TB de RAM cada uno (Dell R930s) y nuestro laboratorio de aprendizaje automático tenía 2 estaciones de trabajo con 12 TB cada uno. . Uno de nuestros grupos totalizó más de 48 TB de RAM. Se vuelve un poco loco a medida que creces.