¿Cuánta RAM se necesitaría para ejecutar 1000 escenarios de Monte Carlo?

Las simulaciones de Monte Carlo suelen exigir muy poco RAM. Esto se debe a que no tiene todos los detalles de todos los escenarios en la memoria, sino a lo sumo solo el resultado de cada escenario.

Mantendría los resultados de cada escenario en la memoria si necesita realizar un procesamiento posterior de los resultados una vez completada la simulación.

A veces ni siquiera necesitas mantener ningún resultado. Como ejemplo, suponga que está analizando la probabilidad de falla de una estructura. Entonces solo necesita un contador para la cantidad de fallas. En cada escenario, si la estructura falla, incrementa el contador.

He ejecutado hasta 100 millones de escenarios en computadoras de oficina comunes. Lo que tiende a hacer que Monte Carlo sea un desafío computacional es el tiempo de ejecución en lugar del requisito de RAM. Aunque eso es mucho menos problema con las computadoras de hoy de lo que solía ser.

Depende de lo que entiendas por escenarios. ¿Te refieres a 1000 instancias de la aplicación MC o 1000 ensayos?

Como otros han dicho, depende de los detalles finos. Me centraré en las 1000 pruebas en mi campo de simulación de transporte de radiación. En el transporte de radiación, generalmente utilizamos un modelo de historia condensada (basado en las cadenas de Markov), lo que significa que solo hacemos un seguimiento de la posición y el momento actuales de cualquier partícula primaria y la posición y el momento de todas las partículas secundarias creadas. Donde nuestros requisitos de memoria entran en juego es cuando estamos tratando de almacenar cosas como la energía depositada o contar la energía de cada partícula a medida que pasa a través del medio. En un conjunto de TC estándar, podríamos tener 10,000,000 puntos de puntuación. Debido a que podríamos simular miles de millones de partículas, estamos utilizando la precisión doble para la reducción de errores de adición. Si solo estamos obteniendo un valor singular en cada punto, ya estamos viendo 78 MB. Esto es pequeño, pero rara vez observamos un solo valor por punto que podríamos tener para calcular la distribución de los eventos de deposición de energía. Incluso en una escala logarítmica, utilizaremos entre 40 y 100 contenedores por década. Si abarcamos 4 órdenes de magnitud, esto significa que estamos ante un consumo total de 12 a 29 GB. Aquí es donde comenzamos a ver la pregunta sobre el número de instancias. Y recuerde que no he hablado sobre definición de geometría, tablas de probabilidad de interacción o cualquier otra cosa.

Al final, al menos para el transporte de radiación, casi no se necesita memoria para simular una prueba en sí. Se necesita más memoria para almacenar y compilar los resultados de la simulación y describir los procesos físicos.

Esta pregunta no puede responderse sin más información sobre el alcance de la simulación.