Primero, para aclarar su pregunta: parece que está tratando de renderizar utilizando un modelo de iluminación global completo, que es muy diferente del trazado de rayos; La radiosidad es la forma más simple del modelo de iluminación global, en el que cada superficie tiene el mismo color aparente independientemente del ángulo de visión (es decir, todo tiene una textura mate). He escrito bastante software para el trazado de rayos, para la radiosidad y para la iluminación global desde principios de la década de 1990, así que entiendo exactamente qué desafío será hacer modelos de iluminación global en tiempo real.
De hecho, podemos responder la pregunta con bastante precisión, utilizando el Estándar Dorado para renderizar escenas naturales complejas, Pixar. Desde la Universidad de Monsters , Pixar ha adoptado un modelo de iluminación global y muchos de los fotogramas de esa película tardaron hasta 29 horas en renderizarse.
- ¿Es posible crear motores de juego basados casi por completo en GPU? En caso afirmativo, pros y contras por favor. ¿Qué distribución entre CPU y GPU tenemos hoy?
- Cómo transferir Windows (original) en mi nueva computadora portátil desde su HDD a una nueva SSD sin perder la licencia
- ¿Cuál es la necesidad de convertir datos en forma binaria en computadoras?
- ¿Cuáles son las diez razones principales por las que las computadoras portátiles más antiguas de la década de 2000 son mejores que las más nuevas?
- ¿Cuál es el trabajo del condensador en una computadora?
De acuerdo, tal vez no sea exactamente una escena “natural”, pero se entiende la idea. La resolución es esencialmente la de UHDTV según lo solicitado (en realidad es una resolución ligeramente mayor que UHDTV).
Sabemos que Pixar tardó aproximadamente dos años en procesar todos los marcos utilizando una parte de su colección de aproximadamente 2,000 servidores, con un promedio de 12 núcleos de procesador por servidor. Si el tiempo de renderizado se redujera de dos años a 104 minutos, podría ver la película en tiempo real, después de un retraso de inicio. Eso no es lo mismo que una fecha límite dura de 1/25 de segundo por fotograma porque hice trampa, permitiendo que el sistema informático acumule una cabeza de vapor para calcular los primeros fotogramas. Si no se usa el procesamiento paralelo por fotograma , puede llevar 29 horas completar el primer fotograma, ¡y luego todos se vierten en tiempo real! Así que supongamos que la iluminación global de un solo cuadro puede ser paralela (puede; lo he hecho) en lugar de usar el paralelismo más fácil de hacer que cada núcleo represente un cuadro separado.
La proporción de dos años a 104 minutos es casi exactamente de 10,000 a 1. Por lo tanto, necesitas una computadora aproximadamente 10,000 veces más potente que cualquier parte de la granja de servidores de Pixar que se usó para hacer la Universidad de Monsters . Supongamos que dedican la mitad de los servidores que poseen a la tarea, las 24 horas del día, o 1,000 servidores. Luego, para calcular la película en tiempo real, se necesitarían 10,000 veces 1,000 = 10 millones de servidores de la misma velocidad que los que usaron en 2013. Costarían alrededor de $ 50 mil millones, que es aproximadamente el ingreso anual de Intel. Los servidores se han vuelto un poco más rápidos desde 2013, pero en realidad no tanto; La ley de Moore se ha desacelerado últimamente.
Si desea hablar sobre la velocidad en términos tradicionales como operaciones de punto flotante por segundo (flops / s), y si suponemos que el servidor Pixar promedio era de 600 gigaflops / s en doble precisión en 2013, hmm … 600 mil millones de flops / s multiplicado por 10 millones de servidores es …
6 exaflops / s .
Eso es aproximadamente 100 veces más rápido que los clústeres de supercomputadoras que podemos construir hoy en día.