¿Qué límites físicos estamos cerca de alcanzar?

Longitud de la puerta de medio paso de los transistores

El bloque de construcción de un núcleo de procesador es un transistor. Es un dispositivo semiconductor generalmente con 3 o 4 terminales (fuente, compuerta, drenaje y cuerpo o sustrato). Actúan como interruptores para la salida de valor bajo o alto (0 o 1). Usando transistores hacemos compuerta lógica, con compuertas lógicas hacemos funciones más complejas (unidad lógica aritmética, unidad de control). Una combinación de estas funciones hace que el procesador completo (junto con otros objetos periféricos como los cables de interconexión).

Volviendo a los transistores, hay un parámetro muy importante asociado con ellos, la longitud de la puerta de medio tono.

Fuente: posibilidades de reducción

Por lo tanto, es básicamente la mitad de la distancia entre los contactos a través de un transistor. Si ve la tabla en el lado derecho de esta página, Plantilla: Procesos de fabricación de semiconductores, encontrará la velocidad a la que ha disminuido el tono medio en las últimas décadas. El problema ahora es que hemos golpeado un Muro de Poder.

El consumo de energía en un transistor puede ocurrir de dos maneras:

1. El consumo dinámico de energía ocurre cuando la conmutación del transistor se realiza entre alto y bajo. Por lo tanto, cuando un transistor se utiliza activamente para la lógica, la potencia de conmutación que se consume es la potencia dinámica.

2. El consumo de energía estática se produce debido a la corriente de fuga entre la fuente y los terminales de drenaje, incluso cuando no se realiza ninguna conmutación. Esto es una pérdida de energía totalmente derrochadora.

El problema que enfrentamos al reducir la longitud del paso es que la corriente de fuga aumenta con la disminución de la longitud de la puerta de medio paso. Se está acercando a la mitad del consumo total de energía.

Podemos aumentar la densidad del transistor en el chip, pero el porcentaje de chip que podemos usar activamente a la vez se ha reducido drásticamente. Actualmente es inferior al 5% (3,3% para ITRS de 32 nm). Esto tiene en cuenta que la potencia total que tenemos para el consumo es fija.

Fuente: núcleos de conservación y mis propios cálculos.

Es posible que haya observado que la frecuencia de los transistores que se utilizan en sus computadoras portátiles personales no ha aumentado meteóricamente como lo hizo hace unos años y en su lugar ha habido un cambio para aumentar el número de núcleos. A pesar de que la tecnología detrás de los transistores ha mejorado rápidamente. La pared de poder es la razón detrás de esto.

Una gran cantidad de empresas ya han bajado a 22 nanómetros. ¿Cuánto más pueden llegar sin inventar un cambio de paradigma en la forma en que se diseñan los procesadores, en la forma en que se escriben las aplicaciones? ¿Computación más paralela, menos secuencial? Tal vez. ¿Qué más?

Se puede encontrar una respuesta en informática de alto rendimiento .

Aquí en Oak Ridge National Lab tenemos la supercomputadora Titan, actualmente (mayo de 2013) la más rápida del mundo. Tiene 18,688 nodos, cada nodo que consiste en una GPU Nvidia Tesla y 16 procesadores AMD. Este monstruo tiene 710 TB de memoria, 40 PB de almacenamiento y le costó al DOE casi $ 100 millones. Opera a una velocidad probada de 17.59 petaFLOPS, con un máximo teórico de 27 petaFLOPS (FLOPS son operaciones de punto flotante por segundo).

¿Entonces, cuál es el problema? Esta supercomputadora toma 8,2 MW de potencia. Es una computadora de escala de petas (que usa FLOPS como unidades de medida). El siguiente nivel es la computación exascale, que será aproximadamente 1000 veces más rápido que el Titán. La cantidad proyectada de energía necesaria para una computadora de escala exasiana que usa la misma arquitectura de Titán sería de alrededor de 144 MW (cifras dadas en una entrevista con Jack Dongarra que no puedo encontrar en este momento). Esta es la misma escala de potencia de salida que un reactor de fisión nuclear de tamaño decente.

Algo relacionado con el problema de energía es el problema de comunicación. Los nodos informáticos deben poder comunicarse entre sí. No puede escalar la supercomputadora de forma indefinida sin tener esto en cuenta. No podemos tener una red totalmente conectada, que sería increíblemente costosa (y en la práctica nunca se considera, pero si se menciona su integridad), por lo que tratamos de encontrar un equilibrio entre los costos de equipos y materiales con los costos de comunicación. Ya existen varias topologías, como torii 3D (u otro tipo de mallas), árboles, autobuses, anillos, y cada uno tiene sus ventajas y desventajas. El hardware de red es otra cosa a tener en cuenta. InfiniBand es una tecnología relativamente nueva que permite una comunicación de muy alto rendimiento y baja latencia, y eso es lo que los clústeres y supercomputadores más serios usan ahora. También habrá que hacer más avances tecnológicos en ese frente.

Otra forma de aliviar un poco el problema de comunicación es ser más inteligente con sus algoritmos. Uno de mis colegas está trabajando en lo que se llama el problema de colocación de tareas o asignación de tareas. Básicamente, tienes una grilla computacional gigante que se usa para modelar algo, como una galaxia, universo, río, motor a reacción o algo así. Su problema es asignar cada celda de esta cuadrícula a un nodo de cálculo. Estas células necesitan comunicarse con sus vecinos. ¿Cómo asigna estas tareas para minimizar el costo de comunicación? Ahora tenga en cuenta que es más complicado que eso solo porque también tiene que programar trabajos (constantemente recibe solicitudes de tiempo de cómputo, por lo que debe averiguar sobre la marcha quién puede ir cuando), y puede tener algunas cosas raras configuración de procesadores disponibles en ese momento porque también se están ejecutando otros trabajos. Así que tienes que ser muy inteligente al respecto. Existe un interés significativo en minimizar la comunicación para los algoritmos de álgebra lineal numérica (consulte James Demmel en Berkeley y el trabajo de su grupo / estudiantes). Reducir la comunicación es esencial porque cuanto menos tiempo pases comunicándote, más rápido será tu simulación y más simulaciones podrás ejecutar (cálculo más útil por unidad de potencia). Puede preguntar si los problemas de ubicación y programación de tareas son difíciles. Son tan difíciles que son NP-hard de hecho, pero aún podemos obtener soluciones decentes con heurística (y podría ser posible hacer esto con una computadora cuántica … trabajando en eso ahora, así que mándame un mensaje en unos meses si eres realmente curioso 🙂).

La huella es otro problema sobre el que quieres tomar en serio. Echa un vistazo al Titán:
Imagina que x1000, y probablemente un poco más porque ciertamente no escalará lo mismo. Se están introduciendo GPU como Nvidia Teslas porque son de baja potencia pero de alta densidad. Son pequeños chips que simplemente conectas al rack de tu servidor y pueden tener cientos (que pronto serán miles) de pequeños núcleos. Si su problema es altamente paralelo, estará muy contento con esto. Entonces, si puede cambiar un rack de servidores por un pequeño chip GPU, eso es un gran problema.

Hay otras cosas con las que lidiar que son más técnicas, como el almacenamiento en caché óptimo específicamente para HPC, la organización de la memoria (más memorias jerárquicas), ese tipo de cosas. Si alguien puede comentar más al respecto, me complacería incluirlo en esta respuesta.

En caso de que se pregunte por qué debería preocuparse por la supercomputación en primer lugar, consulte mi respuesta aquí: Computación de alto rendimiento: ¿Vale la pena que los gobiernos inviertan cientos de millones de dólares en el desarrollo de supercomputadoras de vanguardia?

Pregunta fascinante Aquí hay dos candidatos para límites físicos que parece que estamos muy cerca de alcanzar:

1) Los límites de la tabla periódica de elementos.


Tenemos 7 períodos completos de elementos en la tabla periódica, y hay candidatos hipotéticos para los elementos del período 8 y 9. Pero se necesitaron esfuerzos extraordinarios por parte de los científicos del Instituto Conjunto de Investigación Nuclear utilizando tecnología de punta para sintetizar ununoctium, el último elemento en el período 7, e incluso luego se descompuso en cuestión de milisegundos. Los intentos de sintetizar elementos del período 8 han fallado hasta ahora, y mucho menos el período 9, y no hay evidencia de que algo de esta masa atómica ocurra realmente en la naturaleza. Existen varias ideas sobre dónde podría terminar la tabla periódica, que van desde z = 126 a z = infinito, pero en ausencia de fuentes de energía más intensas de las que están disponibles actualmente, estamos muy cerca o al punto de golpear. El límite de lo que podemos sintetizar utilizando la tecnología actual.

2) Los límites del universo observable


El campo profundo extremo del Hubble nos mostró objetos que tienen 13.200 millones de años, desde la época en que se formaron las galaxias por primera vez. La galaxia más antigua en el Campo Profundo del Hubble, UDFj-39546284, tenía un valor de desplazamiento al rojo de aproximadamente 10 a 12. El telescopio espacial James Webb, que todavía está en construcción, tiene como objetivo mirar aún más atrás para detectar objetos con valores de desplazamiento al rojo de 15 arriba a 30, lo que nos llevaría de vuelta a la formación de las primeras estrellas.


(fuente: James Webb vs Hubble)

Si el telescopio espacial James Webb puede alcanzar esta profundidad, nos acercará al punto en la historia del universo en el que los electrones se unen por primera vez con protones, liberando fotones para moverse a través del espacio sin ser tragados de inmediato por el plasma, creando así ligero. En otras palabras, nos estamos acercando de manera lenta pero segura a la observación del universo hasta el punto en que se originó la luz, que es un límite bastante difícil y rápido dado que la mayor parte de nuestra tecnología de observación espacial se basa en imágenes de energía fotónica. Webb no nos llevará hasta allí, pero nos estamos acercando rápidamente al límite de lo que podemos observar en el universo con la tecnología actual. Observar el universo más allá de este punto implicaría una tecnología que por el momento solo es especulativa.

Estamos cruzando un límite interesante en Internet, a pesar de que no es un límite “físico”.
El número de dispositivos directamente direccionables (computadoras, enrutadores, impresoras de red, etc.) en Internet está limitado por el número de bits en la dirección utilizada. La dirección IP utilizada actualmente es un número de 32 bits, lo que permite solo 4.294 mil millones de direcciones (2 ^ 32). Aunque el número es enorme, sigue siendo un conjunto finito.

Cuando escribe “www.google.com” en su navegador, eventualmente se traduce a uno de estos números de 32 bits, para ubicar los servidores físicos de Google. Al momento de escribir esto, (una de) la dirección numérica traducida para “www.google.com” es “74.125.239.80”. También puede intentar escribir directamente esta dirección numérica en su navegador.

Con el crecimiento explosivo de Internet, este agotamiento de direcciones [agotamiento de direcciones IPv4] es un problema conocido. La solución es el nuevo esquema de direccionamiento llamado IPv6.

Entonces, si bien Internet está llegando a sus límites, ya se ha abordado (¡juego de palabras!)

Es una pregunta interesante. Una palabra para describir los límites de la Física es que no tiene límites.

El poder y la naturaleza de la física pueden ir más allá de la imaginación y las expectativas de las mentes humanas.

Me gustaría enlistar algunas de las cosas ilimitadas a las que estamos cerca de llegar.

  • Haciendo que la raza humana viva la vida en múltiples planetas. Ahora esto parece bastante absurdo hace unos 50 años, pero sí, este sueño perdido hace mucho tiempo que está tomando forma de alguna manera. La imaginación de una persona llamada Elon Musk y su compañía SpaceX, está haciendo un valioso esfuerzo, en el que podemos evacuar la tierra y vivir y hacer nuestra futura generación en Marte (oh, algunos permanecerán en la tierra también). Lo interesante será crear la atmósfera terrestre, la vegetación que es adecuada para las condiciones humanas en Marte es lo que todos esperamos y tratamos. Es como crear cúpulas de gases de efecto invernadero y ciertos otros aspectos que también se deben buscar para ese propósito. Veamos si podemos sacar esa cosa, tal vez algún día escribiré mi respuesta desde Marte 😀 😀.

“Fue hermoso nacer en la Tierra, será muy hermoso morir en Marte” -Elon Musk

(Además, también estoy trabajando para este tipo de objetivo, ¡sí! Lo escuchaste bien, estoy tratando de lograr el punto mencionado también)

  • ¿Antes del universo? Esto siempre me fascina, ¿por qué estamos aquí si estamos aquí? Lo que era antes del Big Bang. La física todavía está encontrando las respuestas, aunque tenemos ciertas teorías para ello, pero no nos hemos posicionado para asegurarnos de la existencia de algo antes del Universo. Responderemos esta pregunta en un futuro próximo con optimismo.
  • Límite en la tabla periódica : tenemos 7 períodos completos de elementos en la tabla periódica, y hay candidatos hipotéticos para elementos del período 8 y del período 9. Los intentos de sintetizar elementos del período 8 han fallado hasta ahora, y mucho menos el período 9, y no hay evidencia de que algo de esta masa atómica en realidad ocurre en la naturaleza.
  • Límite de Shannon: en la conexión inalámbrica y con cable estamos muy cerca del límite de velocidad de datos. O, para ser más precisos, cerca del límite de eficiencia espectral (bps / Hz). Las velocidades de datos crecientes que vemos con “5G” logran esto al tener más espectro (bps altos por más Hz, pero bps / Hz no está aumentando) ) o por MIMO de orden superior (más “canales” de más antenas, pero la velocidad en un canal no está aumentando).

Hay muchas, pero limito mi respuesta a las cosas importantes aquí.

(En realidad, mientras escribía esta respuesta, me preguntaba, si podemos atrapar la energía del sol en la Tierra, ¿cómo puede hacerlo la Física? Como … La energía de la Física atrapada en mi palma, bueno, es solo mi estúpida Imaginación. Dr, Otto Octavius ​​de Spiderman hizo eso 😀: D)

Gracias por el A2A Ishita 🙂 (no te aburras)

Hadayat Seddiqi, tiene una muy buena respuesta. También me gustaría señalar la pregunta de Matthew Barnard sobre actualizaciones y etc.


Hay algunas consideraciones interesantes en relación con el diseño actual del clúster que deben tenerse en cuenta. Ese es el hecho de que están utilizando componentes básicos en gran escala. (El producto aquí * no * significa barato, compra potencialmente disponible también en el mercado comercial general). Un ejemplo de la dificultad de simplemente actualizar un sistema de múltiples nodos a gran escala es la escala simple en volumen de los componentes que deben intercambiarse y reemplazos intercambiados. Hace que la actualización en el lugar con unidades de GPU más rápidas o más básicas sea terriblemente costosa y lenta. Por lo tanto, generalmente no se hace y una *** nueva *** computadora se intercambia en su totalidad.


Bien, dicho eso, hay otro punto divertido. Una persona (con un buen presupuesto) puede crear una PC de un solo nodo con componentes más rápidos que muchas de las Supercomputadoras Top500 que existen. No es barato, sino como un ejemplo. Mira al titán:


Fabricante: Cray Inc.

Núcleos: 560,640

Rendimiento Linpack (Rmax) 17,590 TFlop / s

Pico teórico (Rpeak) 27,112.5 TFlop / s

Potencia: 8,209.00 kW

Memoria: 710,144 GB

Procesador: Opteron 6274 16C 2.2GHz

Interconexión: interconexión Cray Gemini

Sistema operativo: entorno Cray Linux


Es esa CPU: con suficiente efectivo, puede comprar una versión aún más rápida (AMD Opteron 6378 Abu Dhabi 2.4 GHz 16 MB L2 Cache 16MB L3 Cache Socket G34 115W Server Processor).

Y, luego, esas GPU: una vez más, puede obtener una versión aún más rápida (tarjeta gráfica NVIDIA Tesla K40 – 1 GPU – núcleo de 745 MHz – 12 GB GDDR5 SDRAM 900-22081-2250-000) o (Nvidia Tesla K80 24 GB GPU Accelerator pasivo enfriamiento 2x Kepler GK210 900-22080-0000-000)!


Por lo tanto, puede tener efectivamente una buena PC de un nodo que supere a los nodos en el Titán. … ¿Por qué usar el Titán? Por la interconexión.


Otro punto final divertido: ¡tampoco necesitarás una estación de energía nuclear para ejecutarla! ¡Y pensar que ejecutará Ubuntu! Qué buena oferta.


¡Disfrutar!


Editar: Y si estás interesado en el Tihane-2. Lo mismo se puede hacer para una PC de un nodo. ¡Y ambos ejecutarán Kylin Linux! … ¡Qué divertido!

La cantidad de carga eléctrica almacenada en las celdas de memoria flash DRAM y NAND actuales es del orden de 10 electrones. El final de la escala de la memoria se ha pronosticado prematuramente muchas veces, pero es una buena apuesta que este valor no caerá en otros 10x.

Temperaturas de cero absoluto (Kelvin): el récord mundial actual está en los cientos de picokelvinas, que es solo una décima parte de una milmillonésima de grado, muy cerca del límite imposible de cero.

La densidad con la que los datos se pueden grabar en discos magnéticos. Si los bits son demasiado pequeños / cercanos, comienzan a interferir entre sí. Si se utilizan diferentes materiales para reducir este efecto, eso tiende a afectar la velocidad (especialmente para escrituras). Se han desarrollado varias soluciones alternativas: grabación magnética perpendicular y asistida por calor, medios con patrones de bits, pero básicamente no hay tecnología en el horizonte que parezca probable que aumente la densidad mucho más. Nos quedan cambios en los métodos de grabación (p. Ej., Unidades de disco) o un cambio a tipos de medios fundamentalmente diferentes.

Bien podemos estar acercándonos a los límites físicos del “espacio operativo seguro” para explotar los recursos de nuestro planeta sin sufrir consecuencias peligrosas. Estos límites, conocidos como límites planetarios, incluyen límites para la eliminación de nitrógeno de la atmósfera, la liberación de fósforo a los océanos y las concentraciones atmosféricas de dióxido de carbono. Existe cierto debate sobre exactamente dónde están los límites y cuáles serán las consecuencias. Puedes leer más aquí: Límites planetarios.

Temperatura cero absoluta.

Ningún objeto en el universo puede ser más frío que el cero absoluto. es decir, 0 Kelvin, o -273.15 grados Celsius.

Los científicos ya pueden crear temperaturas tan bajas como -273.144 grados Celsius. En 2014, los científicos italianos lograron enfriar una placa de cobre casi hasta el cero absoluto.

El límite de Shannon.

Tanto en la conexión inalámbrica como en la con cable estamos muy cerca del límite de velocidad de datos.

O, para ser más precisos, cerca del límite de eficiencia espectral (bps / Hz).

Las tasas de datos crecientes que vemos con LTE, LTE-A, 802.11ac y las pruebas para “5G” logran esto al tener más espectro (alto bps por más Hz, pero bps / Hz no está aumentando) o por MIMO de orden superior ( más “canales” de más antenas, pero la velocidad en un canal no está aumentando).

Markov se concentra en dos temas que ve en la medida de lo posible: vitalidad y correspondencia. El problema de la utilización de la fuerza se origina en la forma en que la medida de vitalidad utilizada por la innovación de circuitos existente no se reduce de una manera que corresponde a sus mediciones físicas de contratación. La consecuencia esencial de este problema ha sido que se ha hecho un gran esfuerzo para garantizar que las partes del chip se cierren cuando no se usen. Sea como fuere, al ritmo que está sucediendo, la parte dominante de un chip debe mantenerse inactiva en cualquier momento dado, lo que Markov llama “silicio opaco”.

Motores de combustión interna.
Estamos cerca del final de la cantidad de energía termodinámica que podemos extraer de un proceso de combustión interna, cualquier cambio en los materiales y otras técnicas solo pueden proporcionar una ganancia marginal en el rendimiento a partir de ahora.

Sospecho que el mundo real funciona al revés. La gente que hace cosas “reales” se topa con un nuevo truco y luego la gente de la teoría pasa unos años poniéndose al día. Intente buscar ideas de teoría viables para superconductores de alta temperatura y luego observe el rango de fechas para cuando comenzamos a encontrarlos. Incluso Newton apareció después de que Kepler logró ajustar las leyes empíricas a las observaciones astronómicas.

La creación motiva a nuestros modelos mucho mejor que nosotros.

Si habla de la eficiencia computacional tradicional, definitivamente estamos cerca del final de la ley de la curva de rendimientos decrecientes. Sin embargo, las posibilidades con la computación cuántica son sorprendentes: apenas estamos comenzando a arañar la superficie de lo que es posible. Si tuviéramos el avance, estamos esperando que toda la encriptación de la computadora actual y la seguridad se vuelvan obsoletas durante la noche. Hay excelentes artículos y videos sobre computación cuántica, realmente es una forma muy diferente de pensar.

En ciertas ciudades ricas y densas como Manhattan o Austin TX durante SXSW, los límites físicos a veces afectan la cantidad de señal que puede viajar desde teléfonos inteligentes, GPS de mano, etc. a su destino.