La respuesta a esta pregunta es muy matemática en realidad. La idea es aplicar la Ley de los grandes números que básicamente dice que si repite una cantidad muy grande de veces un experimento que tiene un resultado aleatorio, el promedio de sus resultados siempre tenderá al valor esperado de su experimento.
En otras palabras, los resultados más altos que el promedio compensan los resultados más bajos que el promedio si espera lo suficiente. Por ejemplo, la estática en una radio como esta es el resultado de interferencias aleatorias, pero parece muy regular.
Ahora, tenemos una gran cantidad de electrones en una computadora, y su comportamiento es principalmente aleatorio, pero también un poco impulsado por las condiciones físicas (como diferencias de potencial, etc.). Sin embargo, dado que hay tantos, la parte aleatoria se promedia y desaparece por completo a nivel macroscópico: lo único que queda es lo que es impulsado por las condiciones físicas, lo que hace que el sistema sea muy predecible.
- ¿Es verdad que los científicos chinos han construido la primera computadora cuántica que es más rápida que ENIAC?
- ¿Hay alguna muestra que pueda hacernos entender fácilmente la potencia de la computación cuántica?
- Recientemente leí que el túnel cuántico (es decir, a través de una barrera) actúa instantáneamente. ¿Podría haber alguna aplicación macroscópica para esto en el futuro, como la teletransportación o la informática?
- ¿La computación cuántica afectará a la minería de bitcoin?
- Computadoras: ¿Es binario obsoleto para los estándares actuales?
Tratar de comprender un sistema físico calculando lo que sucede a nivel microscópico y luego alejándose es la base de la física estadística, y este enfoque ayudó mucho en el campo de la termodinámica, por ejemplo.