Tengo que decir que hay aspectos de la mecánica cuántica que se ven de esa manera, pero los expertos en el campo no parecen muy convencidos por eso.
Veo dos argumentos de las leyes de la física:
Hipótesis de simulación PRO:
- ¿Es realmente posible una Internet cuántica?
- ¿El borrador cuántico invierte su paso del tiempo para borrar información, o la eliminación de información es instantánea debido al enredo cuántico?
- Recientemente leí que el túnel cuántico (es decir, a través de una barrera) actúa instantáneamente. ¿Podría haber alguna aplicación macroscópica para esto en el futuro, como la teletransportación o la informática?
- ¿Qué tan bueno es el programa USEQIP en la Universidad de Waterloo y qué factores se buscan en el solicitante?
- ¿Cuál es la matriz de densidad en mecánica cuántica?
- El universo está “cuantizado” en las escalas más pequeñas, que es exactamente lo que esperarías de una computadora con números de precisión finita que representan cosas como posiciones, masas, energías, etc.
- La imprevisibilidad de bajo nivel de la teoría cuántica podría ser consecuencia de algún tipo de errores de redondeo en las unidades de almacenamiento aritmético de precisión finita y ‘fragmentado’ de la simulación.
- El hecho de que tengamos un límite de velocidad cósmica (la velocidad de la luz) es muy conveniente para las simulaciones. Le permitiría tener latencias bastante severas entre computadoras que calculan diferentes partes del universo y aún así mantener las cosas funcionando constantemente. En los sistemas que realmente hacen esto (muchos juegos MMO de “mundo abierto”, por ejemplo), debe hacer suposiciones sobre la velocidad máxima que la información puede atravesar el universo simulado para limitar las comunicaciones entre computadoras en la red. Un juego en el que trabajé (un juego de combate de la Segunda Guerra Mundial) utilizaba “fichas” de 1 km con una computadora que ejecuta cada ficha. La red pasaba datos de una computadora a otra cuando algo cruzaba un límite de mosaico … pero no había ningún mecanismo para que un objeto que se movía rápidamente cruzara más de un límite en un paso de 1/60 de segundo. Entonces, cualquier cosa que se mueva más rápido que 1/60 de kilómetro por segundo podría romper el software … pero para este tipo de juegos, 60,000 metros / segundo (¡que es 130,000 mph!) Es mucho, mucho más rápido que balas o cohetes o lo que sea. Entonces, nuestro límite de velocidad cósmica (como el de nuestro universo) no fue insoportablemente lento.
- La expansión del universo (que da como resultado que haya un “universo observable” de tamaño finito incrustado en un “universo real” más grande) es muy conveniente como una forma de limitar el tamaño de la simulación sin introducir “bordes” arbitrarios o desordenar Los cálculos para objetos muy distantes.
- El origen del “Big Bang” para el universo es realmente ideal para una simulación. Limita la extensión del tiempo. Simular un universo que estaba en estado estable sería realmente difícil porque necesitarías inicializar la simulación en un estado creíble … ¡lo que es imposible si estás ejecutando la simulación para descubrir cómo resultará! El Big Bang es el punto de partida perfecto. Se debe inyectar muy poca información en la simulación, y al iniciar el tiempo de ejecución en el instante del Big Bang se evita tener que tener una historia pasada infinitamente larga.
Hipótesis ANTI-simulación:
- El concepto de superposición (gato de Schrodinger, etc.) no parece algo que un programador quiera implementar. Supongo que tal vez podría ver esto como una consecuencia de las técnicas de “evaluación perezosa” mal implementadas, pero no parece probable.
- El hecho de que haya una aleatoriedad verdadera en las escalas más pequeñas no concuerda completamente con la hipótesis del “error de redondeo” porque no es consistente. Incluso si el error de redondeo (o alguna causa similar) resultara en “El principio de incertidumbre”, sería coherente. Los experimentos idénticos aún producirían resultados idénticos … pero quizás no estamos viendo todas las variables aquí.
- La forma en que la relatividad se mete con las escalas de tiempo de los objetos que se mueven rápidamente realmente parece ser algo que sería difícil de implementar en una simulación. La mayoría de las simulaciones por computadora utilizan pasos de tiempo fijos (“tiempo cuantificado”), y eso no es posible con relojes que funcionan a diferentes velocidades para cada observador.
- Hacer simulaciones a nivel de partículas subatómicas requeriría una computadora grande e impía … mucho, mucho más grande que nuestro universo … y con una velocidad incomparablemente grande en comparación con nuestras mejores computadoras. Quizás aunque el “mundo real” (en el que se encuentra la computadora que ejecuta nuestro universo) no tiene un límite de velocidad de la luz, lo que permitiría construir allí computadoras increíblemente grandes / rápidas.
- Casi todas nuestras simulaciones usan una ‘cuadrícula’ X / Y / Z para almacenar posiciones e indicar direcciones de rotación y movimiento. Este hecho está generalmente tan bien oculto que nadie lo notará en nuestros juegos. Pero si (por ejemplo) analizó la velocidad máxima de varios automóviles en Grand Theft Auto cuando conducían hacia el norte, o a 45 grados con respecto al sistema de coordenadas (noreste, por ejemplo), notará ligeras diferencias en el cantidad de incertidumbre posicional cuando se mueve a 45 grados con respecto a la cuadrícula versus paralelo a la cuadrícula. Puede que no sea mucho, pero lo verías con experimentos suficientemente cuidadosos. Las personas han buscado este tipo de efectos de “anisotropía” a nivel cuántico y NO lo han visto.
Entonces, realmente no lo sabemos. Parece que algunos aspectos de las leyes de la física son EXACTAMENTE los tipos de cosas que haría un programador; otros parecen ser muy desagradables, A diferencia de lo que alguna vez consideraríamos hacer.
No lo sabemos