¿Los fenómenos cuánticos obligarán a las nuevas teorías de la computación a ser probabilísticas?

No. La teoría de la computabilidad está bastante avanzada, y no creo que sea probable que cambie.

Está en algún lugar entre las matemáticas (en el sentido de que no requiere que se presente la realidad física, sigue las reglas de la lógica) y la física (en que no puede ser diferente; en contraste con la mayoría de las matemáticas en las que podemos elegir los axiomas y obtener una variedad de sistemas axiomáticos con diferentes propiedades).

Eso es un poco difícil de entender.

La teoría de la computabilidad en informática estudia qué problemas pueden y no pueden calcularse. El problema de la detención, que pregunta, “¿podríamos escribir un programa que pueda decirnos de manera confiable si un programa arbitrario dado se detendría o se ejecutaría para siempre?” Resultó ser incuestionable. (Si hubiera un programa así, podríamos usarlo para construir una contradicción). Si proponemos un modelo de computación más poderoso que pueda resolver el problema de detención, entonces sufrirá su propio problema de detención, lo que requeriría un modelo aún más poderoso modelo. Y cada modelo sufrirá su propia limitación de esa manera.

El otro desarrollo fascinante en informática es la teoría de la complejidad computacional, que estudia los recursos necesarios para resolver un tipo de problema, o con determinados tipos de recursos. Las computadoras cuánticas resuelven problemas en la clase de complejidad BQP (tiempo polinómico cuántico de error acotado), lo que significa que generan un problema con alguna posibilidad de tener la razón. Ejecutarlos repetidamente aumenta la probabilidad de que obtenga la respuesta correcta. También hay clases de complejidad probabilística para las computadoras clásicas, (la aleatoriedad) se puede ver como un tipo de recurso, como el tiempo y el espacio (y el entrelazamiento cuántico y las superposiciones y la interferencia también se pueden ver como recursos).

Creo que el teorema central de la informática es la tesis de Church-Turing, y no puedo recordar exactamente más, pero creo que incluir la computación cuántica conduce a la tesis extendida de Church-Turing. Pero puede pensar en los fenómenos cuánticos como un recurso más que permite que ciertos tipos de problemas sean más factibles.

Es posible que disfrute viendo el Complejo Zoo, un proyecto que Scott Aarson comenzó a realizar un seguimiento de la increíble diversidad de clases de complejidad que los científicos informáticos han explorado en la teoría de la complejidad computacional. ¿O su ensayo Quién puede nombrar el número más grande? que analiza algunos aspectos interesantes de la computabilidad. También hay un gran poema, Scooping the Loop Snooper , que es una prueba de la indisputabilidad del problema de detención.

Esta es una pregunta bastante difícil de responder.

Primero distingamos entre varios modelos de computación. Son:

Clásica (determinista) : una computadora clásica y determinista (¡no se permite la mecánica cuántica!) Siempre produce el mismo resultado con la misma entrada.

Clásica (probabilística) : ¡Todavía no se permite la mecánica cuántica! Una computadora probabilística puede realizar diferentes operaciones con cierta probabilidad. Esto puede mejorar el tiempo de ejecución de los cálculos en relación con una computadora determinista, pero las respuestas correctas a menudo solo se producen con cierta probabilidad. Es importante destacar que una máquina probabilística aún puede realizar operaciones deterministas

Cuántico: Aprovecha los fenómenos cuánticos en sus cálculos. Confusamente, este modelo puede hacer cálculos que se basan en la probabilidad o no.

Ahora, si tu pregunta es …

¿Los fenómenos cuánticos cambiarán lo que creemos que es computable?

… la respuesta es no, como dijo Cody Reisdorf. La base de la teoría de la computabilidad es la tesis de Church-Turing. Establece que cualquier cálculo realizado por cualquier computadora también puede hacerse por una máquina de Turing determinista (una computadora extremadamente poco atractiva y simple que hace cálculos imprimiendo sellos en trozos de cinta). Por lo tanto, el conjunto de cálculos que puede realizar cualquier computadora es el mismo.

La tesis, sin embargo, no dice nada sobre la cantidad de tiempo o memoria (cinta) necesaria para replicar el cálculo, lo que nos lleva a la siguiente pregunta:

¿Los fenómenos cuánticos cambiarán lo que pensamos que es eficientemente computable?

Absolutamente De hecho, ya lo ha hecho. Esta pregunta ha llevado a variantes de la tesis de Church-Turing que investigan cuánto tiempo y memoria necesitaría para replicar cálculos probabilísticos o cuánticos en una máquina de Turing normal. Los resultados son realmente interesantes:

Es increíblemente fácil simular eficientemente cálculos clásicos probabilísticos o deterministas usando una computadora cuántica. Sin embargo, ir hacia el otro lado es casi imposible. Una computadora determinista ya tiene dificultades para mantenerse al día con una máquina probabilística (en cálculos particulares). Para un cierto conjunto de problemas, las computadoras cuánticas hacen cálculos exponencialmente más rápidos que los otros modelos de computación; para problemas suficientemente complejos, toda la potencia informática en la Tierra tardaría una eternidad en resolver un problema que podría llevar una simple computadora cuántica unas pocas semanas.

La teoría cuántica se puede dividir en dos teorías; Mecánica cuántica y teoría cuántica de campos (QFT). Mecánica Cuántica (Teoría de Partículas de Electro Dinámica Cuántica AKA) que abarca una dualidad partícula / onda que permite que los cuantos tengan atributos probabilísticos. Fenómenos a los que Einstein se refirió como “espeluznantes”, un lugar donde ‘Dios juega a los dados’ en palabras de Einsteins.
La computación cuántica se basa en cuantos probabilísticos que la mayoría de los físicos adoptan, pero esta visión pierde credibilidad.