La siguiente es una respuesta resumida de muy alto nivel.
Un bit cuántico puede tener un número infinito de estados, cada uno de los cuales se puede expresar como una combinación lineal de dos estados básicos, convencionalmente llamados | 0> y | 1>. En otras palabras, cada estado es igual a algún coeficiente ‘a’ veces | 0> más otro coeficiente ‘b’ veces | 1>, donde ‘a’ y ‘b’ son números complejos. Los cuadrados de las magnitudes de ‘a’ y ‘b’ dan la probabilidad de medir | 0> y | 1>, respectivamente.
Un conjunto de N qubits requiere 2 ^ N de coeficientes tan complejos para describir su estado. Esto se puede entender por analogía: un bit normal puede tener 2 valores (0 o 1), mientras que un solo qubit necesita un coeficiente complejo para cada posibilidad. Del mismo modo, un conjunto de N bits puede tener 2 ^ N valores diferentes, y cada posibilidad necesita un coeficiente complejo, cuya magnitud al cuadrado da la probabilidad de medir esa secuencia de bits particular dado un estado cuántico particular de los qubits.
- ¿En qué áreas de la informática debería centrarme si quiero trabajar en la computación cuántica?
- ¿Cuál es una explicación simple de la criptografía cuántica?
- ¿Qué consejo le daría un profesor de física a un graduado de último año: para investigar durante un año en computación cuántica o para asistir a un programa de maestría en física?
- ¿AI / ML se beneficia de la computación cuántica? Si es así, ¿qué algoritmos?
- ¿Es la conciencia realmente un estado de la materia? ¿Cómo se explica en términos de mecánica de física cuántica?
El poder de la computación cuántica sobre la computación clásica proviene del hecho de que, presumiblemente, el universo está realizando cálculos sobre estos valores complejos en el fondo, a medida que manipulamos los elementos físicos que componen los qubits (por ejemplo, fotones, iones, etc.). Si pudiéramos establecer estos coeficientes complejos en algunos valores iniciales, y luego realizar el conjunto correcto de operaciones en los N bits, ¡podríamos leer un cálculo que acaba de funcionar en 2 ^ N números complejos de una vez!
Desafortunadamente, no podemos extraer directamente los valores complejos porque, en cierto sentido, están ocultos dentro de la implementación del universo. Cuando realizamos una medición en el conjunto de bits, solo obtenemos N bits de información (muy lejos de 2 ^ N números complejos). Afortunadamente, la gente ha descubierto algunas formas de solucionar esto.
Un ejemplo famoso es el algoritmo de Shor, que es capaz de factorizar grandes números en sus factores primos (es decir, romper la criptografía moderna) en tiempo polinómico, mientras que las computadoras clásicas requieren un tiempo exponencial para hacer lo mismo. A un nivel extremadamente alto, la forma en que esto funciona es que primero cargue sus N qubits con un valor inicial especialmente seleccionado. Luego realiza algunas operaciones en los qubits para modificar su estado (los coeficientes complejos de 2 ^ N) en uno que tenga un patrón especial basado en el número que desea factorizar.
Este patrón especial de coeficientes le daría la respuesta, si solo pudiera leer todos los coeficientes, lo cual, como ya hemos señalado, es imposible. Pero recuerde, estos coeficientes determinan la probabilidad de que ocurra cada posible secuencia de bits cuando mide los qubits. Eso nos permite hacer un enfoque estadístico para adivinar cuáles son los coeficientes.
Puede realizar algunas operaciones adicionales para configurar los coeficientes de modo que, cuando mida los N qubits, colapsen (un resultado que puede usar para calcular) un múltiplo de la respuesta correcta (uno de los factores primos) con un cierta probabilidad Si luego repite todo el cálculo varias veces, puede encontrar el máximo común denominador de los valores que ha recibido y usarlo para encontrar el factor primo.
Todavía hay alguna probabilidad de que haya recibido valores engañosos que le dan la respuesta incorrecta, pero puede calcular la probabilidad de error dada la cantidad de veces que la repite y continuar repitiéndola hasta que la probabilidad de error sea aceptablemente baja.