¿Cuáles crees que serán los cuellos de botella de las computadoras cuánticas?

Parece que hemos alcanzado el cuello de botella de escalabilidad. Ese es el punto donde agregar más qubits ya no da como resultado un aumento en la capacidad de resolver problemas.

Lo que estamos tratando de hacer es construir una función de onda cuántica masiva que evolucione de acuerdo con reglas precisas. Esa es una computadora cuántica. Sin embargo, como cualquier dispositivo real, hay imperfecciones inevitables que significan que la función de onda cuántica que logramos es ligeramente diferente de la función de onda que queremos. Estos son errores cuánticos. Cuantos más qubits agregue, más errores incurrirá.

La pregunta es qué tan tolerante es una computadora cuántica a los errores y ¿puede corregirlos? La respuesta es sí, pero a un costo.

Hay dos enfoques para lidiar con los errores. Una es desarrollar arquitecturas tolerantes a fallas. El otro es desarrollar la corrección de errores cuánticos.

Las arquitecturas tolerantes a fallas es un término bastante general y puede comprender diferentes enfoques. La tolerancia a fallos de hardware es una tolerancia de qubit inherente al ruido ambiental. Si bien se puede demostrar la tolerancia a fallas de hardware, el hardware en sí mismo a menudo no es adecuado para escalar a una gran cantidad de qubits.

La opción más general es la corrección cuántica de errores, que también incluye un diseño tolerante a fallas. Esto requiere una sobrecarga de qubits adicionales, llamados ancillas. La corrección de errores cuánticos impone una sobrecarga que ocupa los qubits disponibles. Por lo tanto, el número real de qubits físicos puede ser mucho mayor que el número de qubits lógicos utilizables. La gran pregunta es, entonces, ¿cómo escalará realmente una computadora cuántica con un número creciente de qubits? Más importante aún, ¿cómo se escala el número de qubits lógicos con el número de qubits físicos?

Este es un cuello de botella de escala potencial.

La sobrecarga de corrección de errores se puede minimizar si las puertas lógicas cuánticas subyacentes operan con muy alta fidelidad. Esto es algo que debe ser probado y cuantificado.

Los esquemas de corrección de errores se pueden mejorar para reducir la sobrecarga. Esta es un área que ha tenido un gran progreso durante la última década y ha llevado el concepto de computación cuántica escalable de ser considerado improbable a ahora bastante posible. El hecho de que ahora hay grandes empresas que invierten en el desarrollo de computadoras cuánticas es un indicador de que la corrección de errores ya no se ve como un obstáculo para el espectáculo.

A medida que IBM ponga en línea su máquina de 50 qubits, será interesante ver cuántos qubits lógicos se pueden realizar.

En general, la inversión comercial en computación cuántica debería verse como una señal de que una arquitectura cuántica escalable ahora se considera al menos factible.

Velocidad.

El cálculo cuántico requiere un procesamiento reversible, y los procesos reversibles se ejecutan lentamente. Tan lentamente que las computadoras cuánticas no pueden superar a las computadoras clásicas. Completan sus tareas con menos pasos pero tardan más en ejecutarlas.

La parte donde tienen que mostrar la información. Tan pronto como tienen que leer la información, todo el proceso se ralentiza.