El 23 de octubre de 2019, Google publicó un artículo en Nature que sacudió el mundo de la computación. Su procesador cuántico Sycamore, con 53 qubits, había completado en 200 segundos un cálculo que, según Google, tomaría 10.000 años en el supercomputador clásico más potente del planeta. El titular fue inmediato: Google había alcanzado la supremacía cuántica. IBM respondió al día siguiente argumentando que su supercomputador Summit podría hacer el mismo cálculo en 2,5 días con las técnicas correctas. La guerra de relaciones públicas cuánticas había comenzado.
Pero más allá del ruido mediático, algo genuinamente extraordinario estaba ocurriendo. Por primera vez en la historia, una máquina que opera según las leyes de la mecánica cuántica había demostrado una ventaja computacional sobre cualquier máquina clásica para un problema específico. Era el equivalente cuántico del vuelo de los hermanos Wright en Kitty Hawk: un logro técnico modesto en términos prácticos, pero una prueba de concepto que cambió para siempre lo que se creía posible.
En 2025, la computación cuántica ha avanzado desde esos primeros 53 qubits hasta sistemas de más de 1.000 qubits. IBM tiene su procesador Condor con 1.121 qubits. Google trabaja en chips de nueva generación. Microsoft apuesta por una arquitectura radicalmente diferente basada en qubits topológicos. Y startups como IonQ, Quantinuum y PsiQuantum están construyendo máquinas cuánticas con tecnologías completamente distintas. La pregunta ya no es si la computación cuántica funcionará — es cuándo será prácticamente útil y quién llegará primero.
Por Qué los Qubits Son Radicalmente Diferentes
Para entender la computación cuántica, hay que abandonar la intuición clásica. Un bit clásico es un interruptor: está encendido (1) o apagado (0). Un qubit puede estar en una superposición de 0 y 1 simultáneamente — no en el sentido de que "no sabemos cuál es", sino en el sentido físico real de que es ambos a la vez, con amplitudes de probabilidad que pueden interferir entre sí como ondas.
Dos qubits en superposición pueden representar los cuatro estados posibles (00, 01, 10, 11) simultáneamente. Tres qubits representan ocho estados. Cincuenta qubits representan más de un cuatrillón de estados al mismo tiempo. Un computador cuántico no "prueba todas las respuestas en paralelo" — esa es una simplificación engañosa — sino que manipula las amplitudes de probabilidad de todos esos estados simultáneamente, usando interferencia cuántica para amplificar las respuestas correctas y cancelar las incorrectas.
El segundo principio fundamental es el entrelazamiento cuántico: dos qubits entrelazados forman un sistema único donde el estado de uno determina instantáneamente el estado del otro, independientemente de la distancia física. Einstein llamó a esto "acción fantasmal a distancia" y lo consideró una prueba de que la mecánica cuántica era incompleta. Los experimentos de Bell en los años 80 demostraron que Einstein estaba equivocado — el entrelazamiento es real y es un recurso computacional que no tiene equivalente clásico.
El Problema de la Decoherencia: Por Qué Es Tan Difícil
Si los qubits son tan poderosos, ¿por qué no tenemos ya computadores cuánticos en cada escritorio? La respuesta es la decoherencia cuántica. Los estados cuánticos son extraordinariamente frágiles. Cualquier interacción con el entorno — una vibración, un fotón de luz, un campo electromagnético mínimo — puede "colapsar" la superposición y destruir el cálculo. Los qubits superconductores de IBM y Google deben operar a temperaturas de 15 milikelvin — más fríos que el espacio exterior, más fríos que cualquier lugar natural del universo conocido.
El tiempo que un qubit puede mantener su estado cuántico antes de decoherirse se llama tiempo de coherencia. En los mejores sistemas actuales, este tiempo es de microsegundos a milisegundos. Un cálculo cuántico complejo puede requerir millones de operaciones. Si el qubit se decohere a mitad del cálculo, el resultado es basura.
La solución es la corrección de errores cuánticos (QEC). La idea es usar múltiples qubits físicos para codificar un único qubit lógico — un qubit que es tolerante a errores. El problema es que la QEC es extremadamente costosa: los mejores esquemas actuales requieren entre 1.000 y 10.000 qubits físicos por cada qubit lógico. Esto significa que para tener 100 qubits lógicos útiles, se necesitan entre 100.000 y 1.000.000 de qubits físicos. Nadie tiene eso todavía.
Las Cuatro Tecnologías en Competencia
No existe una única forma de construir un qubit, y las diferentes tecnologías tienen ventajas y desventajas radicalmente distintas. Esta diversidad de enfoques es uno de los aspectos más fascinantes — y más inciertos — del campo.
Los qubits superconductores son la tecnología líder hoy. IBM, Google y Rigetti los usan. Son circuitos de metal superconductor que se comportan como átomos artificiales a temperaturas criogénicas. Su ventaja es que pueden fabricarse con técnicas de semiconductores estándar y son relativamente rápidos. Su desventaja es que requieren refrigeración extrema y tienen tiempos de coherencia cortos.
Los iones atrapados son la tecnología de IonQ y Quantinuum. Átomos individuales ionizados se suspenden en el vacío mediante campos electromagnéticos y se manipulan con láseres. Tienen tiempos de coherencia mucho más largos que los superconductores y tasas de error más bajas, pero son más lentos y más difíciles de escalar. Quantinuum afirma tener los qubits de mayor fidelidad del mundo.
Los qubits fotónicos usan fotones individuales de luz como qubits. PsiQuantum, una startup de Silicon Valley con más de 700 millones de dólares de financiación, apuesta por esta tecnología. Los fotones no se decoherentan fácilmente y pueden operar a temperatura ambiente, pero las operaciones entre fotones son probabilísticas y difíciles de implementar.
Los qubits topológicos son la apuesta más radical. Microsoft lleva más de una década desarrollando qubits basados en fermiones de Majorana — partículas cuánticas que son su propio antipartícula y que, en teoría, son inherentemente resistentes a la decoherencia. En 2023, Microsoft anunció la primera evidencia experimental de estados topológicos en un dispositivo semiconductor. Si funcionan como se promete, los qubits topológicos podrían requerir órdenes de magnitud menos corrección de errores que las otras tecnologías.
| TECNOLOGÍA | EMPRESA LÍDER | COHERENCIA | ESCALABILIDAD | MADUREZ |
|---|---|---|---|---|
| Superconductores | IBM, Google | μs–ms | Alta | Alta |
| Iones atrapados | IonQ, Quantinuum | s–min | Media | Alta |
| Fotónicos | PsiQuantum | Alta | Muy alta | Baja |
| Topológicos | Microsoft | Teóricamente muy alta | Alta (teórica) | Muy baja |
Las Aplicaciones que Justifican los Miles de Millones
La computación cuántica no será útil para todo. No va a reemplazar el ordenador de tu escritorio para navegar por internet o escribir documentos. Pero hay clases específicas de problemas donde la ventaja cuántica podría ser transformadora.
El más citado es la simulación molecular. Las moléculas son sistemas cuánticos — sus propiedades emergen de las interacciones cuánticas entre electrones y núcleos. Simular una molécula compleja en un computador clásico requiere recursos que crecen exponencialmente con el tamaño de la molécula. Un computador cuántico podría simular moléculas de forma natural, porque opera con las mismas leyes. Las aplicaciones son enormes: diseño de nuevos fármacos, catalizadores para captura de carbono, fertilizantes más eficientes, baterías de nueva generación.
La optimización combinatoria es otra área prometedora. Problemas como la optimización de rutas logísticas, la gestión de carteras financieras, la planificación de redes eléctricas o el diseño de cadenas de suministro tienen un espacio de soluciones que crece exponencialmente. Los algoritmos cuánticos como el Quantum Approximate Optimization Algorithm (QAOA) podrían encontrar soluciones significativamente mejores que los algoritmos clásicos para estos problemas.
Y luego está la amenaza que mantiene despiertos a los directores de seguridad de todo el mundo: el algoritmo de Shor. En 1994, el matemático Peter Shor demostró que un computador cuántico suficientemente grande podría factorizar números enteros exponencialmente más rápido que cualquier algoritmo clásico conocido. El problema es que toda la criptografía de clave pública que protege internet — RSA, ECDSA, el protocolo TLS que hace seguro HTTPS — se basa en la dificultad de factorizar números grandes. Un computador cuántico con suficientes qubits lógicos podría romper toda esa criptografía.
La Amenaza Cuántica a la Criptografía: "Harvest Now, Decrypt Later"
El riesgo cuántico para la criptografía no es teórico ni lejano — es presente. Los servicios de inteligencia de múltiples países están ejecutando estrategias de "harvest now, decrypt later": recopilar ahora comunicaciones cifradas que no pueden descifrar hoy, con la expectativa de descifrarlas cuando tengan computadores cuánticos suficientemente potentes. Los documentos clasificados de hoy podrían ser legibles en 10-15 años.
La respuesta de la comunidad criptográfica es la criptografía post-cuántica (PQC). En 2022, el NIST (Instituto Nacional de Estándares y Tecnología de EE.UU.) seleccionó los primeros algoritmos criptográficos resistentes a ataques cuánticos para estandarización: CRYSTALS-Kyber para intercambio de claves y CRYSTALS-Dilithium para firmas digitales. Estos algoritmos se basan en problemas matemáticos — como encontrar vectores cortos en redes de alta dimensión — que se cree son difíciles tanto para computadores clásicos como cuánticos.
La migración a criptografía post-cuántica es una de las tareas de infraestructura más grandes que enfrenta la industria tecnológica. Google, Apple y Cloudflare ya han comenzado la transición en sus sistemas. Pero la mayoría de las organizaciones — gobiernos, bancos, infraestructura crítica — están apenas comenzando a evaluar su exposición.
El Estado Actual: ¿Dónde Estamos Realmente?
Es importante ser honesto sobre dónde está la computación cuántica en 2025. Estamos en la era de las NISQ machines (Noisy Intermediate-Scale Quantum computers): dispositivos con decenas a miles de qubits físicos, pero con tasas de error demasiado altas para la corrección de errores completa. Son suficientemente grandes para demostrar ventaja cuántica en problemas artificiales, pero no suficientemente confiables para resolver problemas prácticos de importancia comercial.
El consenso entre los expertos es que la computación cuántica con corrección de errores completa — la que podría ejecutar el algoritmo de Shor contra claves RSA reales — está a 10-20 años de distancia. Algunos optimistas dicen 5-10 años. Algunos escépticos dicen más de 20. Lo que nadie dice es "nunca".
"La computación cuántica es la tecnología más importante en la que estamos trabajando. No porque vaya a reemplazar a los computadores clásicos — no lo hará para la mayoría de las tareas. Sino porque abre una clase completamente nueva de problemas que antes eran computacionalmente intratables."
— John Preskill, físico teórico de Caltech y quien acuñó el término "supremacía cuántica"
La Carrera Geopolítica: China, EE.UU. y Europa
La computación cuántica no es solo una carrera tecnológica — es una carrera geopolítica. China ha invertido más de 15.000 millones de dólares en investigación cuántica desde 2016, incluyendo el mayor laboratorio de computación cuántica del mundo en Hefei. EE.UU. respondió con la National Quantum Initiative Act de 2018 y ha invertido miles de millones a través del DOE, DARPA y la NSF. La UE tiene su Quantum Flagship con 1.000 millones de euros.
China ha logrado avances notables en comunicaciones cuánticas: en 2020, el satélite Micius demostró distribución de claves cuánticas entre estaciones terrestres separadas por 1.120 km. En computación cuántica pura, EE.UU. mantiene la delantera en hardware, pero China está cerrando la brecha rápidamente en investigación de algoritmos y aplicaciones.
El Horizonte: Cuándo Importará
La computación cuántica llegará al mundo práctico en etapas, no de golpe. Los primeros casos de uso comercialmente relevantes probablemente serán en simulación molecular para descubrimiento de fármacos y materiales, donde incluso ventajas cuánticas modestas pueden traducirse en ahorros de miles de millones en investigación. Los bancos y fondos de inversión ya están experimentando con algoritmos cuánticos para optimización de carteras.
La amenaza a la criptografía es la que tiene el horizonte temporal más urgente — no porque los computadores cuánticos estén listos para romper RSA hoy, sino porque la migración a criptografía post-cuántica toma años y los datos robados hoy pueden descifrarse en el futuro. Las organizaciones que no han comenzado a planificar esa migración están acumulando riesgo.
Estamos en el equivalente cuántico de 1955 en la historia de la computación clásica: los primeros computadores existen, son enormes y caros, solo los grandes laboratorios tienen acceso, y la mayoría de la gente no entiende para qué sirven. En 1955, nadie predijo con precisión que en 30 años habría un computador en cada escritorio. Pero alguien que entendía la trayectoria tecnológica podía ver que algo transformador se estaba gestando.
Eso es exactamente lo que está pasando con la computación cuántica ahora mismo.
Prometheus X es el seudónimo del autor de Posibles y Futuribles. Escribe sobre las tecnologías que definirán el futuro de la humanidad desde una perspectiva científica rigurosa y accesible.


