Artículo de información

José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez

10 de marzo del 2025

Los ordenadores que usamos diariamente procesan información mediante bits, que solo pueden ser 0 o 1 en cada momento. En contraste, los ordenadores basados en principios de física avanzada pueden usar bits especiales (llamados cúbits) capaces de ser 0 y 1 simultáneamente. Esta propiedad, junto con la capacidad de estos bits para conectarse entre sí de formas imposibles en la física cotidiana, permite teóricamente resolver ciertos problemas mucho más rápido que las computadoras convencionales. Empresas como IBM, Google, Microsoft e Intel han aumentado considerablemente sus inversiones en esta tecnología durante la última década, convirtiéndola en un campo de investigación altamente competitivo y prometedor a nivel mundial.

El potencial de esta nueva forma de computación va más allá del ámbito científico, proyectándose como una tecnología revolucionaria para diversos sectores. Entre sus aplicaciones más prometedoras están la optimización de rutas de transporte, el diseño de nuevos medicamentos mediante simulaciones moleculares, la mejora de sistemas de inteligencia artificial, y la capacidad para descifrar sistemas de seguridad basados en códigos numéricos complejos. Sin embargo, a pesar de los avances logrados, estos nuevos ordenadores enfrentan importantes desafíos que limitan su uso práctico: son extremadamente sensibles a perturbaciones externas, presentan altos índices de error en sus cálculos, y requieren condiciones casi perfectas (temperaturas cercanas al cero absoluto) para funcionar correctamente. El desarrollo de sistemas prácticos, escalables y comercialmente viables sigue siendo un proceso complejo que necesita innovaciones tanto en hardware como en los programas que aprovechen sus capacidades únicas.

Orígenes y cómo funciona

La idea de estos ordenadores avanzados surgió en los años 80, cuando los científicos Richard Feynman y Yuri Manin propusieron que máquinas basadas en principios de física subatómica podrían simular fenómenos naturales de forma mucho más eficiente. Plantearon esta solución porque descubrieron una limitación fundamental: para simular el comportamiento de apenas 300 partículas, un ordenador convencional necesitaría más memoria que el número de partículas en todo el universo. El avance decisivo llegó en 1994, cuando Peter Shor desarrolló un método matemático que podría descomponer números grandes en sus factores mucho más rápido que cualquier ordenador tradicional, demostrando potencial para superar los sistemas de seguridad digital actuales (Julián, 2018).

Esta tecnología se basa en dos propiedades fundamentales del mundo subatómico: la superposición y el entrelazamiento. La superposición permite que un bit especial (cúbit) represente múltiples posibilidades a la vez, superando la limitación binaria de los bits tradicionales. El entrelazamiento establece conexiones entre estos bits especiales, permitiendo que cambios en uno afecten instantáneamente a otro, incluso a grandes distancias. Estas propiedades son esenciales para el funcionamiento de estos ordenadores avanzados, pero también los hacen extremadamente vulnerables a interferencias del entorno, causando errores y pérdida de información. Controlar esta fragilidad representa uno de los mayores desafíos técnicos del campo (Editor, 2025)

Avances tecnológicos recientes

Para construir estos ordenadores avanzados, los científicos necesitan cumplir cinco requisitos esenciales: capacidad para incorporar muchos bits especiales, poder establecerlos en estados iniciales conocidos, mantenerlos estables el tiempo suficiente, realizar todas las operaciones necesarias, y medirlos con precisión. Estos requisitos han impulsado diferentes enfoques técnicos, como circuitos superconductores (usados por IBM y Google), partículas cargadas atrapadas (IonQ) y sistemas basados en luz (Xanadu). Un momento crucial ocurrió en 2019, cuando Google anunció haber construido un procesador de 53 bits especiales capaz de resolver en minutos un problema que supuestamente tomaría miles de años a los superordenadores tradicionales, aunque IBM posteriormente cuestionó esta afirmación (Editor, 2025)

Recientemente, en diciembre de 2024, Google presentó su chip «Willow», que según la empresa puede resolver en cinco minutos un problema específico que a los mejores superordenadores les tomaría millones de millones de años. Este chip incluye importantes avances en la corrección de errores, logrando mayor precisión al aumentar el número de bits especiales. La competencia por desarrollar esta tecnología ha adquirido importancia internacional, con Estados Unidos, China y la Unión Europea luchando por el liderazgo. Según informes especializados, Europa tiene la mayor concentración de talento científico en este campo, mientras Norteamérica domina el mercado con la mayoría de fabricantes principales. España participa en esta carrera mediante proyectos como CUCO y planes para instalar procesadores avanzados en Barcelona, Galicia y País Vasco (Vallance, 2024).

Usos prácticos y futuro

Las aplicaciones más prometidas a corto plazo se concentran en problemas donde estos nuevos métodos ofrecen ventajas claras. En investigación farmacéutica, permitirán simular interacciones moleculares con precisión sin precedentes. En logística, ya existen casos de éxito como el proyecto MOZART en el Puerto de Hamburgo, que optimizó el tráfico de 20.000 camiones diarios. El sector bancario explora su uso para análisis de mercados financieros y optimización de inversiones. La UNESCO ha designado 2025 como Año Internacional de esta Ciencia y Tecnología, proyectando que para 2030 se establecerá como disciplina académica, las empresas la adoptarán extensivamente y aproximadamente 5.000 ordenadores de este tipo estarán funcionando (Etxezarreta, 2025).

Los desafíos pendientes incluyen aumentar el número de bits especiales en los sistemas, reducir errores, desarrollar programas específicos e integrar eficientemente estas nuevas capacidades con la tecnología tradicional. La escasez de profesionales cualificados y la falta de estándares comunes representan obstáculos adicionales, junto con los altos costes de fabricación y operación. Sin embargo, se observan tendencias alentadoras como mejoras constantes en estabilidad, mayor inversión pública y privada, colaboración internacional creciente, desarrollo de servicios en la nube especializados y avances en técnicas para minimizar errores. Aunque los sistemas universales podrían estar a décadas de distancia, las primeras aplicaciones comerciales en áreas específicas comenzarán a aparecer en los próximos años (Banafa, 2025).

El cambio en nuestra forma de calcular

La evolución desde las propuestas teóricas de los años 80 hasta los prototipos actuales representa uno de los avances científicos más fascinantes de nuestro tiempo. Sin embargo, es importante mantener una perspectiva realista: los ordenadores avanzados actuales siguen siendo dispositivos experimentales, propensos a errores y limitados a tareas muy específicas. Como advierte el profesor Alan Woodward, debemos «no comparar manzanas con naranjas» al evaluar estos avances, pues los problemas que resuelven eficientemente suelen estar «diseñados específicamente» para ellos y no demuestran «una superioridad universal» frente a los sistemas tradicionales (Vallance, 2024).

El impacto transformador de esta tecnología se manifestará gradualmente, con aplicaciones comerciales significativas probablemente no antes de finales de esta década. Inicialmente se enfocará en simulaciones donde la física subatómica es relevante: diseño de reactores de energía de fusión, desarrollo de medicamentos y mejora de baterías. A largo plazo podría revolucionar la ciberseguridad, inteligencia artificial, logística global e investigación científica. Sin embargo, contrariamente a algunas ideas populares, estos sistemas no reemplazarán a los ordenadores convencionales sino que los complementarán en tareas específicas. Como señala Hartmut Neven de Google, esta tecnología representa un horizonte prometedor pero lejano, cuya realización completa requerirá paciencia, inversión continua y colaboración internacional en investigación básica y aplicada (Vallance, 2024).

Referencias

Banafa, A. (21 de Enero de 2025). BBVA. Obtenido de Tendencias en computación cuántica: https://www.bbva.com/es/innovacion/tendencias-en-computacion-cuantica/

Editor. (12 de Febrero de 2025). Computing. Obtenido de La computación cuántica es una tecnología en auge, algunas computadoras cuánticas funcionales ya son efectivas para resolver ciertos problemas altamente complejos: https://www.computing.es/informes/computacion-cuantica-que-es-y-como-funciona/

Etxezarreta, J. (21 de Enero de 2025). BBVA. Obtenido de Así es el mapa mundial de la computación cuántica: https://www.bbva.com/es/innovacion/asi-es-el-mapa-mundial-de-la-computacion-cuantica/

Julián, G. (27 de Febrero de 2018). Xataka. Obtenido de Computación cuántica: qué es, de dónde viene y qué ha conseguido : https://www.xataka.com/ordenadores/computacion-cuantica-que-es-de-donde-viene-y-que-ha-conseguido

Vallance, C. (11 de Diciembre de 2024). BBC. Obtenido de El revolucionario chip cuántico de Google que resuelve en 5 minutos lo que hoy tomaría 10 cuatrillones de años: https://www.bbc.com/mundo/articles/c5y4vy866eeo