Por qué el ordenador “cuántico” D-Wave Two no es cuántico

Dibujo20130827 D-Wave Quantum Computers

Lo he dicho en varias ocasiones en este blog, pero conviene repetirlo. Un ordenador montado a base de conectar 512 cubits (bits cuánticos) superconductores no es un ordenador cuántico. Para serlo además debe demostrar que durante su operación estos cubits están entrelazados entre sí; si no lo están, estos cubits se comportan como bits probabilísticos y es un ordenador clásico no determinista sin paralelismo cuántico. La compañía canadiense D-Wave no ha demostrado que su ordenador D-Wave Two con 512 cubits sea un ordenador cuántico, por tanto es un ordenador clásico no determinista. Esta hipótesis queda confirmada al analizar con ojos críticos los resultados de D-Wave Two que han sido publicados por la propia compañía. Más aún, ni siquiera es un ordenador de propósito general, capaz de ejecutar un algoritmo no determinista arbitrario; se trata de un ordenador de propósito específico que ejecuta un único algoritmo, el recocido cuántico, la versión con cubits del recocido simulado (simulated annealing). Esta entrada viene a colación por el artículo de Jesse Dunietz, “Quantum Computing Disentangled: A Look behind the D-Wave Buzz,” Scientific American, Aug 27, 2013.

Dibujo20130827 Geordie Rose - near the nucleus of a D-Wave Quantum Computers

El físico canadiense Geordie Rose fundó la compañía D-Wave en 1999 con el objetivo de desarrollar el primer ordenador cuántico comercial. Su idea era desarrollar un ordenador cuántico de propósito general (capaz de ejecutar cualquier algoritmo cuántico) basado en puertas lógicas cuánticas implementadas con cubits superconductores. En 2003 decidió que era imposible luchar contra la decoherencia (quizás no conocía el dicho “lo hizo porque no sabía que era imposible”) y cambió su objetivo, desarrollar un ordenador cuántico adiabático (AQC) de propósito general. En esta tecnología no es necesario que todos los cubits estén en un estado de superposición durante toda la ejecución del algoritmo, basta que haya subconjuntos grandes de cubits en superposición, aunque no importa que vayan fluctuando de forma aleatoria. A priori parece que un AQC permite luchar contra la decoherencia, sin embargo es necesario que haya intersecciones no nulas entre los subconjuntos de cubits en superposición durante la ejecución del algoritmo. Sin este requisito y sin subconjuntos “grandes” en superposición, no se puede obtener un AQC de propósito general.

En 2007, a bombo y platillo, la compañía D-Wave anunció su primer ordenador cuántico comercial, Orion, con 16 cubits. La rueda de prensa mostró que Orion era capaz de resolver un Sudoku y otros problemas similares, pero no demostró que fuera un AQC. Los expertos en computación cuántica adiabática mostraron serias dudas, pues D-Wave no demostró que sus cubits formaran estados de superposición durante la ejecución de sus algoritmos. Según estos expertos, lo poco que se dijo sobre su diseño era suficiente para afirmar que la tecnología de D-Wave no era capaz de lograr estados de superposición de cubits.

La hoja de ruta de D-Wave en 2007 mostraba que su objetivo era obtener un ordenador de 1024 cubits en 2012. Un objetivo muy optimista, quizás. D-Wave logró el objetivo de su rueda de prensa y recabó financiación a fondo perdido (de empresas como Google). Sin embargo, su objetivo inicial se les ha resistido. En 2011 anunció un ordenador de 128 cubits llamado Rainier, luego cambiado a D-Wave One (que fue comprado por la empresa Lockheed Martin, quizás por pura cuestión de marketing) y en 2013 ha anunciado un ordenador de 512 cubits llamado D-Wave Two (que fue comprado en mayo por el nuevo Laboratorio de Inteligencia Artificial Cuántica, consorcio de Google y NASA, de nuevo por pura cuestión de marketing).

Los investigadores de la compañía D-Wave han publicado varios artículos en prestigiosas revistas de investigación (como Nature, Physical Review Letters, etc.). Estos artículos no han demostrado que los ordenadores de D-Wave sean ordenadores cuánticos adiabáticos de propósito general, todo lo contrario. Conforme ha pasado el tiempo los expertos han podido descubrir que se trata de ordenadores de propósito específico que implementan un solo algoritmo, el recocido cuántico. Este algoritmo no es un algoritmo cuántico en sentido estricto, ya que no requiere estados de superposición “grandes” de los cubits y por tanto no aprovecha el paralelismo cuántico (responsable del speedup cuántico respecto a un ordenador clásico).

La opinión actual de los expertos es que D-Wave Two es un ordenador clásico no determinista que utiliza cubits superconductores como probits (bits probabilísticos). Por tanto, su implementación del recocido cuántico no es más eficiente que una implementación en un ordenador clásico, aunque quizás es más fiel, pues implementar un probit utilizando un cubit es mucho mejor que usando un generador de números aleatorios.

Este año ha sido noticia un artículo de D-Wave que afirma que D-Wave Two resuelve un Sudoku mediante recocido cuántico 3600 veces más rápido que un ordenador clásico. Sin embargo, el anuncio tiene trampa. Se comparó el resultado de D-Wave Two con una implementación clásica usando un software comercial de optimización de propósito general adaptado a resolver un Sudoku. La adaptación usada (disponible en la web) era bastante mala y unas semanas más tarde unos informáticos publicaron una versión mejorada que era sólo 14 veces más lenta que D-Wave Two. Un software comercial para la resolución de Sudokus puede ganar a D-Wave Two sin ningún problema en tu ordenador personal como un Ferrari le gana a una Vespa en una autopista. Geordie Rose dice que esta comparación no es justa y que hay que comparar el mismo algoritmo en su ordenador “cuántico” y en un PC. Sólo en dicho caso las decenas de millones de dólares que cuesta su ordenador “cuántico” son capaces de vencer a un PC de mil dólares.

Lo importante es que el análisis en detalle de los resultados publicados este año sobre el rendimiento de D-Wave Two no deja duda a los expertos. No se trata de un ordenador cuántico, sino de un ordenador clásico. El speedup cuántico es exponencial y se puede diferenciar del speedup clásico logrado mejorando un algoritmo que es polinómico; los resultados no dejan lugar a dudas, el speedup demostrado por D-Wave Two no es cuántico.

¿Algún día D-Wave será capaz de fabricar un ordenador cuántico adiabático? Nadie lo sabe. Tras 10 años de investigación y desarrollo han logrado fabricar ordenadores cuánticos adiabáticos de cuatro cubits (cuyo funcionamiento correcto ha sido publicado en revistas de gran prestigio), pero cablear estas unidades de proceso para formar un ordenador de 512 cubits no garantiza que el resultado final también lo sea. De hecho, ni siquiera han demostrado ser capaces de cablear dos unidades de cuatro cubits para formar un AQC de ocho cubits. Muchos expertos creen que el trabajo técnico de los investigadores de D-Wave es muy interesante y que hay que separarlo de los anuncios propagandísticos con objeto de recabar fondos privados para su financiación.

En resumen, D-Wave no está fabricando ordenadores cuánticos adiabáticos de propósito general, sino implementaciones hardware del algoritmo de recocido cuántico basadas en cubits superconductores como probits. Que te den gato por liebre no está mal, si te gusta comer carne de gato.

20 pensamientos en “Por qué el ordenador “cuántico” D-Wave Two no es cuántico

  1. simulated annealing: (Dejo en claro que debemos sincronizar las palabras por nuestra cuenta intelectual y perseguir la publicación de lo deducido a fácil entre cada acto) Sería recomended simulated… No necesitamos tanto en nuestro computador, es solo una broma para ti entre otros… jajaja… nuestro computador supera lo que puede abarcar espacio pero no en lo que puede controlarnos… necesitamos mejor, mejoras en nuestro intelecto en ser más allá de lo que nos oprime y más allá de lo exacto sin eliminar nuestra exactitud por lo bajo que podamos estarnos…

  2. ¿Qué vendrá antes? Opciones: ¿El ordenador cuántico?¿La fusión nuclear comercial?¿Las primeras evidencias sólidas de física más allá del Modelo Estándar en el LHC a través de una partícula no predicha por el propio SM?¿La detección de materia oscura directa?¿Una teoría de gravedad cuántica consistente?¿Una teoría de campo unificada consistente? ¿Medición del carácter de Majorana o Dirac del neutrino? ¿El hallazgo de una exotierra? ¿El hallazgo de la primera exoluna? Si tenéis más, también podéis poner o adjuntar la vuestra. Da para un post tipo encuesta…Jejejejeje…

    • Muy bueno Amarashiki, siempre he pensado que si tuvieras / dedicaras más tiempo a escribir, todos disfrutaríamos mucho más

    • amarashiki a que te refieres con exotierra, porque si es sólo por el tamaño, densidad y en la zona habitable es sumamente esperable que sea eso. Luego si pides también que tenga una composición atmosférica similar (de forma tal que la presión y el efecto invernadero permita mantener agua líquida en su superficie), que tenga abundante agua líquida, que su estrella sea clase G, que tenga una cantidad de años suficiente para aumentar la probabilidad de vida, etc., es bastante mas difícil no sólo porque seguramente son mas escasos sino porque nuestra tecnología aún no está al alcance para poder resolverlo.
      Creo que si es el primero, yo apunto por eso y si es el segundo caso por la exoluna (es mas, aumento la apuesta, creo que los dos se lograrán en las próximas dos décadas)

      Tal vez se podría agregar a la lista el viaje tripulado a marte, si te parece.

      Un saludo!

      • ExoTierra (a mi entender): planeta con un radio de 1 más o menos 0.1 el radio Terrestre, atmósfera de similar composición en nitrógeno y oxígeno, densidad similar, con al menos un 50% de agua en superficie (en la tierra es de 75%), y una distancia a su estrella o estrellas similar de forma que la temperatura media también sea similar a la nuestra. Un exoplaneta con sólo densidad y tamaño al nuestro está realmente muy cerca, así que eso…

        Sobre el viaje a Marte o la base lunar, pienso que están aún lejos, en parte porque una base lunar o el propio viaje a Marte requieren el uso de energía nuclear (sea fisión o fusión) si queremos que sea de ida y vuelta, más una protección radiológica importante. También es no desdeñable el asunto de la microgravedad. Por eso, para mí, como teórico, sería muy importante comprender la gravedad cuántica. Si pudiéramos crear pequeños campos gravitacionales localmente de valor más próximo a G, uno de los problemas para la habitabilidad de las bases humanas en la luna, Marte o incluso Titán (o Europa) estaría solucionado. Pero eso es sólo un sueño mío (podéis decir crackpot si os apetece). Otra problemática es, suponiendo que podemos viajar los suficientemente rápido, el problema de la radiación cósmica prolongada durante la misión (excluso la opción de enviar gente sin retorno aunque posiblemente candidatos haya en todo el mundo) y la protección del vehículo frente a impactos de meteoritos o micrometeoritos durante el viaje.

        De todas formas, yo espero ver al hombre volver a la Luna y pisar el suelo marciano, aunque quizás tardemos más que lo que algunos tratan de vender como “inminente”.

      • Me imaginaba que era el segundo caso ;). Bueno entonces como dije, me decanto primero por la exoluna.

        Coincido en que será necesario desarrollar la energía nuclear en el espacio, para poder alimentar motores nucleares térmicos o eléctricos (iónicos o de plasma, alguien dijo VASIMR), por su alto impulso específico. Pero tampoco es inimaginable una misión con propergol tradicional, ahí está marte directo por ejemplo. Sobre la radiación espacial, ciertamente como demostró MSL es algo preocupante pero creo que se podrá solucionar con un sistema híbrido, pasivo (básicamente un buen blindaje) y activo (con campos eléctricos y o magnéticos). Y el tema de la menor gravedad se podría solucionar de forma mas clásica ;D con un sistema rotatorio que genere fuerza centrifuga, aunque parece mas interesante el tema de manipular la gravedad je. Realmente piensas que hay alguna posibilidad que una teoría cuántica de la gravedad proporcione algún camino técnico para manipularla, algo así como hoy día se hace con el electromagnetismo?? y si es así, piensas que se podría manipular lo suficiente para hacer posible por ejemplo el Warp Drive o los agujeros de gusano transitables?? y ya nos fuimos un poco de tema.

    • Amarashiki, ya hay ordenadores cuánticos en los laboratorios (de unos 10 cubits, según la tecnología). Supongo que te refieres a “un ordenador cuántico de propósito general capaz de ejecutar una máquina universal de Deutsch.” En dicho caso, no creo que lo haya durante el s. XXI (me permito ser pesimista, pero también realista); sólo creo que logremos fabricar ordenadores cuánticos de propósito específico especializados en la simulación de sistemas cuánticos.

      • Sí. Efectivamente me refería a eso. Yo espero en mi tiempo de vida alguna revolución en este terreno que lo haga posible… O bien, que se pruebe que hay dinámica no lineal subcuántica clásica y que tal máquina universal de Deutsch es imposible. Sin embargo, esto último resulta mucho más implausible en el actual state-of-art del campo y de los fundamentos de la Física.

      • Amarashiki, si hay una dinámica no lineal subcuántica clásica “razonable” entonces la máquina universal de Deutsch además de existir es capaz de resolver problemas NP-completos en tiempo polinomial (luego implica NP=P) [fuente http://arxiv.org/abs/quant-ph/9801041 ].

      • Hola
        me puede explicar que es una dinámica no lineal subcuántica clásica “razonable” y porque esto implica que np=p?

      • Juan, en el artículo de Lloyd se utiliza la mecánica cuántica no lineal de Steven Weinberg (1989) que está considerada bastante “razonable” por la mayoría de los expertos en este campo; la idea básica es que la función de onda tiene una realidad física, que su evolución está gobernada por una ecuación no lineal de Schrödinger y que el potencial no lineal es no local; a estas condiciones les llamo “razonables” porque son compatibles con la mecánica cuántica actual (por supuesto, los experimentos no han observado ningún efecto no lineal y han puesto límites muy fuertes a las posibles correcciones no lineales).

        ¿Por qué implica NP=P? Esto es más difícil de explicar y lo mejor que te puedo decir es traducir lo que viene en el artículo, así que te recomiendo leer el artículo original. Pero si te atreves a leer una frase lapidaria: Básicamente porque la no localidad de la no linealidad implica la existencia de procesos “reales” que de forma simultánea implica un número exponencial de procesos; estos procesos “reales” deberían ser accesibles si la función de onda no lineal es “real” y se podrían utilizar como oráculo no lineal de un algoritmo cuántico convencional.

    • Es aún mucho más que eso, Ces. Una predicción de Q.E.D., parte del Modelo Estándar, y aún no verificada, es el llamado efecto Schwinger, o producción de partículas reales en campos eléctricos (o electromagnéticos en general) muy fuertes. Es un fenómeno inherentemente no perturbativo y se está buscando con ahinco. Las últimas propuestas tras resultados negativos aún con láseres pulsados y modulados es buscar un sistema bidimensional como el grafeno, aunque no estoy muy actualizado de cómo van los estudios al respecto. El problema el campo crítico para lograr el efecto Schwinger es muy grande y no parece fácil alcanzarlo en sistemas usuales. Me gusta bastante el tema, pero lo de los fotones virtuales que se materializan se ha sacado un poco de tono. Es más espectacular incluso el efecto Casimir dinámico que se comprobó experimentalmente hace poco también.

  3. Scott Aaronson dijo sobre D-Wave algo que me preocupo bastante. En su blog dijo que el peligro de esta empresa puede ser mayor incluso que el sólo hecho de ¿estafar? a algunos inversionistas, ya que si todo esto termina siendo una GRAN decepción tal vez termine afectando al financiamiento de todo el campo de la computación cuántica en general, sólo porque podría generar la sensación que todo el campo falló y que en definitiva están persiguiendo un imposible. Tal vez es un poco melodramático, pero la posibilidad está latente.

    • Me olvidaba, y citó como ejemplo el campo de la inteligencia artificial en los 70s.

  4. Francis, pones arriba que ya hay ordenadores cuánticos en laboratorio hasta con 10 qubits.
    ¿Cuáles? ¿Puedes poner algún enlace para leer un poco sobre esos ordenadores cuánticos que ya existen en laboratorio?
    Ya sabes que mi opinión es que al final todas son máquinas deterministas con algún generador aleatorio embebido, al estilo de lo que piensas del D-wave (que ya me olía a chamusquina hace tiempo). Me gustaría saber hasta qué punto estoy equivocado o no.
    Graciaaas.

    • Roberto, busca en Google Scholar, hay decenas de artículos que presentan ordenadores cuánticos con entre 2 y 15 cubits con diferentes tecnologías. Ponerte un listado de decenas de enlaces no tiene sentido y no voy a perder el tiempo en ello, lo siento. Si eres capaz de entender alguno de esos artículos, te será muy fácil buscarlos (algunos son muy famosos pues han sido citados cientos de veces). Por ejemplo, busca implementaciones del algoritmo de Shor.

      • Sinceramente, no creo que los entienda. Te preguntaba por si conoces algo a nivel didáctico que enseñe cómo funcionan estos cacharros. Me interesa más el plano técnico que el teórico, aunque supongo que se solaparán.

      • Roberto, ahora mismo no son cacharros. O bien están implementados en una mesa óptica (y son una serie de láseres, divisores de haz, polarímetros, lentes, etc.) o bien están implementados en tecnología de estado sólido (y son una serie de circuitos superconductores, SQUIDs o similares, conectados de una forma ingeniosa). Que yo sepa no hay ningún libro que cuente estos resultados de los últimos 13 años en forma divulgativa y no técnica. Los que hay no cuentan nada y se centran en la computación cuántica en abstracto, o son muy técnicos y están centrados en una tecnología concreta.

Los comentarios están cerrados.