XI Carnaval de la Física: El neutrino y la violación de la simetría CPT

La violación de la simetría CPT es tan improbable que parece imposible. Pero si el neutrino y el antineutrino tienen masas diferentes la simetría CPT se violaría. Solo gracias a los experimentos se puede saber si el neutrino y el antineutrino son la misma partícula (tipo Majorana) o diferentes (tipo Dirac) y, en este último caso, si tienen la misma masa o diferente. La violación de la simetría CPT sería aún más importante que la violación de la simetría P o de la paridad. Hoy la vemos como algo “normal” en la fuerza débil pero en su momento fue tan revolucionaria como el descubrimiento de la antimateria. Hasta el genial Martin Gardner escribió un libro sobre ella, titulado “Izquierda y Derecha en el Cosmos.” El físico I. S. Tsukerman nos resume en un interesante artículo todo lo que sabe sobre la violación de la simetría CPT y la física de los neutrinos (“CPT invariance and neutrino physics,” ArXiv, 24 Jun 2010).

Esta entrada es mi segunda contribución al XI Carnaval de la Física organizado por Germán Fernández, autor del blog El neutrino. Hace ya bastantes años, cuando se descubrió que el neutrino tenía masa, impartí una conferencia divulgativa sobe el descubrimiento y desde entonces algunos amigos me pusieron el “mote cariñoso” de “el neutrino.” Tras la charla la gran pregunta de muchos de ellos era ¿qué es un neutrino? Ellos no sabían qué es un electrón y descubrir que el protón era una partícula elemental “compuesta” les resultó muy chocante. Más chocante fue saber que ni “el neutrino” sabía qué es un neutrino. Sigo sin saberlo. Sigo sin saber qué es una partícula elemental. Por cierto, sobre las propiedades del neutrino hay muchas fuentes, por ejemplo, Carlo Giunti, Alexander Studenikin, “Neutrino electromagnetic properties,” Phys. Atom. Nucl. 72: 2089-2125, 2009 [ArXiv, 18 Dec 2008]

El neutrino es una partícula elemental fascinante, objeto de intensas investigaciones tanto experimentales como teóricas. El neutrino nació en el intento de W. Pauli en 1930 de explicar el espectro continuo de energía en la desintegración nuclear tipo beta, con objeto de salvar la ley de conservación de la energía. Hoy en día, cualquier nueva partícula se descubre gracias a la misma idea. El neutrino es parte fundamental de la teoría de las interacciones débiles de E. Fermi (1934), de la no conservación de la paridad de T.D. Lee y C.N. Yang (1956), del modelo V−A para interacciones débiles locales de R. Feynman y M. Gell-Mann (1958) y, por supuesto, de la teoría electrodébil de Glashow-Weinberg-Salam en el modelo estándar de la física de las partículas elementales. ¿Qué sabemos sobre los neutrinos? Mucho, muchísimo, demasiado para poder resumirlo todo en esta entrada. Pero quizás sea más interesante conocer ¿qué es lo que no sabemos sobre los neutrinos?

En la teoría de Glashow, Weinberg y Salam de los 1960, los neutrinos no tenían masa debido a que la evidencia experimental proponía como límite superior para su masa más de 6 órdenes de magnitud por debajo de la masa del electrón. Un neutrino sin masa era la opción más simple para su teoría. Pero en 1998, el experimento japonés Super-Kamiokande descubrió la primera evidencia de que los neutrinos tienen masa. Dicha evidencia ha sido ratificado por muchos otros experimentos en la última docena de años. Hay tres tipos de neutrinos (pues se conocen tres familias o “sabores” de partículas elementales) llamados electrónico, νe, muónico, νμ, y tauónico, ντ. Si los neutrinos tienen masa no nula pueden cambiar de identidad, pueden cambiar de “sabor” ya que las funciones de onda cuánticas observables de los tres neutrinos, sean me, mμ y mτ, son una mezcla (combinación lineal) de tres funciones de onda con masa no observables, sean m1, m2 y m3. O al revés, ya que la matriz que mezcla los sabores es invertible. La figura de arriba muestra por ejemplo que el estado m1 es una combinación de los tres estados observables (colores rojo, verde y azul). La oscilación de (la identidad de) los neutrinos nos permite calcular la diferencia entre sus masas pero no su valor absoluto. En la actualidad hay dos opciones posibles, mostradas en la figura de arriba. El estado masivo m3 puede tener una masa inferior al estado m1 o superior al estado m2. Solo los experimentos podrán decidir cuál es la opción correcta: si los estados masivos de los neutrinos están ordenados de forma normal o invertida (también habrá que determinar los valores de los coeficientes de la matriz de masas de los neutrinos).

La teoría matemática para el neutrino en el modelo estándar extendido (con neutrinos masivos) permite dos opciones posibles. Como el neutrino es una partícula neutra, podría ser idéntico a su antipartícula (teoría de Majorana) o diferente a ella (teoría de Dirac). La manera más sencilla de distinguir estas dos posibilidades es gracias a la desintegración beta doble sin neutrinos. En la desintegración beta doble un átomo radioactivo se desintegra en un átomo dos unidades de carga menor emitiendo dos electrones. Si el neutrino es una partícula de Dirac es obligatorio que esta desintegración venga acompaña de la emisión de dos antineutrinos (electrónicos). Sin embargo, si el neutrino es una partícula de Majorana y el antineutrino y el neutrino son la misma partícula, podría ocurrir esta desintegración sin emisión de ningún neutrino. Este tipo de desintegración es muy rara y aunque hay varios experimentos en curso estudiando este asunto, todavía no se sabe si el neutrino es igual a su antipartícula.

La simetría CPT es una simetría muy general de casi cualquier teoría cuántica de campos invariante Lorentz (compatible con la relatividad especial) en la que los campos y los conmutadores de los campos son invariantes Lorentz. El teorema suele estar asociado a Pauli, Lüders y Schwinger. La conjugación de carga C corresponde a la invarianza de la teoría cuando se cambian partículas por antipartículas. La paridad P corresponde a la invarianza cuando se reflejan las coordenadas espaciales en un espejo y la invarianza temporal T es cuando se cambia la dirección de la flecha del tiempo. Si una teoría cuántica de campos es invariante CPT entonces automáticamente la masa de las partículas es idéntica a la masa de las antipartículas. Hay que recordar que una teoría que no sea invariante CPT no significa que no sea invariante Lorentz, podría ocurrir que los campos fueran invariantes Lorentz, pero los conmutadores de los campos no lo fueran, es decir, que habría violaciones de la causalidad cuánticas, aunque podría ocurrir que no fueran observables gracias al principio de incertidumbre.

Si el neutrino fuera una partícula de Dirac y la antipartícula del neutrino tuviera una masa diferente (aunque podría ser muy parecida) a del neutrino, la física de los neutrinos violaría la invarianza CPT. Si el neutrino fuera una partícula de Majorana es más complicado (pero posible) incorporar una violación de la simetría CPT (aunque por lo que dice Tsurkerman me parece menos razonable este caso). ¿Qué límites experimentales existen sobre la violación de la simetría CPT en la teoría electrodébil? El límite más restrictivo es la diferencia de masas entre el kaón neutrino K^0 y su antipartícula \overline{K^0} que se estima en 18 órdenes de magnitud (en unidades relativas). Sin embargo, Tsukerman argumenta en su artículo que este dato podría estar mal interpretado, ya que alude a la violación de la simetría CPT par, pero en el caso de violación CPT impar, el límite actual no supera los 4 órdenes de magnitud. Ahí es donde Tsukerman cree que se puede esconder la violación CPT en la física de los neutrinosque podría haber escapado a detección hasta el momento. En el sector leptónico, la diferencia de masas entre el electrón y el positrón se estima en al menos 12 órdenes de magnitud relativos.

Los experimentos que estudian en detalle la oscilación de los neutrinos han sido capaces de poner límites a la posible violación de la simetría CPT en los neutrinos. Por ejemplo, se sabe que las diferencias de masas entre el neutrino y el antineutrino cumplen que |Δm3| < 1’9 × 10–4 eV y que 7’5 × 10–3  < Δ(mν)² < 5’5 × 10–3 eV. Los mejores límites actuales sobre la posible violación de la simetría CPT en el sector de los neutrinos, es decir, la posibilidad de que la masa del neutrino y del antineutrino sean diferentes nos los resume la siguiente figura (extraída del artículo de M.C. Gonzalez-Garcia, Michele Maltoni, “Phenomenology with Massive Neutrinos,” Phys. Rep. 460: 1-129, 2008 [gratis en ArXiv]). En la figura los contornos corresponden a a las regiones permitidas al 90%, 95%, 99% y 3σ C.L. En esta figura se ha supuesto que el orden de los estados de masa de los neutrinos y los antineutrinos es el mismo (u orden normal u orden invertido). Caso de que el orden fuera diferente entre ambos, los límites serían mucho peores. Estas figuras nos indican que nuestro conocimiento experimental actual permite cierta violación de la simetría CPT compatible con todo nuestro conocmiento sobre la física de los neutrinos.

 

El artículo de Tsukerman discute diferentes experimentos que se pueden realizar para verificar o no varios tipos de violación de la simetría CPT en la física de los neutrinos. Un artículo de 62 páginas con 330 referencias que nos recuerda que incluso las simetrías sacrosanto de la física de partículas elementales (como en su momento fue la simetría de paridad) han de ser continuamente verificadas ya que en ellas se podría ocultar física más allá del modelo estándar de gran interés.

Alan Turing, el genio matemático que creó la teoría de la morfogénesis poco antes de suicidarse

 

Los genios son como el rey Midas, lo que tocan lo vuelven oro; aunque muchos son mártires de la sociedad que les toca vivir. Alan Mathison Turing (1912–1954) fue un matemático británico genial, fundador de la informática teórica, del álgebra lineal numérica y de la teoría biológica de la morfogénesis, entre otros grandes logros. Un héroe de la II Guerra Mundial (descifró la máquina Enigma de los alemanes que permitió la victoria de los aliados) que se suicidó porque un juez no entendió su homosexualidad. Su amante le robó en casa, lo denunció a la policía, que le acusó de “perversión sexual” y fue condenado por un juez a un tratamiento hormonal de reducción de la libido que le mató, como genio y como persona. Ser Dios y suicidarse porque Dios también es hombre. Poco antes de su suicido nos regaló la teoría matemática de la morfogénesis gracias a ecuaciones en derivadas parciales de reacción-difusión no lineales.

El número de hoy de la revista Science incluye un artículo de revisión (review) sobre la teoría de Turing para la generación de patrones en sistemas biológicos gracias a la morfogénesis. Nadie sabe por qué se interesó Turing en estos temas, pero su trabajo es una de las contribuciones más importantes de la matemática aplicada del s. XX. Shigeru KondoTakashi Miura nos presentan en Science las ideas básicas de las teoría de morfogénesis de Turing en un lenguaje comprensible para cualquier biólogo. Como el conocimiento matemático de los biólogos es pobre, la explicación de Kondo y su pupilo Miura es comprensible para cualquier científico. La matemática de las ecuaciones de reacción-difusión, para los que nos dedicamos a estas lides, es bien conocida, aunque no está libre de sorpresas. Todavía me maravillo cuando veo como la solución de una ecuación “simplona” evoluciona generando imágenes hipnóticas que emergen a partir de condiciones iniciales aburridas. El artículo técnico que se lee muy fácil y recomiendo a todos los que tengan acceso al mismo es Shigeru Kondo y Takashi Miura, “Reaction-Diffusion Model as a Framework for Understanding Biological Pattern Formation,” Review, Science 329: 1616-1620, 24 September 2010. La información suplementaria del artículo resume y explica el artículo original de Turing. Realmente merece la pena disfrutarla.

La biología moderna es la biología a escala ómica (genoma, transcriptoma, proteoma, metaboloma, etc.). La biología de sistemas es la de lo complicado, de lo inabarcable. Se ha pasado de modelos sencillos, que aunque omiten muchos detalles describen muy bien el resultado observado, a modelos basados en redes cuya cardinalidad abruma hasta a los ordenadores más potentes. El gran maestro del reduccionismo en biología matemática es Alan Turing, cuya obra es una obra maestra del arte del modelado matemático. El reduccionismo como clave para la comprensión. Nuestro cerebro necesita que las cosas sean lo más simples posibles, pero no más simples, como diría Albert Einstein.

Turing modeló con ecuaciones de reacción-difusión cómo se generan patrones (como las manchas en la piel de un animal) durante el desarrollo de un embrión. Consideró dos substancias (producidas por dos morfogenes) que reaccionan entre sí y se difunden por un  tejido celular. Turing murió poco después de publicar este trabajo germinal para los biólogos matemáticos, sin embargo, para la mayoría de los biólogos “húmedos” (los experimentales de bata blanca en el laboratorio) todavía es un trabajo con bastante poco interés. Para estos últimos la realidad del laboratorio es tan compleja que un modelo tan sencillo no la puede explicar. Según Kondo y Miura están equivocados. Solo se trata de un malentendido en el que los investigadores experimentales tienden a sucumbir. Los fenómenos biológicos más complejos tienen mecanismos subyacentes que son, en esencia, sencillos. Todo lo complejo emerge de lo sencillo. Las ecuaciones de reacción-difusión son una herramienta clave para el análisis teórico de toda la complejidad observada en la generación de patrones gracias a las tecnologías ómicas. Kondo defiende lo suyo, el campo que le ha hecho famoso.

La observación biológica de la evolución dinámica de los patrones de los modelos de Turing en un ser vivo fue hecha por primera vez por Kondo y Asai en 1995 (lo publicaron en Nature) en el desarrollo embrionario de ciertos peces tropicales (Pomacanthus imperator). Hoy en día sabemos que muchos otros seres vivos comparten estos mismos mecanismos de desarrollo embrionario. Los estudios posteriores demostraron que estos patrones de la piel de este pez se deben a las interacciones moleculares entre células pigmentadas vecinas. Aunque aún no se conocen con detalle todos los mecanismos genéticos implicados en estos procesos, se espera que en los próximos años puedan determinarse.

La morfogénesis no es solo responsable de la formación de patrones en la pigmentación de los seres vivos. También son responsables de la asimetría izquierda-derecha en los vertebrados, el desarrollo de las extremidades, la ramificación de los pulmones y del sistema circulatorio, etc.

El artículo original de Turing (que yo tuve el placer de estudiar hace unos años) considera un tejido por formado por células pigmentadas con dos compuestos químicos que se pueden difundir de una sola a otra vecina  y que pueden reaccionar entre ellos dentro de cada célula. A principios de 1950 la biología molecular y la bioquímica estaban en pañales y estas ideas tan avanzadas para la época solo podían provenir de un genio de la talla de Turing. Hoy es habitual considerar que estas substancias son dos ligandos U y V para los que las células tienen receptores en su membrana, que se producen en el interior celular y que se pueden difundir en el medio intercelular. 

La concentración de estos ligandos viene regida por sendas ecuaciones de reacción-difusión acopladas. La concentración de U y V se denota por las funciones u(x,y,t) y v(x,y,t) y su producción intracelular está gobernada por las funciones de reacción F(u,v) y G(u,v). En el artículo original, Turing tomó funciones lineales. La figura siguiente muestra las ecuaciones, el significado de cada término y las funciones de reacción utilizadas.

Turing fue capaz de resolver estas ecuaciones en el caso de una sola dimensión espacial y descubrió que presentan 6 estados dinámicos interesantes diferenciados dependiendo de los valores de sus parámetros (las condiciones de contorno de la ecuación influyen en el estado que se observa, pero en la figura siguiente se han considerado condiciones de contorno periódicas). Cuando hay dos dimensiones espaciales puede ocurrir que uno de estos estados aparezca en un dimensión (sea x) y el otro en la otra (sea y), de tal forma que pueden aparecer bandas (rayas como en al cebra), puntos y patrones más complicados similares a espirales. Este gran descubrimiento de Turing pilló por sorpresa a la mayoría de biólogos y matemáticos. 

Hay muchos fuentes en la web para los interesados en más información (en español) sobre la teoría de Turing para la generación de patrones. Por ejemplo, estos trabajos de investigadores colombianos:  Juan C. Vanegas A., Nancy S. Landinez P., y Diego A. Garzón A., “Solución computacional de modelos biológicos de formación de patrones espacio-temporales,” Ingeniare. Revista chilena de ingeniería 17: 182-194, 2009; Juan Vanegas, Nancy Landinez y Diego Garzón, “Análisis de la inestabilidad de Turing en modelos biológicos,” Dyna 76: 123-134, 2009; y Carlos Humberto Galeano, Diego Alexander Garzón, Juan Miguel Mantilla, “Formación de patrones de Turing para sistemas de reacción-convección-difusión en dominios fijos sometidos a campos de velocidad toroidal,” Rev. Fac. Ing. Univ. Antioquia 53: 75-87, 2010. En inglés hay infinidad de fuentes en la web: solo una como botón de muestra.

En esta web tenéis un Applet de Java que os permite generar múltiples patrones de Turing que se asemejan a la piel de diferentes animales. ¡Que disfrutéis!

Por cierot, en este blog también podéis leer “Generación de patrones espaciotemporales en nuevos tipos de reacciones químicas,” 8 Agosto 2009.

Microscopía por efecto túnel en tiempo real y memorias DRAM espintrónicas

La microscopia por efecto túnel (STM) de alta resolución ha logrado una nueva dimensión, el tiempo: ver cómo los estados excitados de los átomos y moléculas en una superficie evolucionan bajo un campo eléctrico o la excitación de un láser. Un alarde técnico que por ahora solo permite acceder a la escala de los nanosegundos, pero los avances no tardarán en llegar. El vídeo que acompaña esta entrada ilustra bien el resultado obtenido, que nos cuenta en detalle Markus Morgenstern, “Physics: STM Ready for the Time Domain,” Perspectives, Science 329: 1609-1610, 24 September 2010, haciéndose eco del artículo técnico de Sebastian Loth, Markus Etzkorn, Christopher P. Lutz, D. M. Eigler, and Andreas J. Heinrich, “Measurement of Fast Electron Spin Relaxation Times with Atomic Resolution,” Science 329: 1628-1630, 24 September 2010.

PS [vía Mezvan y Colin R. Johnson, “IBM caracteriza a un solo átomo de DRAM,” EE Times, 23/sep/2010]: ¿Para qué sirve un microscopio de efecto túnel (STM) tan rápido que permite observar la excitación de un átomo? La aplicación más obvia es en el desarrollo de memorias espintrónicas, que almacenan cada bit de información en un solo átomo. El STM permite tanto leer la información almacenada como escribirla aplicando pulsos que exciten, uno a uno, a los átomos (en este caso son átomos de hierro, cobre y dímeros de hierro-cobre, estos últimos permiten tiempos de relajación más largos). El problema del STM es que es una tecnología lenta. La nueva técnica desarrollada por los físicos Loth, Lutz, Eigler y Heinrich del Centro de Investigación de IBM en Almadén, San José, California, junto al físico suizo Etzkorn de la Escuela Politécnica Federal de Lausana, Suiza, permite utilizar esta tecnología en la escala de los (cientos de) nanosegundos y promete ser el primer paso para lograr desarrollar memorias DRAM espintrónicas.

¿Qué es una memoria DRAM o RAM dinámica? Las memorias de estado sólido de todos los ordenadores se basan en almacenar cada bit como una pequeña carga almacenada en un pequeño condensador. El condensador se descarga de forma espontánea, por lo que la memoria es volátil y periódicamente hay que refrescarla, por eso se llama RAM (memoria de acceso aleatorio) dinámica o DRAM. Hay que volver a leer toda la memoria y volver a escribirla completa cada 50 milisegundos más o menos. Un tiempo enorme comparado con la velocidad de acceso a los datos de estas memorias por la CPU (unidad central de proceso) de tu ordenador. Las memorias de estado sólido basadas en procesos magnéticos, como la memorias Flash de tu pen, evitan este problema, pero a costa de que la lectura de los datos es muchísimo más lenta.

¿Qué es una memoria DRAM espintrónica? En estas memorias la información se almacena en átomos individuales excitando estos átomos (un electrón pasa de un estado de energía fundamental a un estado de energía excitado). Su problema es el mismo que las memorias DRAM, de forma espontánea el átomo excitado decae en su estado fundamental. La diferencia con las memorias DRAM convencionales es que el tiempo de vida media del estado excitado es solo de unos cientos de nanosegundos, en el mejor caso. Por tanto, las velocidades de refresco de la memoria deben ser de solo decenas de nanosegundos o incluso menos.

El nuevo avance de los físicos de IBM es importante porque ha permitido leer y escribir en una memoria de unos pocos bits (átomos de hierro y dímeros hierro-cobre) en tiempos menores que el tiempo de relajación de los estados excitados de estos átomos. Es un avance importante pero todavía es muy pronto para que soñemos con memorias espintrónicas masivas basadas en esta tecnología. Quizás por ello Heinrich ve el futuro de esta tecnología en la computación cuántica. Los estados excitados de varios átomos de hierro muy cercanos pueden ser entrelazados y podrían ser la base para una tecnología de estado sólido para ordenadores cuánticos. Obviamente, todavía es muy pronto para pensar en estas aplicaciones, pero si Heinrich (autor principal del trabajo técnico) las tiene en la cabeza es una buena señal.

La carrera a toda prisa hacia los 384 paquetes de protones a 150 ns en el anillo del LHC del CERN antes de noviembre

 

Mañana, 24 de septiembre, se inyectarán 96 paquetes de protones en el anillo del LHC separados por 150 ns (nanosegundos) y el sábado 104. Hoy se han inyectado 56 paquetes y ayer se inyectaron 24. A finales de agosto los paquetes de protones se inyectaban en el anillo con una separación de 1000 ns. Si todo va bien, en unas 5 semanas se alcanzarán los 384 paquetes a 150 ns, justo antes de pasar en noviembre a colisiones de iones pesados hasta el parón navideño. Las próximas cinco semanas van a ser de alta tensión en el LHC del CERN, ya que pasar de 1000 ns a 150 ns no es trivial. Ha requerido tres semanas de preparativos (las primeras de septiembre) sin colisiones estables. Steve Myers, director del comisionado de los haces del LHC, lo tiene claro: si no se logran alcanzar los 384 paquetes a 150 ns la última semana de octubre, el objetivo de obtener un inverso de femtobarn (1/fb) de colisiones para noviembre de 2011 no podrá lograrse. Steve es optimista y confía en que todos los técnicos e ingenieros del LHC darán el 100% para lograr la meta con completo éxito. Lo lograrán. Seguro que sí.

Los interesados en conocer de primera mano lo que se cuece día a día en el LHC pueden informarse en “LHC 2010 – latest news” que incluye las presentaciones (ppt) de las reuniones a primera hora de la mañana de la comisión de haces del LHC. Los que consideren que dicha información es demasiado técnica, que no se preocupen que en este blog les resumiremos lo más interesante. No somos el único blog que lo hace. Con más asiduidad (pero en inglés, claro) podéis recurrir a Philip Gibbs y su blog viXra log. Por ejemplo, esta semana podéis leer “LHC 2010 Crescendo finale,” viXra log, September 20, 2010; “September LHC update,” viXra log, September 22, 2010; “LHC stable beams are back,” September 22, 2010; y “LHC luminosity reaches 20/microbarn/second,” September 23, 2010.

Para los despistados, permitidme recapitular un poco qué significa “paquetes de protones” y cómo afectan los parámetros de inyección al número de colisiones.

En el Gran Colisionador de Hadrones (Large Hadron Collider o LHC) del CERN colisionan haces de protones a 7 TeV c.m., es decir, dos haces de protones acelerados por imanes superconductores hasta alcanzar una energía de 3’5 TeV cada uno chocan frente a frente para alcanzar 7 TeV en el centro de masas (c.m.) del punto de colisión. ¿Qué son 3’5 TeV? Más o menos una energía equivalente a 3700 veces la masa de cada protón. A estas energías ultrarrelativistas los protones se mueven a una velocidad muy próxima a la velocidad de la luz en el vacío (en concreto a 3’5 TeV al 99,9999991% de ésta). Cómo se puede conseguir que una partícula tan pequeña como un protón colisione exactamente contra otro protón. Parece imposible y lo es. La única manera es hacer que colisionen un paquete (bunch) de muchos protones contra otro paquete de muchos protones (ahora mismo unos 115 mil millones de protones por paquete, 1’15 · 10¹¹ protones/bunch).

El objetivo del comisionado de haces en el LHC es alcanzar el máximo número posible de colisiones protón-protón en los cuatro puntos de cruce donde se encuentran los detectores de los 6 experimentos principales (ATLAS, CMS, LHCb, ALICE, LCHf y TOTEM). La “intensidad” de las colisiones se llama luminosidad. Para alcanzar la máxima luminosidad en el LHC hay que inyectar 2808 paquetes de protones (el número máximo de paquetes para el que está diseñado el LHC). Para alcanzar este número hay que ajustar muchísimos parámetros, por ello, durante los primeros años de colisiones se inyectan un menor número de paquetes. Hay que recordar que los paquetes a velocidades ultrarrelativistas se alargan y si hay muchos paquetes pueden llegar a tocarse e interaccionar entre sí. En agosto los paquetes de protones se inyectaban en el anillo con una separación de 1000 ns y esta semana se están separando con solo 150 ns, lo que permite alcanzar solo hasta 384 paquetes simultáneos por haz. Incrementando el número de paquetes en bloques de 48 se requieren 8 semanas para alcanzar los 384. Para lograr hacerlo desde esta semana hasta la última semana de octubre, habrá que añadir 48 paquetes cada cinco días, en los que habrá que probar que se logra alcanzar un estado estable robusto para las colisiones (se requieren unas 20 horas de colisiones estables para estar seguros de que se controla bien el proceso). Los tiempos están muy ajustados, por ello he titulado la entrada “la carrera a toda prisa.”

Hoy las colisiones en el LHC siguen el esquema de inyección llamado 150ns_56b_47_16_47_8bpi. Esta notación significa que se inyectan cada 150 ns, 7 trenes de 8 paquetes de protones, es decir, 56 paquetes por haz. Por cada vuelta de un paquete de protones a todo el anillo del LHC se producirán 47 colisiones en los puntos donde están colocados CMS, ATLAS y LHCb, y 16 donde está colocado ALICE. La luminosidad instantánea máxima será de 14/μb/s (catorce microbarns por segundo).

Un factor importante a tener en cuenta es el ángulo con el que colisionan los paquetes de protones en los cuatros puntos donde se encuentran los detectores. Las colisiones son “casi” frontales. A 150 ns se están cruzando los haces con un ángulo de 170 microradianes (en teoría podría reducirse hasta 80 microradianes sin problemas).

Para cumplir el objetivo del LHC para finales de 2011 (lograr un 1/fb de colisiones acumuladas) es necesario que el año que viene se reduzca el intervalo de inyección de paquetes de protones hasta 75 ns. Myers opina que podrán alcanzar los 50 ns, en cuyo podrían superar con creces el objetivo de 1/fb. Myers es optimista pero ahora mismo lo prioritario es cumplir con el objetivo a corto plazo: 384 paquetes a 150 ns la última semana de octubre. Si se logra se acumularán unos 50/pb (desde el 31 de marzo se han acumulado solo 3’6/pb).

Teoría de cuerdas, fluidos perfectos y el plasma de quarks y gluones

El descubrimiento más importante del RHIC (Relativistic Heavy Ion Collider) en el BNL (Brookhaven National Laboratory), Stony Brook, Nueva York, ha sido que un plasma de quarks y gluones (QGP) se comporta como un fluido perfecto. El QGP es el estado de la materia unos 20 microsegundos después de la gran explosión (Big Bang). Todavía no se tiene un buen modelo teórico que explique por qué un QGP en las colisiones de iones de oro en el RHIC se comporta como un fluido perfecto. La hipótesis oficial es que es resultado de efectos no perturbativos en la cromodinámica cuántica (QCD). Este tipo de efectos requieren nuevas herramientas matemáticas y la teoría de cuerdas se ha ofrecido en los últimos años como alternativa factible para tratar de entender el comportamiento no perturbativo de los QGP. Todavía es pronto para saber si la teoría de cuerdas lo logrará, pero los resultados de RHIC, quizás el nuevo resultado de CMS que presentamos en la entrada anterior y los resultados que ALICE (en el LHC) obtendrá a finales de este año requieren nuevas herramientas más allá del análisis perturbativo de la QCD. Nos lo ha contado Jorge Noronha (Univ. Columbia, New York) en su charla “AdS/CFT Approaches to Problems in Relativistic Heavy Ion Collisions” en el XL International Symposium on Multiparticle Dynamics (ISMD 2010), 21-25 September 2010, Universidad de Amberes, Bélgica, resumen de su reciente artículo técnico Jorge Noronha, Miklos Gyulassy, Giorgio Torrieri, “Conformal Holography of Bulk Elliptic Flow and Heavy Quark Quenching in Relativistic Heavy Ion Collisions,” ArXiv, 13 Sep 2010.

¿Qué es un plasma de quarks y gluones? Los protones y los neutrones en el núcleo de los átomos están formados por partículas más elementales, llamadas quarks. Éstos están unidos entre sí por la fuerte interacción que es transmitida por unas partículas llamadas gluones. Los quarks no existen en la naturaleza como partículas libres siempre están “confinados” dentro de partículas como los protones, los neutrones y los mesones (llamadas hadrones, la H en el nombre LHC). Un plasma de quarks y gluones es una fase de la materia que existe a temperaturas y/o densidades muy altas que se compone, como su nombre indica, de quarks y gluones “desconfinados” (ya que cuando los quarks tienen una energía muy alta, la fuerza que los une se debilita). Por ello, en un plasma de quark-gluones (QGP, por sus siglas en inglés) los partones (nombre colectivo para los quarks y gluones) están “casi” libres. 

¿Cómo se produce un plasma de quars y gluones? Gracias a la colisión de núcleos de átomos pesados, como oro (Au) o plomo (Pb), a altas energías (iones relativistas). Estos núcleos contienen un gran número de protones y neutrones que en la colisión generan un QGP con gran número de partones. Es posible, pero no está confirmado, que en las colisiones protón-protón a 7 TeV c.m. en el LHC del CERN también se pueda producir un “pequeño” plasma de quarks y gluones (con más de 100 partones), lo que podría explicar los resultados observados en CMS que comentamos en la entrada anterior. Aún así, casi todo lo que sabemos sobre el QGP se han descubierto en el Colisionador Relavista de Iones Pesados (RHIC) del Laboratorio Nacional de Brookhaven (EE.UU.) donde colisionan iones tan pesados como el oro [algunos vídeos youtube a modo de presentación del RHIC]. En el Gran Colisionador de Hadrones (LHC) del CERN durante los meses de noviembre y diciembre se colisionarán iones tan pesados como el plomo. Estas colisiones serán analizadas por un experimento específico, llamado ALICE (A Large Ion Collider Experiment), y por los dos grandes del LHC, tanto ATLAS como CMS. La energía en el centro de masas en las colisiones Au+Au en el RHIC es de unos 200 GeV (0’2 TeV) y se estima que en las colisiones se alcanzan temperaturas de 4 billones de grados. En el LHC en noviembre próximo se iniciarán colisiones con iones de plomo (Pb+Pb) con una energía c.m. de 2’76 TeV (valor que corresponde a la misma configuración magnética que logra colisiones protón-protón (p+p) a 7 TeV c.m.). A partir de 2013, cuando el LHC empiece con colisiones p+p a 14 TeV, las colisiones Pb+Pb a finales de año alcanzarán 5’52 TeV c.m.

En 2005 se observó en el RHIC que el plasma de quarks y gluones producido por colisiones Au+Au se expandía de forma asimétrica (flujo anisótropo o elíptico), cuando todo el mundo esperaba que lo hiciera de forma simétrica (flujo isótropo o esférico), es decir, el QGP se comportaba como un fluido ideal (o perfecto) en lugar de como un gas ideal. La diferencia entre un gas y un líquido está en que en el primero las partículas están muy separadas entre sí  y se comportan localmente como si estuvieran libres, mientras que en el segundo las partículas están más próximas e interaccionan fuertemente entre sí. Que el QGP sea una fluido perfecto significa que tiene muy poco viscosidad (diez veces menor que la del agua). El acoplamiento fuerte entre los partones indica que hay que tener en cuenta efectos no perturbativos en QCD para entender las propiedades del QGP. Si α es la constante de acomplamiento entre gluones y quarks según la QCD (cuyo valor depende de la energía), los efectos perturbativos son los que se pueden describir como un desarrollo de potencias (o polinómico) en función de α, es decir, como A + α B + α² C + α³ D + ···, un desarrollo válido cuando α es un número pequeño (α(E) es una función decreciente de la energía E). Los efectos no perturbativos son los que no se pueden escribir como desarrollo en serie de potencias, por ejemplo, términos de la forma exp(−1/α) que pueden aparecer a energías a las que α no es un valor pequeño. Los cálculos habituales en QCD que se realizan gracias a los llamados diagramas de Feynman son siempre cálculos perturbativos y se basan en la propiedad de libertad asintótica de la QCD (a distancias pequeñas los quarks y gluones se comportan como si estuvieran libres ya que la fuerza fuerte decrece conforme la distancia se reduce). Cuando no se puede aprovechar esta propiedad, la QCD perturbativa no es aplicable y hay que utilizar teorías efectivas (teorías ad hoc para un problema concreto) o métodos numéricos (QCD en redes o lattice QCD) o nuevas técnicas matemáticas no perturbativas.

Además del flujo anisotrópico (comportamiento como fluido ideal) del QGP en el RHIC se descubrió que la pérdida de energía partónica o jet quenching era más intensa de lo esperado. Tras las colisiones de los iones a velocidades ultrarrelativistas, los productos de la colisión se emiten en forma de dos chorros de partículas (jets) debido a la extrema opacidad del QGP a alta energía. La QCD perturbativa no tiene explicación ni para el flujo anisótropo ni para la pérdida de energía partónica, por lo que se cree que son efectos no perturbativos de la QCD. En la actualidad no sabemos calcular estos efectos, pero ciertos físicos teóricos han propuesto el uso de técnicas “holográficas” de teoría de cuerdas, en concreto de la dualidad gravedad/gauge o AdS/CFT de Maldacena.

El artículo de Noronha y sus colegas afirma que las técnicas holográficas permiten explicar tanto el flujo elíptico (fluido perfecto) como el jet quenching fuerte de los chorros de quarks pesados en los fragmentos resultado de las colisiones Au+Au a 200 GeV en el RHIC. Más aún, realizan predicciones concretas que podrán ser verificadas por el experimento ALICE en el LHC a principios de noviembre (en su charla Noronha afirma cual buen optimista que podrán ser verificadas “el primer día” de colisiones de iones). En concreto, las técnicas AdS/CFT predicen ciertas correlaciones concretas en el contenido de quarks b (bottom) y c (charm) en los chorros tras el jet quenching en las colisiones. La figura de la izquierda muestra la predicción teórica. Los experimentos del RHIC (como STAR) todavía no han sido capaces de mostrar estas correlaciones tan sutiles, pero se cree que ALICE sí será capaz de lograrlo, lo que verificará o refutará esta aplicación de las teorías de cuerdas.

En la línea de los argumentos de Noronha me permito recomendaros la lectura del digest de M. Gyulassy, “Getting to the bottom of the heavy quark jet puzzle,” Physics 2: 107, December 21, 2009, del artículo técnico de Magdalena Djordjevic, “Theoretical formalism of radiative jet energy loss in a finite size dynamical QCD medium,” Phys. Rev. C 80: 064909, December 21, 2009 [ambos artículos son de acceso gratuito]. La imagen final de esta entrada está extraída del digest de Gyulassy. Para mí, el gran problema del enfoque holográfico de la teoría de cuerdas en el contexto del QGP es que la interpretación de los resultados desde el enfoque de la QCD no es trivial. Todavía no está claro cómo interpretar la QCD (4D) como una teoría de cuerdas y por ello las teorías de cuerdas son solo teorías fenomenológicas en este contexto.

En mi modesta opinión, la teoría de cuerdas, gracias a la correspondencia AdS/CFT y el principio holográfico, están protagonizando en estos momentos la tercera revolución de la teoría de cuerdas, la revolución de las aplicaciones: cálculo masivo de diagramas de Feynman en teoría cuántica de campos, cálculos en física de la materia condensada, en física del estado sólido, transiciones de fase cuánticas en líquidos de Fermi, comportamiento de un plasma de quarks y gluones, e incluso en la turbulencia de fluidos clásicos. Como ya dijimos hace unas semanas la teoría de cuerdas está evolucionando de una “teoría de todo” a una “teoría de algo.”

 

PS: Sobre la teoría de cuerdas y los resultados de CMS del LHC os recomiendo la lectura de los comentarios de la entrada de Philip Gibbs, “Quark-Gluon plasma seen in proton collisions – maybe,” viXra log, September 21, 2010.

El experimento CMS del LHC en el CERN y nuestra ignorancia sobre la QCD a baja energía

Supongo que ya conocerás la noticia más importante en física de partículas de hoy (21 septiembre), de esta semana y quizás de este mes. Científicos del experimento CMS del Gran Colisionador de Hadrones (LHC) han observado un nuevo fenómeno en las colisiones protón-protón [noticia oficial en español, CPAN]. La figura que abre esta entrada muestra a la izquierda el resultado esperado según las simulaciones de Montecarlo y a la derecha el resultado experimental observado. La flecha apunta al resultado que ha generado la noticia. Una correlación no prevista en las colisiones que producen más de 110 partículas con baja energía intermedia (momento entre 1 y 3 GeV/c). Los expertos aseguran que “representa la primera evidencia de un resultado novedoso” del mayor acelerador de partículas del mundo. He leído varias noticias publicadas en diferentes medios y no aclaran bien el asunto. No sé si te habrá pasado lo mismo. Algunos exageran un poco, como Lubos Motl que ya ve teoría de cuerdas en estas !!! BREAKING NEWS !!! (“LHC: CMS probably sees quark-gluon plasma or dual QCD string or something better,” The Reference Frame, September 21, 2010).

La fuente oficial de la noticia titula “New two-particle correlations observed in the CMS detector at the LHC,” CMS Web, CERN, September 21st 2010, incluye un enlace a el artículo original, que aclara un poco el asunto [The CMS Collaboration, “Observation of Long-Range, Near-Side Angular Correlations in Proton-Proton Collisions at the LHC,” Submitted to Journal of High Energy Physics]. También apunta a la presentación oficial de Guido Tonelli (CERN) [pdf slides] y de Gunther Roland (MIT) [pdf slides], hoy 21 de septiembre en el CERN Joint LPCC/EP/PP Seminar. Aunque los detalles parecen farragosos, el efecto observado  es similar al observado en colisiones de iones pesados que producen un plasma de quarks y gluones en el RHIC (Relativistic Heavy Ion Collider) del Brookhaven National Laboratory (EEUU)  [ver en ArXiv]. La figura de abajo, que presenta Guido Tnoelli es bastante clarificadora.

Los cálculos del resultado de una colisión protón-protón en el LHC utilizando la cromodinámica cuántica (QCD) son mucho más complicados conforme el número de partículas en dicha colisión crece. Más aún cuando la energía de la colisión ha de repartirse entre muchas partículas y cada una recibe una energía baja o intermedia. Estudiar el comportamiento de la QCD a baja energía mediante métodos de Montecarlo requiere asumir una serie de hipótesis simplificadoras. Lo que nos ilustra el nuevo resultado de CMS es un posible fallo en estas hipótesis. Habrá que incorporar en los simuladores nuevos efectos asociados a la producción de un plasma de quarks y gluones en este tipo de colisiones protón-protón del LHC. Para estudiar el plasma de quarks y gluones, en el LHC se realizarán colisiones de iones pesados en noviembre y parte de diciembre, que se estudiarán con el detector ALICE y que complementarán los resultados de RHIC. Yo espero que permitan entender mejor estos nuevos resultados observados en CMS. No creo que sea necesario recurrir a física exótica para explicarlos. Aún así, habrá que estar al tanto en los próximos meses a ver cómo evoluciona este interesante asunto.

PS: Recomiendo la lectura de los comentarios de Tommaso Dorigo, “New Physics With CMS ? Huhm,” A Quantum Diaries Survivor, September 22nd 2010, en una línea similar a los míos (pero escritos por un experto en estos asuntos).

La Ciencia Española NO Necesita Tijeras, NO al Nuevo Recorte del Presupuesto en I+D

No sé si será información fiable, aunque venga desde Nature. Nuestra ministra de ciencia e innovación Cristina Garmendia está pensando en renunciar al cargo (su ministerio puede ser absorbido por los de educación o de industria). El domingo pasado El País filtró la noticia de un posible recorte del 10% en la financiación para el Ministerio de Ciencia e Innovación en el próximo presupuesto (que se sumaría al recorte del 15% del año pasado). El nuevo presupuesto se dará a conocer en las próximas tres semanas. Se hace eco de estas pésimas noticias Michele Catanzaro, “Spain’s science budget could be slashed. Amid rumours of cuts, Spanish researchers face a tense wait before the next budget announcement,” News, Nature, Published online 17 September 2010.

Garmendia negó todos los rumones. Ni recortes, ni dimisión. Su ministerio está trabajando en un proyecto de presupuesto similar al de 2010 (congelar los fondos). Sin embargo, los científicos no se lo creen y están preocupados. Joan Guinovart, presidente de la Confederación Española de Sociedades Científicas (COSCE) afirma que “Todo recorte adicional podría causar daños irreversibles en el sistema español de I+D.” Jesús Ávila, biólogo en el Centro Severo Ochoa de Biología Molecular en Madrid apuntilla que “Una sensación de impotencia se está extendiendo entre los científicos.” ¿Apoya José Luis Rodríguez Zapatero a Garmendia en su intensión de congelar el presupuesto para la ciencia? Nadie lo sabe. Nadie sabe si la Sra. Garmendia le ha salido rana al Presidente Rodríguez o por el contrario ella es un conejito que sigue los designios de su amo. Felipe Pétriz Calvo, secretario de Estado para la investigación, nos recuerda que “La congelación [del presupuesto] es un escenario que estamos barajando en el ministerio, pero como caso hipotético.” El jueves, Ángel Gabilondo, ministro de Educación y exrector de la Universidad Autónoma de Madrid, dijo en una conferencia de prensa que el Ministerio de Educación está listo para absorber la agenda científica del Ministerio de Ciencia e Innovación [si el Presidente Rodríguez lo considera oportuno]. Pétriz Calvo aclaró que “La elección está en manos del Presidente.”

La Ley de la Ciencia, el proyecto estrella de Garmendia desde 2008, sigue en el aire. Un proyecto aún pendiente y sin visos de concluir. Un editorial de Nature a finales de 2009 sugirió que el motivo era la falta de experiencia política de la Sra. Garmendia. Si el “jefe no funciona” el Ministerio ejerce sus funciones a cámara lenta. Y cuando acucia la crisis, da marcha atrás.

Me parece que la campaña “La Ciencia Española NO Necesita Tijeras, NO al Nuevo Recorte del Presupuesto en I+D” debe galopar de nuevo en todos los blogs de divulgación científica españoles. He puesto el NO en mayúsculas, porque mayúscula debe ser nuestra queja ante el Sr. Rodríguez. NO, NO, y NO. Aunque el Sr. Rodríguez tenga taponados los oídos con cera, nuestro NO al Nuevo Recorte debe resonar fuerte, a 50 Hz si es necesario, que lo sienta en el pecho, que lo sienta en el corazón, pues su cerebro está en otras lides.

Oficialmente ya ha llegado La Niña al océano Pacífico ecuatorial

Ya lo dijimos en este blog: Finalizado El Niño y tras la gota fría en otoño (de 2009), se esperaba que en agosto (de 2010) empiece La Niña [7 Julio 2010]. Ahora ya es oficial. Ya ha llegado La Niña según la NOAA (US National Oceanic and Atmospheric Administration). Las temperaturas de la superficie del océano Pacífico ecuatorial son ahora mismo entre 1’3 y 1’8 ºC más frías que la media. Los modelos teóricos predicen que La Niña persistirá al menos hasta la primavera de 2011. Nos lo ha contado Adam Mann, “Return of La Niña. As El Niño’s cooler sister rolls round again, Nature probes the environmental pros and cons,” News: Briefing, Nature, Published online 16 September 2010.

¿Cómo afecta el fenómeno de La Niña? En España, prácticamente no se nota, pero América Latina sufrirá sus consecuencias, sobre todo porque se espera que el fenómeno sea bastante fuerte durante este otoño/invierno. Los efectos más devastadores de La Niña son la sequía en América del Sur y el incremento de los huracanes en el Golfo de México. Chile podría sufrir una gran sequía, que también podría afectar a ciertas zonas agrícolas de Argentina y Brasil (e incluso de India y el centro de Estados Unidos). Los cultivos más afectados serán el maíz, la caña de azúcar, el café y la soja. No habrá sequía en toda América del Sur. Ciertas zonas de Brasil, Perú, Ecuador y Bolivia podrían sufrir lluvias torrenciales e inundaciones.

Desde este blog deseamos que este año las previsiones de los modelos climáticos se equivoquen y La Niña no provoque grandes devastaciones de las regiones más pobres de Latinoamérica.

Por cierto, en este blog ya hemos hablado de ENSO (El Niño-Oscilación del Sur) en varias ocasiones, por ejemplo, en “El fenómeno de El Niño/La Niña influye a través de la estratosfera en toda la atmósfera,” 13 Noviembre 2009, y en “Los efectos impredecibles del cambio climático: El Niño y La Niña,” 26 Diciembre 2008.

Cálculo aproximado de la latitud de Arlés (Francia) a partir de una pintura de Van Gogh

La manera más sencilla de localizar a la estrella polar (la estrella alfa (más luminosa) de la Osa Menor) es trazar una línea recta que une las dos estrellas más brillantes de la Osa Mayor (más fácil de localizar porque es mucho más brillante que la Osa Menor). Las estrellas beta y alfa de la Osa Mayor, Merak y Dubhe, están separadas unos 5º en el cielo. Midiendo en el cuadro de Van Gogh con una regla se observa que Merak se encuentra al triple de distancia del horizonte que de Dubhe, luego se encuentra a unos 15º sobre el horizonte. La estrella polar se encuentra fuera del cuadro a una distancia de Dubhe cinco veces mayor que la que le separa de Merak, es decir, a unos 25º. Por tanto, la estrella polar se encuentra a unos 45º sobre el horizonte según el cuadro. Mirando en la wikipedia resulta que la latitud de Arlés, la ciudad de Francia cuyo puerto fluvial se retrata en el cuadro, está situada a 43º40′ 41” N. Realmente sorprende que un cálculo tan grosero de un resultado tan exacto. Esta entrada me la ha sugerido la Imagen Astronómica del Día de hoy, “Astronomy Picture of the Day: Starry Night Over the Rhone,” September 21, 2010.

Following a line connecting the two Big Dipper stars on the right, the North Star Polaris could be easily found, the height of which can then be estimated and actually gives the latitude where the painting was created.” APOD, 2010, September 21. Releyendo el texto y buscando enlaces, he encontrado este enlace con un cálculo similar.

El camino cuántico de dos fotones a lo largo de una línea recta

La versión cuántica de un camino aleatorio (random walk) se denomina camino cuántico (quantum walk). Permiten implementar algoritmos cuánticos de búsqueda en grafos capaces de explorar sus N vértices en solo √N pasos. Alberto Peruzzo (Universidad de Bristol, GB) y sus colegas han publicado en Science [1] un experimento que demuestra como implementar el camino cúantico de dos fotones idénticos (entrelazados) a lo largo de 21 guías de onda ópticas acopladas en un chip de SiOxNy. El resultado cuántico viola el límite clásico en 76 desviaciones estándares. La tecnología de óptica integrada usada en este estudio es escalable y promete grandes avances en el desarrollo de ordenadores cuánticos. Nos lo ha contado Mark Hillery [2] de donde he extraído la figura de la izquierda. 

La figura ilustra la diferencia entre un camino aleatorio y un camino cuántico. Cada gato actúa como un fotón (es un gato cuántico) que se mueve en una sola dirección (problema 1D). Un solo gato (arriba) realiza un camino aleatorio (clásico) en una línea recta si se mueve hacia la derecha o hacia la izquierda una unidad si al lanzar una moneda sale cara o cruz, respectivamente. Tras 100 tiradas su posición promedio es cero. Un par de gatos cuánticos indistinguibles (dos fotones entrelazados son indistinguibles entre sí) realizan un camino cuántico si se comportan como en el caso del camino aleatorio pero siguiendo las leyes de la mecánica cuántica. Tras 100 tiradas sus posiciones promedio son 70 y –70 debido a las interferencias cuánticas entre sus funciones de onda. Cada posible posición de uno de los gatos se describe por un número complejo llamado amplitud de probabilidad y las reglas de la mecánica cuántica permiten que las amplitudes de probabilidad se sumen, interfieran, tanto de forma constructiva como destructiva. Cuando tras el camino se realiza la medición de la posición de los gatos, se obtiene un resultado cuya probabilidad viene descrita por la amplitud al cuadrado de las sumas de los números complejos. Por ello el resultado de un camino cuántico es tan diferente del esperado para un camino aleatorio.

El concepto de caminos cuánticos fue introducido en 1993 por Aharonov, Davidovich, y Zagury [3]. La computación cuántica basada en caminos cuánticos fue propuesta por Farhi y Gutmann en 1998 [4]. Los avances en la última década han sido abismales tanto desde el punto de vista teórico como en relación a las implementaciones físicas del concepto. Hay dos algoritmos cuánticos en caminos cuánticos que son más eficientes que sus análogos clásicos. El primero propuesto por Ambainis en 2007 permite encontrar dos entradas diferentes para las que una función booleana da el mismo resultado. El segundo fue propuesto por Farhi, Goldstone y Gutmann en 2008 y permite evaluar ciertos tipos de fórmulas booleanas de forma más eficiente que cualquier computador clásico. La implementación experimental de estos algoritmos cuánticos es uno de los motores del avance de la física de los caminos cuánticos hoy en día.

Peruzzo y sus colegas han implementado un camino cuántico en tiempo continuo para dos fotones entrelazados que se mueven a través de un árbol de guías de onda acopladas entre sí (ver una microfotografía en la figura de arriba, izquierda, y la medida experimental de la interferencia cuántica entre dos fotones en estas guías arriba a la derecha). Tras su camino por las guías de onda, un solo fotón puede acabar en uno de los 21 posibles estados finales (ver figura A, abajo). Dos fotones indistinguibles pueden acabar en 231 posibles estados. Si los fotones no interfieren, el resultado del experimento coincide con el esperado para un camino aleatorio (predicción de la óptica clásica). Pero cuando los dos fotones interfieren se observan los resultados predichos por la teoría para un camino cuántico. El procedimiento de medida es lento: el cuadrado de resultados de conteo de estados que aparece en la figura de abajo es el resultado del experimento tras 1 hora de observación. El resultado cuántico obtenido viola en 76 desviaciones típicas una desigualdad tipo Bell asociada al camino cuántico, que permite diferenciar su resultado del esperado en el caso clásico. Un gran resultado experimental que tiene aparejado el que la tecnología de guías de onda utilizada es fácilmente escalable; se han usado 21 guías, pero en aplicaciones de óptica integrada ya se utilizan con regularidad cientos de guías acopladas. Por ello se espera que pronto se pueda incrementar el tamaño del espacio de estados cuánticos considerado hasta permitir la implementación de algoritmos cuánticos no triviales usando esta tecnología.

[1] Alberto Peruzzo et al, “Quantum Walks of Correlated Photons,” Science 329: 1500-1503, 17 September 2010.

[2] Mark Hillery, “Physics: Quantum Walks Through a Waveguide Maze,” Perspectives, Science 329: 1477-1478, 17 September 2010.

[3] Y. Aharonov, L. Davidovich, N. Zagury, “Quantum random walks,” Phys. Rev. A 48: 1687–1690, 1993.

[4] Edward Farhi, Sam Gutmann, “Quantum computation and decision trees,” Phys. Rev. A 58: 915–928, 1998.