¿Para qué se necesita una teoría cuántica de la gravedad? Para evitar los viajes cuánticos al pasado

La teoría de la gravedad de Einstein no prohíbe viajar en el tiempo hacia el pasado (curvas temporales cerradas). En sistemas macroscópicos parece imposible y se asume la existencia de principios (“censores cósmicos”) que evitan su existencia (básicamente que nada puede superar la velocidad de la luz). Sin embargo, cuando se unen la mecánica cuántica y la teoría de la gravedad la cosa cambia y no sabemos cómo evitar que un estado cuántico viaje al pasado. ¿Algún problema? Bueno, si fuera posible, los sistemas de cifrado cuántico, supuestamente absolutamente seguros, no lo serían, como nos cuenta David Lindley en “Time Travel Beats Quantum Mechanics,” Physical Review Focus, 2 June 2009, haciéndose eco del artículo técnico de Todd A. Brun, Jim Harrington, Mark M. Wilde, “Localized Closed Timelike Curves Can Perfectly Distinguish Quantum States,” Physical Review Letters 102: 210402, 2009 (ArXiv preprint). La existencia de curvas temporales cerradas (“closed timelike curves”, CTCs) en un contexto cuántico no es un problema para la mayoría de los investigadores ya que se cree que la teoría “correcta” de la gravedad cuántica evitará la existencia de este tipo de “inconsistencias” en nuestro conocimiento actual. Pero realmente será así. Todavía, nadie lo sabe.

Dibujo20090807_circuit_using_closed_timelike_curvesEl trabajo de Todd Brun et al. muestra que un espía podría utilizar curvas temporales cerradas (CTCs) para descifrar “al vuelo” los mensajes codificados utilizando cualquier sistema de criptografía cuántica sin que ni el emisor ni el receptor se dieran cuenta. La paradoja del abuelo, viajas al pasado y matas a tu abuelo, parece que prohíbe terminantemente la existencia de CTCs. Desde el punto de vista clásico todo el mundo lo tiene muy claro. Pero en 1991, David Deutsch de la Universidad de Oxford, Gran Bretaña, publicó un artículo en el que demostraba que las curvas temporales cerradas para ciertos estados cuánticos pueden evitar esta paradoja. Más aún, utilizando técnicas de teoría cuántica de la computación demostró que estas paradojas no pueden darse en un contexto cuántico. Ello no quita que las CTCs tengan otro tipo de “defectos” cuánticos, como violaciones de la unitariedad y del principio de correspondencia, pero que nos parecen menos “antiintuitivos.” Además, también son computacionalmente interesantes, permitiendo, por ejemplo, la clonación de estados cuánticos. El artículo técnico es David Deutsch, “Quantum mechanics near closed timelike lines,” Phys. Rev. D 44: 3197-3217, 1991.

Sin entrar en detalles técnicos, lo más importante es que este trabajo apunta a la necesidad de una teoría cuántica de la gravedad en un contexto práctico (ya hay sistemas de cifrado cuántico comerciales) muy diferente al razonamiento habitual que requiere dicha teoría sólo para entender las singularidades ocultas en los agujeros negros o los primeros estadios de la Gran Explosión en cosmología teórica, muy alejados de lo experimentalmente verificable en laboratorio.

¿Se puede demostrar que el cerebro funciona cuánticamente preguntándole a una persona lo que ve?

La conciencia humana es un fenómeno cuántico. Así lo creen muchos. El cerebro es más poderoso que un ordenador convencional porque utiliza procesos cuánticos. Así lo creen otros muchos. Elio Conte y sus coautores creen que han demostrado la existencia de procesos de interferencia cuántica en el cerebro humano gracias a experimentos en los que muestran ambigramas (figuras ambiguas) a personas y les pregunta que es lo que ven. Pseudociencia, obviamente. Pero quizás algún lector de este blog esté interesado en leer dicho trabajo. Así que sin más comentarios, aquí va la referencia pseudotécnica: Elio Conte, Andrei Yuri Khrennikov, Orlando Todarello, Antonio Federici, Leonardo Mendolicchio, Joseph P. Zbilut, “Mental states follow quantum mechanics during perception and cognition of ambiguous figures,” ArXiv, Submitted on 26 Jun 2009 (Published on Open Systems and Information Dynamics, 16: 85-100, 2009).

Demostrada la conjetura de Arf-Kervaire sobre hiperesferas exóticas tras 45 años de intentos fallidos

Dibujo20090807_Arf_Kirvaire_Invariant_in_turkish_banknote

Arf y su invariante cuadrático en un billete turco. Fuente: http://www.math.rochester.edu/u/faculty/doug/kervaire.html

La mayoría de los grandes avances matemáticos son extremadamente técnicos, prácticamente imposibles de explicar al público en general. El 21 de abril de 2009 en Edimburgo, en una conferencia que celebraba el 80 aniversario del genial Sir Michael Atiyah, los asistentes quedaron boquiabiertos. Michael Hopkins presentó un artículo en el que junto a Mike Hill y Doug Ravenel demostraba la conjetura de Arf-Kervaire-Browder que llevaba abierta 45 años y que afirmaba que sólo había un número finito de dimensiones en las que existían hiperesferas exóticas con un invariante de Arf-Kervaire igual a 1. Un gran avance en topología algebraica, complejo campo de las matemáticas puras que brega con los objetos más exóticos que la mente humana puede imaginar.

Muchos se han hecho eco de este gran avance (que rescato de entre mis borradores). Como Davide Castelvecchi, “Hypersphere Exotica: Kervaire Invariant Problem Has a Solution! A 45-year-old problem on higher-dimensional spheres is solved–probably,” Scientific American Magazine, August 2009 (lo veréis en Investigación y Ciencia en español en un par de meses) y Philip Ball, “Hidden riddle of shapes solved. Mathematicians crack the Kervaire invariant problem,” News, Nature, 1 May 2009.

La topología algebraica es una rama de las matemáticas que asocia números (que cuentan cosas) a (hiper)superficies de tal manera que son invariantes (no cambian) cuando aplicamos ciertas transformaciones (topológicas) a dichas (hiper)superficies. El invariante de Arf-Kervaire asocia un número 0 o 1 a una (hiper)superficie (usando una forma cuadrática que depende de ciertos grupos de homología impares). Este invariante es siempre 0 excepto para ciertas (hiper)superficies exóticas de dimensión n=2k−2, como probó William Browder en 1969. Se conocen ejemplos en dimensión n = 2, 6, 14, 30, y 62. No se conoce ningún ejemplo en dimensión n=126. ¿Existen ejemplos con dimensión mayor que 126? No, como han demostrado Hopkins, Hill y Ravenel. El artículo está sometido a una revista internacional pero la opinión de la mayoría de los expertos es que la demostración es correcta. Queda pendiente el caso n=126, para el que no se conoce ningún ejemplo y para el que la demostración no es aplicable. Aún así,

Uno de los problemas más importantes de la topología algebraica y también de la geometría algebraica (según el experto Nick Kuhn de la Universidad de Virginia, en Charlottesville) ha sido resuelto cuando muchos pensaban que nunca verían una solución en su vida (como el experto Mark Hovey de la Universidad de Wesleyan, en Middletown, Connecticut).

Many people have thought they’ve solved it but have been wrong. The solution to this problem seems to indicate new and deep connections between topology on the one hand and algebra and number theory on the other. The exploration of these new connections will enrich the subject for years to come.”

¿Para qué sirve este nuevo resultado matemático? “Para qué sirve, para qué sirve,… siempre con el para qué sirve, no basta con que sea un gran avance matemático, tiene que servir para algo.” Las matemáticas utilizadas para la demostración son también utilizadas en teoría cuántica de campo, en teoría de cuerdas y en teoría de branas, con lo que se espera que la demostración sea importante en cosmología (teórica) cuántica. La verdad es que estas teorías de la física matemática son tan abstractas como la matemática misma, con lo que para la mayoría de los mortales este tipo de aplicaciones tienen una mínima importancia.

Esta demostración encumbra a Hopkins como el number one de la topología algebraica actual (“clearly the leading algebraic topologist of the day“). Este resultado, aunque con menor repercusión mediática, es similar a la demostración del último teorema de Fermat, lo importante son las nuevas técnicas desarrolladas en la demostración y no el resultado en sí mismo (“the solution of the Kervaire invariant problem is like the proof of Fermat’s last theorem in the 1990s; the importance lies with the new tools, techniques and insights that were developed to get the solution“).

¿Por qué en la conferencia de Edimburgo muchos asistentes quedaron boquiabiertos? Porque todo el mundo pensaba o creía que habría infinitas dimensiones en las que las variedades (hipersuperficies) pudieran tener un invariante de Arf-Kervaire no nulo.

Aún queda un problema importante por resolver. ¿Qué pasa en dimensión n=126? ¿Hay o no hay variedades exóticas con invariante de Arf-Kervaire igual a la unidad? Todavía nadie la sabe. Quizás se requieran muchos años para lograr resolver este problema.

Una curiosidad. ¿Qué tienen de especial los números 2, 6, 14, 30, 62, y 126? ¿Cuántas veces hay tirar una moneda para obtener en promedio 1, 2, 3, … caras seguidas? Pues 2, 6, 14, … veces. Aunque esta serie es infinita. Una casualidad obviamente. Nos comenta esta curiosidad y los posibles usos del invariante de Arf-Kervaire en teoría de cuerdas Lubos Motl en “Kervaire invariant: a math homework problem,” The Reference Frame, May 03, 2009.

Los matemático expertos en topología algebraica pueden disfrutar del vídeo de la conferencia de Hopkins en la que presentó la demostración la tienen, así como de sus transparencias, todo gracias a la Simons Foundation.

Cuanto más publicas, más alto apuntas y más te rechazan (según un estudio publicado en PLoS ONE)

Dibujo20090807_Cartoon_from_Juan_Miguel_Campanario_www2_uah_esA veces vas a escribir una entrada sobre un artículo que te ha llamado la atención y descubres que alguien ya la ha escrito por tí, con lo que permanece dormida en la carpeta de borradores durante cierto tiempo… normalmente acaba falleciendo.

Os recomiendo encarecidamente la lectura “Acerca de… referees,” del blog de Jaume, 22 julio 2009, que hace referencia al artículo técnico de L.W. Aarssen et al., “Does Publication in Top-Tier Journals Affect Reviewer Behavior?,” PLoS ONE 4: e6283, published July 21, 2009 (acordaros que es una revista de acceso gratuito). El artículo está escrito por ecólogos y trata sobre las prácticas bibliométricas de publicación y revisión de artículos de los ecólogos, pero sus resultados seguramente se extrapolan fácilmente a otros campos científicos.

Los autores afirman que los investigadores “que más publican son también los que tienen tasas más altas de rechazos de sus manuscritos” y citan como fuentes a Phillip Cassey, Tim M. Blackburn, “Publication rejection among ecologists,” TRENDS in Ecology and Evolution 18: 372-373, August 2003 (versión gratis .br) y Phillip Casey, Tim M. Blackburn, “Publication and Rejection among Successful Ecologists,” BioScience 54: 234-2349, March 2004 (versión gratis .edu). En el primero de dichos artículos, además, se indica que los autores con más artículos son los que más artículos tienen con múltiples rechazos (los tuvieron que enviar a varias revistas hasta lograr “colarlos”). Más aún, el número de rechazos de un artículo no tiene nada que ver con su calidad. ¿Entonces con qué? Quizás con el hecho de que los envían a revistas más impactadas y con tasas de rechazo más altas. En el segundo de los artículos, además, se afirma que los investigadores consideran que publicar en 2002 es más difícil que en 1990. Os dejo una extracto lapidario de estos artículos.

Los resultados del artículo de PLoS ONE parecen indicar que los investigadores que publican en revistas de mayor impacto tienen tasas de rechazo mucho mayores, aunque sorprende que los investigadores de más edad no las tengan, qiuzás porque los primeros revisan más artículos en revistas de alto impacto, caracterizadas por una mayor tasa de rechazos. A la hora de aceptar o rechazar un artículo parece claro que el índice de impacto de la revista en la que pretende publicar es un factor importante que tiene en cuenta el revisor. Según este artículo los investigadores con mayor edad no rechazan más artículos que los más jóvenes. Por supuesto, este resultado contradice el ofrecido por otros estudios, como Yanping Lu, “Peer review and its contribution to manuscript quality: an Australian perspective,” Learned Publishing 21: 307-318, October 2008, quienes sí observan dicho efecto.

“Manuscript rejection is not indicative of scientific inadequacy. It is a fact of life for even the most successful of publishing [scientists]. The moral seems to be that if at first you don’t succeed, try try again.”

Una conclusión clara del artículo es que si el editor de la revista te pide a una lista de posibles revisores, no pongas a los más famosos, a los que publican en las revistas de mayor impacto, ya que la probabilidad de que te rechacen el artículo será más alta.

“In addition, based on our results, many submitting authors might be persuaded to generally avoid suggesting names for reviewers that have published extensively in high-IF journals.”

Lo que está claro es que la elección de los revisores influye enormemente en la aceptación o rechazo del artículo. Si un editor tiene un mal día y quiere “putearte” basta con que elija los revisores convenientemente. Todo lo contrario, si les caes bien y quiere aceptarte el artículo con la conciencia tranquila, lo tiene muy fácil. Un estudio en Angewandte Chemie International Edition (AC-IE), que toma la decisión de publicar o no utilizando solo dos revisores, se basó en solicitar 3 informes. La decisión se tomaba con los dos primeros, pero luego chequearon que hubiera pasado si el editor hubiera conocido el tercero. El 23% de los casos, el artículo hubiera sido rechazado (37 de 162). L. Bornmann, H.-D. Daniel, “The luck of the referee draw: the effect of exchanging reviews,” Learned Publishing 22: 117-125, April 2009.

También está muy claro que uno artículo no será más citado porque sea aceptado a la primera. Gran número de artículos altamente citados han sido rechazados en varios ocasiones hasta acabar siendo publicados. Un buen ejemplo es el trabajo de Juan Miguel Campanario (de cuya web he extraído la figura que abre esta entrada) “Have referees rejected some of the most-cited articles of all times?,” Journal of the American Society for Information Science 47: 302-310, April 1996 (versión gratis .es). Estudian las entrevistas a los autores de los artículos más citados, entre los publicados por ISI WOS, calificados como “Citation Classics,” muchos de los cuales incluyen comentarios sobre lo que les costó acabar publicando su artículo. Recomiendo su refrescante lectura a todos los interesados en estos temas.

Del mismo autor, también recomiendo Juan Miguel Campanario y Erika Acedo, “Rejecting highly cited papers: The views of scientists who encounter resistance to their discoveries from other scientists,” Journal of the American Society for Information Science and Technology 58: 734-743, March 2007 (versión gratis .es), en el que él mismo entrevista y encuesta a muchos de los autores de artículos altamente citados, incluidos Premios Nobel. Las respuestas y su análisis estadístico quizás deberían ser lectura obligada a todos los investigadores jóvenes que se enfrentan a la publicación de sus primeros artículos. De 132 científicos que respondieron, sólo 47 (un 35.6%) afirmaron no tener problemas con los revisores y/o editor.

Lo dicho, el tema de la revisión por pares y la importancia de la opinión de los revisores siempre estará en el candelero.

El LHC del CERN arrancará en noviembre a media potencia (solo 7 TeV en lugar de 14 TeV previstos)

El CERN lo anunció ayer, tras varios meses de especulación, tras testear las 10.000 soldaduras en contactos no superconductores asociados a los imanes superconductores de la instalación, no es necesario más reparaciones, por lo que se arrancará el LHC en noviembre, pero a una energía más bien baja. Sólo 3.5 TeV por haz de protones, con lo que en el centro de masas se alcanzará la energía de 7 TeV (que será el récord cuando se logre). La pena es que esta energía es exactamente la mitad de los 14 TeV para los que fue originalmente diseñado. Lo leemos en “LHC to start at 3.5 TeV in November,” Symmetry breaking del Fermilab, August 6, 2009, haciéndose eco de la noticia “LHC to run at 3.5 TeV for early part of 2009-2010 run rising later,” CERN Press Release, August 6, 2009. Hasta inicios de 2011 no podemos esperar que el LHC empiece a funcionar a toda potencia, si todo va bien durante el año 2010. Crucemos los dedos.

PS (13 agosto 2009): En Science nos cuenta esta noticia Adrian Cho, “News of the Week. Particle Physics: Running at Half-Energy Keeps LHC in Race for Discoveries,” Science 325: 799, 14 August 2009, que enfatiza que si el LHC funciona durante un año a 7 TeV habrá que trabajar y recalcular qué se puede observar en dicho caso (¿para qué sirve?) ya que todo el mundo ha hechos los cálculos a 14 TeV [“If the bulk of the data is taken there, the question [of what can be seen at 7 TeV] becomes moot“].

El primer descubrimiento del LHC del CERN podría ser un bosón Z’ de 700 GeV según datos recientes del Tevatrón

Dibujo20090807_Invariant_mass_distribution_of_dielectron_data_compared_to_the_expected_Standard_Model_backgrounds

Un bosón Z’ con una masa de unos 700 GeV debería ofrecer eventos electrón-positón en el Tevatrón con una probabilidad de 0,1 según el Modelo Estándar, sin embargo, combinando datos de CDF y DZERO se han observado 3 eventos de este tipo. Sólo son 3, pero son 30 veces más de los esperados. Obviamente, no es suficiente para proclamar un nuevo descubrimiento, pero sí para tener cierta esperanza. Si de verdad existe este bosón Z’, lo mejor de todo es que en el LHC, tanto los detectores CMS como ATLAS, lo detectarán casi inmediatamente (a los pocas semanas de obtener datos). En dicho caso, como viene siendo habitual, los bosones se seguirán descubriendo en Europa. Por supuesto, esto es pura especulación y los resultados del Tevatrón podrían ser solo una fluctuación aleatoria del background (fondo de partículas). Nos lo cuenta magistralmente, como no, el maestro Tommaso Dorigo, “A New Z’ Boson at 240 GeV ? No, Wait, at 720!?,” A quantum diaries survivor, August 3rd 2009. Tommaso, siempre con los pies en la tierra, quizás porque es físico de partículas experimental que trabaja a ambos lados del Atlántico, en el CDF del Fermilab y en el CMS del CERN, considera esta posibilidad como remota, pero en su interior se alegraría muchísimo de que acabara siendo verdad.

La evidencia encontrada es solo de 3 desviaciones típicas, cuando se requieren al menos 5 para poder proclamar un descubrimiento. Ya se han dado múltiples casos en los que una evidencia de este tipo ha acabado en el cubo de la basura y ha acabado resultando una mala pasada, una fluctuación aleatoria, de los datos.

La evidencia encontrada de una partícula que se desintegra en un par electrón-positón (que los físicos de partículas llaman un dielectrón) lleva directamente más allá del Modelo Estándar, ya que el único candidato razonable para tal desintegración es un bosón vectorial similar al bosón Z de la interacción electrodébil, pero de mayor masa. Hay varias teorías que nos indican que tal bosón vectorial debe existir.

Sin entrar en más detalles técnicos, los interesados pueden recurrir a la publicación original del CDF del año pasado The CDF Collaboration, “High-Mass Dielectron Resonance Search in p¯p Collisions at ps =1.96 TeV,” CDF, Fermilab, March 6, 2008, y al nuevo artículo con los resultados de DZERO “Search for high-mass narrow resonances in the di-electron channel at D0. Luminosity: 3600 pb-1,” Conference Note 5923-CONF, 06/04/09. El artículo de Tommaso en su blog combina ambos resultados de su propia mano, obteniendo una figura “no oficial” de la que extrae sus conclusiones, como explica claramente en “A New Z’ Boson at 240 GeV ? No, Wait, at 720!?,” A quantum diaries survivor, August 3rd 2009.

Varapalo para la teoría de cuerdas: existe una teoría cuántica de la gravedad en 4D (cuatro dimensiones) finita, la supergravedad N=8

Dibujo20090807__two_gravitons_collision_sum_many_processes_involving_more_and_more_closed_particle_loopsTodo el mundo sabe que una teoría cuántica de la gravedad en la que las partículas son puntuales no funciona. ¿Para qué investigar en esta línea si no lleva a ninguna parte? Zvi Bern y sus colegas han decidido arriesgarse tratando de demostrar que una teoría cuántica de la gravedad (supergravedad N=8) con partículas puntuales funciona. Y lo han logrado, la teoría es finita perturbativamente hasta cuatro bucles en la interacción gravitón-gravitón, aunque solo en dimensiones 4 y 5. Les avala un artículo aceptado para publicación en Physical Review Letters en el que demuestran que esta teoría que todo el mundo sabía que no funcionaba, en realidad, parece que sí funciona. Y es que Zvi Bern, físico de la Universidad de California, Los Angeles, ya lo tenía claro en 2005: el dinero para investigar se obtiene siguiendo la corriente (“it was clear that in science the big money is in overturning the accepted beliefs”), pero a él le gusta ir contra corriente, aunque requiera asumir que se va a recibir poca financiación. En ciencia, la libertad está por encima de todo, como nos cuenta Adrian Cho, “Can Gravity and Quantum Particles Be Reconciled After All?,” Science 325: 673, 7 August 2009, haciéndose  eco de la aceptación en Physical Review Letters del articulo “The Ultraviolet Behavior of N=8 Supergravity at Four Loops,” de Z. Bern, J. J. Carrasco, L. J. Dixon, H. Johansson, R. Roiban, ArXiv preprint submitted on 14 May 2009.

Uno de los grandes éxitos de la teoría de cuerdas a mediados de los 1980 fue el fracaso de la supergravedad N=8. Se había demostrado que era finita hasta dos bucles en la interacción gravitón-gravitón, pero los cálculos para más de dos bucles parecían extremadamente complicados y la evidencia clamaba a que no conducirían a un resultado finito. Pocos continuaron trabajando en esta línea. Entre ellos, nuestros héroes Bern, Dixon, et al., que ya en 2007, probaron que la teoría era finita hasta 3 bucles. Muchos pensaron en aquel momento que era un resultado casual y pocos le prestaron atención. Sin embargo, el nuevo resultado, la teoría también es finita a 4 bucles, abre el camino para que esta teoría sea finita a todos los órdenes. ¿Se cumplirá el “milagro” y lo será? (“If N = 8 supergravity were finite to all orders, it would be a miracle“).

No lancemos las campanas al vuelo, la supergravedad N=8, incluso si es finita a todos los órdenes en dimensión 4, no puede ser una teoría cuántica de la gravedad completamente coherente, como nos recuerda el famoso teórico de cuerdas John Schwarz. No basta que la teoría sea finita en el sentido de la teoría de perturbaciones, también tiene que ser consistente en un sentido no perturbativo. Schwarz cree que su versión no perturbativa es en realidad la teoría de cuerdas. ¡Faltaría más, que si no va a decir un teórico de cuerdas!

Para mí, lo interesante de esta noticia es que en ciencia no puedes decir “nunca jamás.” Si alguien afirma, sin demostración, que algo es imposible, lo único que está afirmando es que no quiere trabajar para lograrla. Siempre hay una puerta trasera para los que trabajan duro y con las ideas claras. Aunque publiquen menos, aunque les cueste más publicar, aunque reciban menos financiación, el trabajo duro siempre acaba conduciendo a una buena recompensa. A todos nos gustaría, por la buena salud de la física teórica de partículas elementales, que al final la supergravedad N=8 acabe siendo finita a todos los órdenes. Aunque los teóricos de cuerdas acaben apropiándose del logro y encuentren una nueva dualidad que la convierta en otra faceta más de la teoría de todo (su teoría de cuerdas).