El método más rápido para determinar el espín del bosón de Higgs

Hay un método para saber si la partícula descubierta en el LHC el 4 de julio es una partícula de espín cero escalar (0+), pseudoescalar (0-), o si tiene espín dos (2+), que se basa en un método ya propuesto para las colisiones en LEP. Como no, John R. Ellis y varios colegas han rescatado este método basado en la distribución de la masa invariante en las colisiones que producen un Higgs y un bosón vectorial W o Z, es decir, las colisiones pp→ZH, y pp→WH. Utilizando simulaciones por ordenador en PYTHIA y Delphes, estos físicos han mostrado que las colisiones acumuladas a fecha del 4 de julio podrían ser suficientes para decidir esta importante cuestión. Como es obvio, todavía el método no ha sido aplicado a datos reales. Según este artículo teórico, los datos actuales en el LHC7+LHC8 podrían presentar mucho ruido, pero los datos recabados por el Tevatrón (combinando DZero y CDF) serían suficientes. Lo que reafirma la enorme importancia de los datos de colisiones obtenidos por el Tevatrón en la búsqueda del Higgs. Por supuesto, habrá que esperar cierto tiempo hasta que los físicos experimentales apliquen este método a los datos reales de colisiones, aunque todo apunta a que en los próximos meses se podría decidir la cuestión del espín de la nueva partícula descubierta en el LHC  con una masa entre 125 y 126 GeV. El artículo técnico, para los interesados en los detalles, es John Ellis et al., «A Fast Track towards the `Higgs’ Spin and Parity,» arXiv:1208.6002, Subm. 29 Aug 2012.

PS (8 sep. 2012): Solo en el canal difotónico, con 25 /fb de colisiones en ATLAS y CMS, ya es posible determinar el espín del Higgs (separando espín cero de espín dos al menos a 5 sigmas) según el artículo de Alexandre Alves, «Is the New Resonance Spin 0 or 2? Taking a Step Forward in the Higgs Boson Discovery,» arXiv:1209.1037, Subm. 5 Sep 2012.

Nota dominical: Abdus Salam y el premio Nobel que quizás no mereció

El premio Nobel de Física de 1979 para Sheldon Lee Glashow, Abdus Salam y Steven Weinberg ha sido polémico por muchos motivos. Para algunos fue concedido de forma prematura cuando las pruebas a favor de la teoría electrodébil aún no eran concluyentes. Para otros, Abdus Salam no merecía haberlo recibido. Su artículo de 1968  sobre la teoría electrodébil, que le hizo merecedor del Nobel, fue escrito tras haber leído el artículo de 1967 de Weinberg. Además, dicho artículo no relacionó las masas de las partículas W y Z entre sí, como hizo Weinberg. Tampoco pasó por revisión por pares, pues fue publicado en las actas de un congreso. Más aún, se basa en un artículo previo junto a Ward en 1964 que presentaba una copia descarada del modelo que Glashow había presentado tres años antes. Y finalmente, su colaborador Robert Delbourgo afirma que él mismo fue quien llamó la atención de Salam sobre el artículo de Weinberg. Por todos estos argumentos, Frank Close considera que Abdus Salam no merecía el premio Nobel y nos lo cuenta en el capítulo 15, «Warmly admired, richly deserved,» de su último libro «The Infinity Puzzle: Quantum Field Theory and the Hunt for an Orderly Universe,» Basic Books, November 2011.

Cuando Salam defendió su tesis doctoral, uno de los miembros del tribunal, Rudolf Peierls, le preguntó si había alguna razón física para que el neutrino fuera una partícula sin masa. Salam le dijo que no la conocía. Peierls confesó que él tampoco. Pero Salam le dio vueltas a dicha idea y encontró una solución, la violación de la paridad; le ofreció a Peierls ser coautor, pero él declinó [1]. En 1971, Salam afirmaba por doquier que dicho trabajo era su mejor trabajo científico y que era un trabajo que merecía un premio Nobel.

En marzo de 1967, Tom Kibble (Imperial College), uno de los padres del mecanismo de Higgs en 1964, sugirió en un artículo [2] que habría que estudiar su aplicación a la teoría de Yang-Mills basada en SU(2)xU(1). Se cree que Weinberg empezó a trabajar en ello tras leer dicho artículo. Por lo que cuenta Frank Close en su libro, Kibble le propuso personalmente a Salam que también lo hiciera; de hecho, siempre llamó «mecanismo de Higgs-Kibble» a la rotura espontánea de la simetría.

Salam impartió tres conferencias en el Imperial College durante el otoño de 1967 sobre el tema. No se sabe casi nada de estas charlas, que aún siguen siendo un gran misterio. Asistieron entre 3 y 5 personas, nadie tomó notas y nadie recuerda lo que contó, pues estos temas eran muy exóticos en esta época. Kibble no pudo asistir porque estaba de sabático en EEUU. Robert Delbourgo asistió, pero no tomó notas, ni recuerda su contenido, aunque sospecha que debió ser similar al del artículo de Weinberg, porque cuando apareció dicho artículo se lo enseñó a Salam y éste le dijo que Weinberg había seguido sus mismos pasos.

La fecha de las charlas de Salam no la sabe nadie, pero Frank Close cree que debieron ser entre el 5 y el 21 de octubre de 1967. El 2 de octubre, Weinberg contó el artículo que estaba escribiendo en una conferencia Solvay en Bruselas, envió dicho artículo al finalizar dicha conferencia [4]. ¿Conocía Salam el contenido del trabajo de Weinberg antes de impartir sus charlas? Frank Close no pone la mano en el fuego.

Salam impartió un conferencia en 1968 en el 8th Nobel Symposium en Göteborg donde revisó su trabajo previo con Ward sobre el modelo SU(2)xU(1), añadiendo unos breves comentarios afirmando que la rotura espontánea de la simetría era el ingrediente que le faltaba a dicho modelo para ser una teoría viable. Se cree que esta charla fue la que le colocó en la antesala del premio Nobel. En el correspondiente artículo [3] en las actas (Proceedings) de dicho congreso citó solo tres referencias y una de ellas era el artículo de Weinberg de 1967 [4].

En enero de 1978, un famoso artículo de David Bailin y Norman Dombey sobre la teoría electrodébil apareció en la revista Nature [5]. Dicho artículo solo habla del «modelo de Weinberg,» citando el artículo de Weinberg en 1967, el de Glashow de 1961 y el Salam y Ward de 1964, pero no aparece ninguna mención a las contribuciones de Salam en 1967, o en 1968.

Una conferencia que nadie recuerda y un artículo en un congreso que cita el trabajo previo de Weinberg, ¿son suficientes para merecer un premio Nobel? ¿Cómo pudo recibir Salam un premio Nobel por una contribución tan escasa? Paul Matthews, amigo y colaborador de Salam, envió en 1976 una carta a Ivar Waller, presidente del Comité Nobel de Física, «confirmando» que había asistido a las tres conferencias de Salam, que habían tenido lugar antes de la publicación del artículo de Weinberg y que habían presentado la misma teoría. Además, Tom Kibble nominó a Salam para el Nobel de 1979 glosando sus virtudes y omitiendo cualquier referencia a su propio papel.

¿Mereció Abdus Salam el premio Nobel de Física de 1979? ¡Y a quién le importa!

[1] Abdus Salam, «On parity conservation and neutrino mass,»Il Nuovo Cimento 5: 299-301, 1957.

[2] T. W. B. Kibble, «Symmetry Breaking in Non-Abelian Gauge Theories,» Phys. Rev. 155: 1554–1561 (1967).

[3] Abdus Salam, «Weak and electromagnetic interactions,»in «Elementary Particle Theory. Relativistic Groups and Analyticity,» Proceedings of the 8th Nobel Symposium, ed. N. Svartholm, Almquist and Wiksel, Stockholm, pp. 367-377 (1968) [reimpreso en la página 244 del libro «Selected Papers of Abdus Salam,» World Scientific, 1994].

[4] Steven Weinberg, «A Model of Leptons,» Phys. Rev. Lett. 19: 1264–1266 (1967).

[5] David Bailin, Norman Dombey, «SU(2)xU(1): A gauge theory of weak interactions?,» Nature 271: 20-23, January 1978.

Los conceptos de campo, partícula, partícula virtual y vacío

El problema Clay del Milenio del «salto de masa» en las teorías cuánticas de Yang-Mills es un ejemplo claro de que los físicos y los matemáticos no se entienden entre sí, salvo en contadas excepciones. Los físicos desean realizar cálculos para comparar las predicciones de la teoría en los experimentos, aceptando desarrollos matemáticos «formales» que parecen repletos de agujeros a ojos del matemático, acostumbrado al rigor como sustituto del entendimiento. Los físicos creemos entender las leyes de la Naturaleza, pero más que entenderlas las intuimos; conforme un físico madura se va acostumbrando a trabajar con estas leyes y va creyendo que las entiende, actuando como si fueran lo más obvio del mundo. Pero en el fondo, todo físico sabe que no sabe nada (nociones tan básicas como qué es el tiempo, el espacio, la energía, etc., son hoy tan «oscuras» como hace unos siglos). Yo creo acertado decir que «en física uno no entiende las cosas, se acostumbra a ellas» (frase basada en la de John von Neumann: «Joven, en matemáticas uno no entiende las cosas, se acostumbra a ellas,» que se supone que respondió a Felix T. Smith cuando dijo que «Me temo que no entiendo el método de las características» [WikiQuote]).

Todo esto viene a cuento por la entrada de ayer. Hace unas semanas me pidieron que hablara de la formulación del problema del salto de masa en teorías de Yang-Mills usando un lenguaje matemático. Mañana me meteré en camisa de once varas y trataré de satisfacerles. Pero antes creo necesario recordar a los matemáticos (y a todos los demás) algunos conceptos básicos sobre teoría de campos, tanto clásicas como cuánticas. Me parece que sin estos conceptos será muy difícil que los matemáticos entiendan bien la entrada de mañana. Por supuesto, para entender bien lo que sigue es necesario estudiar un curso de teoría de campos; mi intención es solo presentar (o recordar) las ideas clave para la entrada de mañana, que estará repleta de matemáticas.

Los campos de Yang-Mills son versiones no lineales del campo electromagnético de Maxwell, por ello conviene recordar algunas cosas sobre teoría clásica de campos que en principio son bien conocidas. Matemáticamente, un campo es una función de una o varias componentes con un valor asociado a cada punto del espaciotiempo. Por ejemplo, al aire de la habitación en la que estás se mueve y podemos asignarle un campo de velocidad (o viento si prefieres), un vector que en cada punto indica la velocidad del aire. Este campo es efectivo, pues lo que se mueven son pequeños volúmenes de aire con un número suficientemente grande de moléculas como para utilizar una aproximación continua. No tiene sentido decir que cada punto tiene un vector asociado, pero es una buena aproximación macroscópica. Lo mismo pasa con el campo de temperaturas de tu habitación. Pero hay campos que creemos que se pueden asignar a cada punto del espaciotiempo, como el campo magnético producido por un imán o el campo gravitatorio que hace caer los objetos a tu alrededor. En física se usan campos escalares, vectoriales, espinoriales, tensoriales, tanto reales como complejos, en función de cómo se agrupen las componentes del campo en cada punto del espaciotiempo.

La teoría de la relatividad exige que los campos se transformen de tal forma que las medidas de magnitudes físicas asociadas al campo sean compatibles entre sí para  cualquier par de observadores que se mueven a velocidad constante, es decir, cuando sus sistemas de referencia inerciales están relacionados entre sí por una transformación de Lorentz o una traslación en el espaciotiempo (llamadas en conjunto transformaciones de Poincaré). Por ello, las matemáticas exigen que las componentes de los campos se transformen como componentes de «vectores» en una representación lineal del grupo de Poincaré; en estas representaciones lineales, las transformaciones (geométricas) de Poincaré se «representan» mediante matrices con la dimensión adecuada según el número de componentes del campo. He puesto «vectores» entre comillas para indicar que son elementos de un espacio vectorial (no solo lo son los vectores, también los escalares, espinores, tensores, etc.). El espín asociado al campo caracteriza el número de componentes del campo en una representación del grupo de Poincaré. A los campos con espín cero se les llama escalares, vectoriales a los que tienen espín uno, espinoriales a los que tienen espín un medio, etc. Quizás conviene recordar que el espín no tiene nada que ver con ningún giro, rotación o similar; recibe este nombre por una cuestión histórica, ya que las trayectorias de electrones en un campo magnético se curvaban, giraban, en un sentido u otro en función del espín en el experimento de Stern y Gerlach. El espín tiene las mismas unidades que el momento angular porque en ambos casos se trata de magnitudes cuyo origen es la necesidad de usar una representación lineal de un grupo continuo de simetrías (que en el caso del momento angular son las rotaciones en el espacio tridimensional).

Las ecuaciones de Maxwell se pueden escribir tanto utilizando los campos (eléctrico y magnético), como los llamados potenciales (escalar y vectorial). La gran diferencia entre los campos y los potenciales es que estos últimos contienen información redundante, es decir, más información de la necesaria para especificar de forma unívoca los campos. Por ejemplo, el valor del potencial escalar está indeterminado respecto a una constante y solo tiene sentido hablar de diferencias de potencial (lo que mide un voltímetro). Los matemáticos describen esta redundancia mediante simetrías «internas» (que reciben este nombre porque no son simetrías del espaciotiempo sino de las componentes del potencial del campo). La física (los valores medibles de los campos) no cambian cuando se aplican estas simetrías «internas» a las componentes de los potenciales. Estas simetrías se llaman transformaciones gauge (por analogía con las diferencias de potencial eléctrico) y se llama invarianza gauge de la teoría al hecho de que la física descrita no depende del gauge utilizado. Las simetrías gauge se describen mediante la teoría de grupos continuos (compactos) o grupos de Lie.

Los vectores tridimensionales que representan el campo eléctrico y el magnético no tienen las mismas propiedades, unos son vectores polares y los otros son vectores axiales (la diferencia es similar a la que hay entre la velocidad lineal y la velocidad angular, o entre un vector y el resultado del producto vectorial de dos vectores). Para unificar el campo electromagnético en una única entidad no se puede utilizar un vector hexadimensional ya que se destruiría esta diferencia. Hay que utilizar un objeto más complicado, un tensor antisimétrico de rango dos (una matriz de cuatro por cuatro de diagonal nula). Los potenciales también se pueden unificar en un único vector de cuatro componentes, así como las fuentes del campo, la densidad de carga y la de corriente eléctrica. Haciéndolo de esta forma, las cuatro ecuaciones de Maxwell se pueden escribir como una única ecuación (las dos ecuaciones de Maxwell sin fuentes se cumplen de forma automática y las dos ecuaciones con fuentes se reducen a una única ecuación). El objetivo de esta identificación entre los dos vectores del campo y un tensor antisimétrico no es solo ahorrar letras (y complicarle la vida a los ingenieros), sino entender lo que significa la unificación del campo electromagnético.

Una cuestión epistemológica (o metafísica) importante es qué es más fundamental, los campos o los potenciales. En la teoría clásica se pueden utilizar tanto los campos como los potenciales y como los campos requieren seis componentes en cada punto del espaciotiempo, pero los potenciales solo requieren cuatro componentes, podría parecer obvio que son más fundamentales los potenciales. De hecho, especificar las cuatro componentes de los potenciales permite determinar de forma única las seis componentes de los campos. Sin embargo, el asunto no es tan sencillo, pues hemos dicho más arriba que los potenciales contienen información redundante (la invarianza gauge). Los campos no determinan de forma única los potenciales. De hecho, los potenciales se comportan como si una de sus cuatro componentes sobrara y solo hubiera tres componentes realmente independientes. Se puede imponer una condición (fijar un gauge concreto) que elimine dicha componente, pero no existe ninguna razón física para preferir una manera de hacerlo a cualquier otra (a veces un gauge concreto simplifica ciertos cálculos pero complica otros y viceversa). La simetría gauge de los potenciales parece una propiedad intrínseca de nuestra manera de entender la Naturaleza.

Recreación artística del campo de un solo fotón. Fuente «Focus: Measuring the Shape of a Photon,» Physics http://physics.aps.org/articles/v5/86.

Hasta ahora solo he hablado de teorías clásicas de campos. Para cuantizar el electromagnetismo, en lugar de cuantizar directamente los campos (seis componentes), conviene cuantizar los potenciales del campo (cuatro componentes, aunque una de ellas es redundante). Las ecuaciones de Maxwell equivalen a una ecuación de onda lineal para los potenciales del campo, cuyas soluciones pertenecen a un espacio vectorial de dimensión infinita con un producto interior, es decir, un espacio de Hilbert (he obviado sutilezas como la completitud del espacio garantizada por la teoría de Sturm-Liouville). Gracias a ello, la cuantización del campo es directa y no reviste ninguna dificultad (de hecho ya se hizo en 1926, cuando Heinserberg, Born y Jordan introdujeron el fotón). La información redundante de los potenciales en la teoría clásica, la invarianza gauge, es heredada en la versión cuántica de la teoría. En la actualidad se cree que esta propiedad es tan importante que se puede darle la vuelta al argumento y considerarla como la propiedad que caracteriza a la teoría. El grupo de simetría gauge del electromagnetismo es el grupo de Lie U(1) y se puede demostrar que toda teoría de campos invariante ante este grupo coincide con el electromagnetismo. Muchos físicos afirman que la simetría determina el campo y sus ecuaciones. Obviamente, nadie entiende por qué la simetría de las redundancias en la especificación del campo mediante los potenciales es algo tan fundamental desde el punto de vista epistemológico. Pero a día de hoy, decir teoría gauge es sinónimo de teoría cuántica de campos.

La diferencia entre una teoría clásica de campos y una teoría cuántica de campos es que en la segunda las excitaciones localizadas del campo están cuantizadas, es decir, se pueden contar. Al integrar la energía o el momento en un pequeño volumen del campo, la física cuántica nos dice cuántas de estas excitaciones, ondas, fluctuaciones, rizos (ripples en inglés) hay en dicho volumen. Cada «excitación» tiene una energía y un momento dados (el momento determina la velocidad de la excitación, que en las partículas sin masa es proporcional a la energía pues éstas se mueven a la velocidad de la luz). Puede haber una, dos, tres, …, o cualquier número natural, incluso cero, pero no puede haber media excitación, o un tercio, o dos tercios, o cualquier otro número real. Cuando estas excitaciones cumplen la ecuación de Einstein E=m c², son excitaciones on-shell («cumplidoras») decimos que son las partículas del campo (en el caso del electromagnetismo son los fotones, que al ser partículas sin masa cumplen E=p c, pues los físicos siempre escribimos la fórmula de Einstein como E²=(m c²)²+(p c)²). Cuando estas excitaciones no cumplen con dicha ecuación son excitaciones off-shell («incumplidoras»)  que se llaman «partículas virtuales» (no tienen nada que ver con las partículas aunque su nombre puede confundir a los menos inquietos). Cuando el número de partículas (fotones) en cierto volumen elemental es cero, decimos que dicho volumen contiene el vacío del campo, cuya energía y momento totales son cero.

En un campo clásico el estado de vacío no contiene nada, está «quieto» y no presenta ninguna onda ni ningún otro tipo de fluctuación del campo. Sin embargo, en un campo cuántico el estado de vacío está continuamente fluctuando con excitaciones off-shell, por lo que es habitual decir que es un «mar de partículas virtuales» (pero no hay que olvidar que esto es solo una metáfora, que nadie se imagine partículas apareciendo y desapareciendo por doquier). La razón es que si escogemos cierto volumen del espaciotiempo y observamos que el campo en fluctuación está en estado de vacío en dicho volumen, podemos elegir volúmenes más pequeños y observar fluctuaciones que se comportan como «partículas virtuales» que aparecen y desaparecen sin violar la relación de incertidumbre de Heisenberg para la energía y la duración de un proceso, Δt ΔE ≥ ℏ, que permite que fluctuaciones tipo «partícula virtual» con energía ΔE siempre y cuando su duración sea menor de Δt. De hecho, las fluctuaciones del vacío son muy complicadas y si miramos un volumen cada vez más pequeño, ΔE cada vez más grande, seguimos observando más y más fluctuaciones aunque con duraciones cada vez más cortas, Δt cada vez más pequeño.

Los matemáticos dirán que estoy metiendo demasiada física y poca matemática. Los objetos matemáticos con los que hemos de lidiar en teoría de campos son el espaciotiempo, las representaciones lineales de los campos y los potenciales en dicho espaciotiempo, y los grupos de simetría gauge que se aplican a las componentes de estos potenciales, reflejando su redundancia física implícita. El formalismo matemático natural para describir todos estos objetos es la teoría de fibrados de la geometría diferencial. No entraré en definiciones matemáticas rigurosas, solo de interés para quien ya las conoce. Baste decir que un fibrado general es una terna de objetos: un espacio base, un espacio de fibras y un grupo de Lie de simetrías. El espacio base será el espaciotiempo en el que «viven» las fibras, que pueden ser los campos o los potenciales (cada fibra está asociada a un punto del espacio base) y el grupo de Lie representa las simetrías «internas» de las fibras. Lo más sorprendente para el matemático es que en física de partículas no se utiliza la teoría de fibrados más general posible, sino solo la teoría de fibrados principales. En un fibrado principal el espacio de fibras y el grupo coinciden, es decir, las fibras son las transformaciones geométricas del grupo y no hay que introducir un espacio de campos o de potenciales aparte. Todo funciona como si a cada punto del espaciotiempo le asignáramos un grupo de simetrías. Para el físico esto es muy abstracto, pero así son las cosas. Muchos físicos prefieren pensar en dimensiones extra del espacio tiempo que están compactificadas de tal forma que a baja energía «emerge» el grupo de simetrías, sin embargo, por ahora estas ideas tipo Kaluza-Klein son solo eso ideas y esta entrada no es lugar para discutirlas.

¿Qué son entoncces los campos y los potenciales en un fibrado principal? La geometría diferencial nos dice que si el espacio base es un variedad diferencial, entonces el fibrado hereda la estructura de variedad diferencial. En física, el grupo de simetría determina los potenciales y los campos porque los campos son el tensor de curvatura en el fibrado principal. Estoy hay que releerlo. Los campos son la curvatura geométrica del fibrado principal, que unifica espaciotiempo y el grupo de simetrías «internas» (epistemológicamente para un físico es difícil de entender algo tan abstracto). ¿Qué determina el tensor de curvatura? En geometría diferencial la curvatura requiere comparar dos puntos de una variedad y para ello hay que conectarlos de alguna forma, trasladando información geométrica de un punto al otro para poderla comparar; el concepto matemático que realiza esta conexión se llama, como no, conexión. Los potenciales de los campos son las conexiones en el fibrado principal. Por sorprendente que le parezca al matemático, el tensor Fμν del campo electromagnético es un tensor de curvatura y los potenciales Aμ son las conexiones que definen dicho tensor de curvatura. No es necesario introducir los potenciales o campos como fibras, pues emergen de la geometría diferencial del fibrado.

No quiero desviarme del objetivo, la geometría diferencial de las teorías de Yang-Mills, pero muchos lectores se estarán preguntando qué es el fibrado principal desde un punto de vista epistemológico. La verdad es que no lo sabemos. La idea más sugerente nos lleva a teorías de Kaluza-Klein, dimensiones extra del espaciotiempo y teorías de cuerdas. El espaciotiempo, a baja energía o distancias grandes comparadas con la escala de Planck, se comporta como si tuviera cuatro dimensiones y un grupo de simetrías asociado a cada punto. El grupo de simetría podría emerger de una teoría a alta energía o distancias comparables a la escala de Planck en la que hubiera cierto número de dimensiones extra del espacio. No observamos estas dimensiones extra porque serían muy pequeñas y estarían compactificadas (su «volumen» sería finito). Los campos emergerían de la curvatura de estas dimensiones extra. Obviamente, estas ideas son sugerentes, pero ahora mismo no hay evidencia experimental a su favor (aunque está siendo buscada con mucha intensidad desde muchos frentes). Volvamos a mi discurso de hoy.

En el marco de la teoría de campos moderna, los potenciales corresponden a conexiones y las componentes de los campos se pueden representar como componentes del tensor de curvatura asociado a estas conexiones. Los matemáticos saben que para definir el tensor de curvatura es suficiente concretar una conexión (los físicos decimos que el campo viene determinado por los potenciales), siendo superflua la métrica. Sin embargo, en las teorías de campos la métrica es fundamental para poder incluir fuentes de los campos. Para ello hay que utilizar el dual de Hodge de la curvatura, lo que exige especificar una métrica. Incluso en una teoría de campos pura, sin fuentes, los físicos utilizan una métrica para definir una magnitud escalar llamada acción del campo, cuya variación extremal determina las ecuaciones para el campo. Hablando sin rigor, la definición de la acción requiere el cuadrado de la curvatura, que obliga a la introducción de la métrica vía el operador estrella de Hodge. La métrica en el espaciobase es fundamental en teoría de campos gauge o campos de Yang-Mills. Para un físico puede ser obvio, pero quizás un matemático tiene que pensar más en ello.

¿Qué tiene que ver todo esto con el problema del milenio? En la entrada de mañana lo aclararé, pero adelanto que la cuantización de una teoría de campos de tipo Yang-Mills requiere realizar una integral en el espacio de conexiones y para ello hay que definir una métrica en el espacio de conexiones. Una formulación cuántica de una teoría de Yang-Mills requiere caracterizar en detalle las métricas posibles en el espacio de conexiones. Muchos expertos creen que el origen del «salto de masa» está en la topología (en concreto en la cohomología) del espacio de conexiones.

Antes de acabar, seguro que algún lector se preguntará, ¿dónde se encuentra el electrón y otras partículas en todo este lenguaje tan matemático? El electrón es la partícula que corresponde a las excitaciones de un campo, el campo «electrónico» (muchos físicos prefieren llamarlo «campo electrón»). Todos los electrones del universo son idénticos entre sí (indistinguibles) y tienen exactamente las mismas propiedades. La razón es que son excitaciones de un único campo (común a todos ellos), el campo electrón (el vídeo MinutePhysics lo explica muy bien). Este campo tiene espín 1/2, es decir, las excitaciones de este campo se comportan como un vector de cuatro componentes divididas en dos parejas. Más aún, el electrón y el positrón (su antipartícula) son excitaciones diferentes del mismo campo, no son dos campos separados. Aplicando un gauge adecuado se pueden separar las cuatro componentes de tal forma que una pareja representa al electrón y la otra pareja al positrón. Además, las dos componentes de cada pareja corresponden a partículas con helicidad derecha y helicidad izquierda, respectivamente (la helicidad es la proyección del espín en la dirección del momento, es decir, de la velocidad). Dos electrones pueden ocupar el mismo nivel atómico en un átomo (tener la misma energía) si tienen espines opuestos, es decir, si uno corresponde a las excitaciones de las componentes de la pareja y el otro a las de la otra componente.

Y para acabar. El electrón tiene masa porque se acopla al campo de Higgs que logra intercambiar excitaciones de las componentes del campo de helicidad derecha en excitaciones de las componentes del campo de helicidad izquierda y viceversa. El campo de Higgs es, en última instancia, la causa de que no haya dos electrones en la Naturaleza, uno con helicidad derecha y otro con helicidad izquierda, permitiendo que haya un único electrón que «oscila» entre una helicidad y la otra comportándose como si tuviera masa no nula. Pero esta cuestión será discutida en más detalle en una futura entrada.

Qué sabemos sobre la masa del gluón

¿Qué límites experimentales hay para la masa del gluón? Según el Particle Data Group, la masa del gluón es cero por motivos teóricos (y los experimentos son compatibles con una masa menor de unos pocos MeV). En cromodinámica cuántica (QCD) la masa del gluón es exactamente cero, igual que en la electrodinámica cuántica (QED) lo es la masa del fotón. La gran diferencia entre el gluón y el fotón es que en el caso del fotón los experimentos indican que esta afirmación es muy fiable, la masa del fotón es menor de 10-24 MeV según el PDG, mientras que en el caso del gluón, que es una partícula que no podemos observar de forma aislada, los experimentos no aportan información tan fiable al respecto.

Hay muy pocos estudios que estimen la masa del gluón (Mg) de forma experimental y entre ellos destaca con luz propia el del español Francisco J. Ynduráin [1] que estimó la masa del gluón de tres formas diferentes. La primera, a partir de la estabilidad del protón (su vida media), Mg < 20 MeV (yo estimo que su cálculo daría hoy un valor de Mg < 4 MeV). La segunda, gracias a que no se han observado partículas con carga fraccionaria (quarks aislados), Mg < 1,3 MeV (yo estimo que su cálculo daría hoy un valor de Mg < 0,4 MeV). Y la tercera, utilizando argumentos cosmológicos debido a la ausencia de un fondo cósmico de quarks y gluones, Mg < 2×10-10 MeV (es decir, 1/Mg > 1 mm); no sé cómo estimar el valor actual de esta cota, pero intuyo que debería ser de unos de 4 o 5 órdenes de magnitud más pequeña gracias a los datos de WMAP-7. Según Ynduráin (que fue uno de los mayores expertos del mundo en la fenomenología de la QCD), la cota más fiable es esta última, con lo que podemos decir que las medidas cosmológicas confirman que el gluón no tiene masa. Asunto zanjado.

Bueno, no vayamos tan rápido. Recientemente se han publicado varios artículos que presentan cálculos teóricos de la llamada masa efectiva del gluón que afirman que si bien la simetría gauge y la teoría perturbativa en QCD implican masa nula, efectos no perturbativos permiten la generación dinámica de masa sin violar la simetría gauge. Esta masa dinámica aparece en el límite infrarrojo (distancias grandes o energía pequeñas), manteniendo una masa nula en el límite ultravioleta (distancias pequeñas o energías grandes), por ello puede esquivar el límite cosmológico de Ynduráin, siendo compatible con todos los resultados experimentales actuales. Algún físico que lea esto dirá que son puras elucubraciones de algunos teóricos, pero creo que merece la pena una nota breve sobre su trabajo. Destacaré el trabajo liderado por Joannis Papavassiliou (UV/IFIC, Valencia), aprovechando su reciente trabajo D. Binosi, D. Ibañez, J. Papavassiliou, «The all-order equation of the effective gluon mass,» arXiv:1208.1451, Subm. 7 Aug 2012.

Un buen punto de partida es el artículo [2]. Se parte de la ecuación de Schwinger-Dyson para el propagador del gluón y se estudian sus soluciones finitas en el límite infrarrojo, que están asociadas a la generación de una masa efectiva para el gluón. Esta «masa» del gluón no se puede medir directamente, pero está relacionada con la masa de las «glubolas» (las «glueballs» son estados ligados solo de gluones), los condesados de gluones, la energía del vacío en QCD y la regulación de divergencias infrarrojas en QCD. La masa dinámica m²(q²) es una función monótona decreciente del momento (o energía), cumpliendo que m²(0)>0 y m²(∞)=0. En esta figura aparece calculada numéricamente [2]. Según muestra la figura, para energías muy grandes (mayores de cientos de GeV) su valor se anula, pero para energías pequeñas (por debajo de unas decenas de GeV) se alcanza un valor asintótico de unos 0,45 GeV/c² (el valor depende de los parámetros 1/d(0) y σ, los interesados en saber cuáles son sus efectos deberán consultar el artículo [2]).

Estudiar el efecto de la masa efectiva del gluón en los experimentos de alta energía es difícil, pero los resultados experimentales del Heavy Flavor Averaging Group(HFAG) apuntan a un valor de Mg = 0,45 ∼ 0,55 GeV, en buen acuerdo con las estimaciones teóricas, como muestra esta tabla extraída del artículo [3]. Aunque la masa efectiva del gluón no puede medirse de forma experimental, su efecto como regularizador de las divergencias infrarrojas permite contrastar los resultados teóricos y experimentales. Los resultados de las factorías B, como BABAR (SLAC) y BELLE (KEK), son sensibles (de forma indirecta) al valor de Mg y apuntan a un valor de Mg = 500 ± 50 MeV.

Otro método para estudiar la masa efectiva del gluón es el límite infrarrojo de las simulaciones numéricas en QCD en redes (lattice QCD). Un cálculo reciente apunta a una valor de Mg ∼ 0,6 GeV (ver la figura) [4], mientras otros apuntan a Mg = 0,55 GeV como [5]; la anchura de la resonancia Γg ≈ 1180 MeV apunta a una vida media muy corta Tg < 10−24 s [5].

En resumen, hay indicios teóricos y numéricas de la existencia de una masa no nula para el gluón en el régimen infrarrojo que se anula en el régimen ultravioleta; dichos indicios son compatibles con los resultados experimentales actuales. Como se trata de un resultado no perturbativo del modelo estándar, muchos físicos lo ven como física más allá del modelo estándar (perturbativo, la coletilla que yo creo que habría añadir). Para mí lo más interesante de esto es que nos recuerda que hay muchas cosas del modelo estándar que aún no conocemos, aunque las intuyamos.

[1] F.J. Ynduráin, «Limits on the mass of the gluon,» Physics Letters B 345: 524–526, 1995.

[2] Arlene C. Aguilar, Joannis Papavassiliou, «Gluon mass generation in the PT-BFM scheme,» JHEP 0612: 012, 2006 [arXiv:hep-ph/0610040].

[3] Qin Chang, Xin-Qiang Li, Ya-Dong Yang, «Revisiting B→πK, πK* and ρK decays: CP violations and implication for New Physics,» JHEP 0809: 038, 2008 [arXiv:0807.4295].

[4] Hideo Suganuma, Takumi Iritani, Arata Yamamoto, Hideaki Iida, «Lattice QCD Study for Gluon Propagator and Gluon Spectral Function,» PoS (Lattice) 2010: 289, 2010 [arXiv:1011.0007].

[5] Attilio Cucchieri, David Dudal, Tereza Mendes, Nele Vandersickel, «Massive gluon propagator at zero and finite temperature,» PoS (QCD-TNT-II) 2011: 030, 2011 [arXiv:1202.0639]; Attilio Cucchieri, David Dudal, Tereza Mendes, Nele Vandersickel, «Modeling the Gluon Propagator in Landau Gauge: Lattice Estimates of Pole Masses and Dimension-Two Condensates,» arXiv:1111.2327, Subm. 9 Nov 2011.

La banana cósmica primordial y la materia oscura «caliente»

El modelo cosmológico de consenso asume que la materia oscura es «fría» (CDM). La solución ideal viene de la mano de la supersimetría y el llamado «milagro WIMP,» una (super)partícula con una masa de unos GeV. Sin embargo, todos los experimentos que la han buscado han fallado. Además, los modelos numéricos de la dinámica de la formación galáctica en la era oscura del universo encuentran algunos problemas que podrían estar asociados a la materia oscura «fría» y que la materia oscura «caliente» podría resolver; en dicho caso se trataría de una partícula ultrarrelativista con una masa entre 1 y 10 keV (del orden del 10% de la masa del electrón). Lo más natural es pensar en los neutrinos estériles. Los últimos datos cosmológicos apuntan a un número de neutrinos (efectivos) igual a Neff≈4,0 (valor a confirmar de forma definitiva por el satélite Planck en febrero de 2013), pero solo hemos observado tres familias de neutrinos. ¿Cómo podemos encajar todas las piezas de este puzzle?

La extensión más sencilla del modelo estándar que explica estas discrepancias consiste en asociar a cada familia de leptones un neutrino estéril. Solo el más ligero (el asociado a la familia del electrón) tiene una vida media que le permite influir en los límites cosmológicos para el número efectivo de neutrinos y por eso Neff≈4,0. Este neutrino estéril es el candidato ideal a la partícula responsable de la materia oscura caliente. Los experimentos KATRIN y MARE podrían resolver esta cuestión ya que son sensibles a un neutrino estéril con una masa de hasta 18 keV. KATRIN (Karlsruhe Tritium Neutrino Experiment) estudia la desintegración beta del tritio en helio-3, y MARE (Microcalorimeter Arrays for a Rhenium Experiment) la del renio-187.

Desde el punto de vista de la cosmología, la idea de la materia oscura «caliente» está captando cada día más adeptos. Me lo ha recordado el modelo de la banana cósmica primordial de Norma G. Sánchez y sus colegas del Observatorio LERMA. Los interesados pueden consultar las charlas de Norma G. Sánchez, «The Primordial Cosmic banana from WMAP to Planck. Warm (keV)Dark Matter from primordial fluctuations and observations,» 15th Paris Cosmology Colloquium, Chalonge 2011, y «ΛWDM: Galaxy Formation in Agreement with Observations,» 16th Paris Chalonge Colloquium 2012, Paris Observatoire 25-27 July 2012. Para los que prefieren artículos técnicos, recomiendo H. J. de Vega, N. G. Sanchez, «Model independent analysis of dark matter points to a particle mass at the keV scale,» Mon. Not. Roy. Astron. Soc. 404: 885, 2010 [arXiv:0901.0922], y H. J. de Vega, P. Salucci, N. G. Sanchez, «The mass of the dark matter particle from theory and observations,» New Astronomy 17: 653-666 (2012) [arXiv:1004.1908].

Uno de los problema más importantes del modelo de materia oscura «fría» (CDM) es que predice la formación de un número demasiado grande galaxias satélite durante las primeras fases de la evolución galáctica. El modelo de materia oscura «caliente» (WDM) predice un número más próximo al número de galaxias satélite observadas en nuestra galaxia y en las galaxias del grupo local. Sin embargo, muchos expertos aún prefieren el modelo CDM opinan que la falta de galaxias satélite es debida a que no las podemos observar porque son demasiado débiles. Pero creo que hay que recordar que le modelo WDM fue abandonado por que los neutrinos no explicaban la materia oscura (se formaban burbujas no observadas en el universo), pero los neutrinos estériles no tienen dichos inconvenientes.

El año que viene será clave para los proponentes del modelo de materia oscura «caliente,» aunque quizás la Naturaleza nos de una sorpresa y la materia oscura sea cierta combinación CDM + WDM. Nunca se puede descartar nada.

Edward Witten revisita la teoría de supercuerdas perturbativa en Strings 2012

Me gusta esta figura porque muestra muy claramente lo que conocemos en física de partículas, lo que esperamos explorar en las próximas décadas, y lo que creemos conocer, aunque nunca llegaremos a explorar de forma directa. La partícula con más masa conocida tiene menos de 200 GeV y todavía se sigue explorando entre 10 a 200 GeV en busca de nuevas partículas. Basta recordar que se acaba de descubrir una partícula con 125 GeV de masa, el bosón de Higgs, y que muchos físicos creen que la partícula responsable de la materia oscura tiene una masa en este rango. El LHC y sus sucesores en las próximas décadas explorarán las energías entre 100 y 5000 GeV (difícilmente podrán llegar más lejos). Sin embargo, hay un desierto hasta energías de 10 000 000 000 GeV (la escala de Planck) que no hemos explorado, que no podremos explorar en el siglo XXI y del que no conocemos absolutamente nada, aunque imaginamos muchas cosas.

Imaginamos que no hay nada hasta energías de unos 1000 000 GeV, el llamado desierto. Imaginamos que a dicha energía se unifican las tres interacciones del modelo estándar en una única interacción común, a veces llamada superfuerza. Imaginamos que la gravedad se unifica con esta superfuerza a una energía mayor, quizás cercana a la de Planck, donde imaginamos que domina la gravedad cuántica (quizás una teoría de cuerdas). Imaginamos muchas cosas  y utilizamos unas herramientas matemáticas muy complicadas para darle cuartelillo a nuestra imaginación, pero realmente no sabemos nada sobre estas escalas de energía.

¿Qué misterios ocultará la escala que podemos explorar con el LHC? ¿Qué misterios ocultará la escala de los 1000 GeV (1 TeV)? ¿Qué misterios ocultará la naturaleza en el desierto, hasta energías del orden de 1000 000 GeV, la gran unificación? ¡Qué poco sabemos y cuánta gente habla de ello como si lo supiéramos! ¡Cómo nos gusta hablar de lo que nunca llegaremos a explorar de forma directa con los experimentos!

Aún así, me encantan las conferencias Strings. Algunas charlas son muy técnicas, pero otras no tanto. Hoy destacará dos charlas de Edward Witten, una divulgativa y otra técnica, aunque no tan técnica como nos tiene acostumbrado en otras ocasiones.

La divulgativa es Edward Witten (IAS), «String Theory And The Universe,» Strings 2012, July 28, 2012 [slides] [vídeo flash]. No sé si alguna vez has visto una charla de Witten en directo o vía web, pero su costumbre es rellenar las transparencias con el texto de lo que va diciendo. No lee el texto, pero tiene bien preparada la charla y recita algo muy parecido a lo que está escrito. Por ello, ver sus transparencias, cuando no hay vídeo, nos permite seguir muy bien lo que ha contado. En esta charla el lenguaje es sencillo, muy sencillo. Nos repasa todo lo que sabemos sobre el universo y qué papel podría jugar la teoría de cuerdas en todo ello. Para los físicos, la charla no aporta nada nuevo. Pero como está dirigida a un público general quizás muchos lectores de este blog la disfrutarán.

La más técnica, solo para físicos, es Edward Witten (IAS), «Superstring Perturbation Theory Revisited,» Strings 2012, July 24, 2012 [slides] [vídeo flash]. Esta charla nos retrotrae a la historia de la teoría de cuerdas en los 1980. En lugar de discutir el límite ultravioleta (para distancias muy cortas) de la teoría de cuerdas, que no presenta divergencias (ultravioletas), aunque nadie lo entiende salvo a nivel cualitativo, se centra en el límite infrarrojo (para distancias grandes), que corresponde a una teoría cuántica de campos (QFT) a baja energía con las mismas partículas (sin masa) e interacciones. En el límite infrarrojo es más difícil hacer perturbaciones en teoría de (super)cuerdas que en teoría de campos supersimétricos y Witten repasa los avances que hubo en este tema alrededor de 1986.

Lo más curioso de esta charla es que me da la sensación que Witten cree que los jóvenes teóricos de cuerdas han olvidado que los grandes avances de finales de los 1980 no resolvieron todos los problemas de la teoría de (super)cuerdas perturbativa. Hay aún muchos cabos sueltos en ciertos aspectos técnicos de la teoría de cuerdas que no se pudieron resolver entonces, pero los más jóvenes prefieren dedicarse a temas de mayor actualidad. Creo que, aunque no lo hace de forma explícita, Witten recomienda en esta charla a los jóvenes teóricos trabajar en estos asuntos pues muchas cosas que ya se deberían dominar en detalle aún pueden reservar sorpresas. Porque en teoría de cuerdas también hay muchas cosas que imaginamos que conocemos bien, pero solo lo imaginamos.

No voy a resumir su charla, solo haré un breve comentario. La teoría de perturbaciones tiene dos límites bien diferenciados, el ultravioleta (distancias cortas y energías altas) y el infrarrojo (distancias grandes y energías bajas). La teoría cuántica de campos perturbativa tiene un límite infrarrojo bien definido (verificado por los experimentos) y su límite ultravioleta aún causa dificultades, que los expertos evitan suponiendo que la teoría es «efectiva» y que en dicho régimen será substituida por una teoría más fundamental (como la teoría de cuerdas). Por el contrario, la teoría de cuerdas perturbativa tiene un límite ultravioleta bien definido (sin infinitos), pero su límite infrarrojo presenta enormes dificultades asociadas al problema del landscape porque la teoría puede predecir a baja energía cualquier cosa. Uno de los grandes problemas de la teoría de cuerdas es ligar en detalle el límite ultravioleta de la teoría cuántica de campos con el infrarrojo de la teoría de cuerdas. Muchos físicos jóvenes creen que este asunto ya está resuelto, que casi es trivial, pues se hicieron grandes avances a finales de los 1980, pero lo que Witten les recuerda en su charla es que no deben engañarse.

Nos encanta llenarnos la boca con las palabras «teoría no perturbativa» tanto en teoría de cuerdas como en teoría cuántica de campos, pero hay muy poco que se sepa sobre el comportamiento de estas teorías que no se puede modelar con teoría de perturbaciones. Se habla tanto del régimen no perturbativo de estas teorías que un lego puede creer que ha habido grandes avances en este régimen en las últimas décadas, pero la verdad es que los avances han sido más bien pobres, aunque han costado tanto que presumimos de ellos a dos carrillos.

Cualquier teórico de cuerdas que lea esto me dirá que estoy completamente equivocado. Y lo reconozco, lo estoy, pero le recomiendo ver el vídeo de la charla del gran gurú de la teoría de cuerdas.

Polchinski y varios colegas afirman que un agujero negro «viejo» será una «incineradora infernal»

Recreación artística (izqda.) y diagramas de Penrose-Carter y de Kruskal (drcha.) para el «muro de fuego» en un agujero negro según Susskind.

NOTA IMPORTANTE: Esta entrada la escribí antes de saber que Leonard Susskind ha retirado de ArXiv (3 Aug 2012) su artículo porque ahora cree que su argumento no es correcto. Aún así, mantengo la entrada como fue escrita en su momento. Rectificar es de sabios y a Susskind se le perdona todo.

Hay artículos polémicos que nos hacen pensar sobre todo lo que creemos saber. Todo el mundo sabe que al atravesar el horizonte de sucesos de un agujero negro no se nota nada, aunque ya nunca se podrá volver a salir de su interior. Un artículo de Joseph Polchinski et al. [1] y otro de Leonard Susskind [2] afirman que esto no es verdad para un agujero negro «viejo» (que supere la edad de Page en la que la mitad de su entropía inicial se ha evaporado por  radiación de Hawking). Para estos agujeros negros el horizonte de sucesos será una «incineradora infernal» o un «muro de fuego» (firewall) que destruirá todo lo que intente atravesarlo, una extensión de la singularidad hasta el mismo horizonte de sucesos. Por supuesto, se puede evitar la existencia de este «muro de fuego» pero para ello, o bien no existe la radiación de Hawking, o bien ocurre la pérdida de información  cuántica en los agujeros negros. Mucha gente se ha tomado esta idea tan radical con un poco de guasa (he llegado a oír que Susskind ya está «chocheando»). Otros, como Daniel Harlow [3], Bousso [4] y Yasunori Nomura et al. [5] creen que saben cómo evitar la existencia del «muro de fuego» usando solo la idea cuántica de complementaridad. El asunto no está resuelto aún y los próximos meses prometen ser apasionantes.

Ideas sugerentes, pero radicales. Nuevas ideas para hacernos pensar. Muchas cosas que creemos verdad porque las hemos oído muchas veces, cuando no están corroboradas por los experimentos, puede que no sean verdad. Recomiendo a todos los físicos, sobre todo a los más jóvenes, que aprovechen este mes de asueto para leerse estos artículos. Se leen fácil, aunque como es obvio requiere ciertos conocimientos de física cuántica e ideas generales sobre holografía, dualidad AdS/CFT y su uso en la solución de la paradoja de la información en agujeros negros.

Todo este asunto está relacionado con la paradoja de la pérdida de información en los agujeros negros. La mecánica cuántica es reversible, lo que ocurre en un sentido puede ocurrir en el contrario, pero los agujeros negros no lo son, lo que entra en el horizonte de sucesos ya no puede volver a salir. La radiación de Hawking emitida por los agujeros negros es térmica y ha perdido toda la información asociada a la materia que atravesó el horizonte de sucesos. Las ideas holográficas [6] permiten explicar esta paradoja, afirmando que la información no se pierde pero queda codificada de una forma tan complicada en la radiación que esta parece térmica, pero en realidad es un estado cuántico puro. ¿Puede un observador que cae en el agujero negro «notar» la radiación de Hawking? La hipótesis más extendida, que este observador no notará absolutamente nada, ha sido incorporada como uno de los axiomas de la complementariedad cuántica de los agujeros negros [6]. Cuando se habla de «complementariedad» (en el sentido de Bohr) se quiere decir que ciertas propiedades/simetrías clásicas son (o deben ser) preservadas en la versión cuántica de la teoría; como no tenemos un teoría cuántica de la gravedad no podemos demostrar que lo sean, pero mientras tanto, se pueden asumir dichas propiedades como axiomas, como hizo Bohr en los inicios de la mecánica cuántica.

Almheiri, Marolf, Polchinski y Sully [1] afirman que tres axiomas de la complementaridad en agujeros negros son contradictorios entre sí y uno de ellos debe ser falso. Los tres axiomas en cuestión son: (1) la radiación de Hawking es emitida en un estado cuántico puro; (2) esta radiación se emite desde una región próxima al horizonte de sucesos; y (3) el observador que cae en el agujero negro, atraviesa el horizonte de sucesos sin notar nada de nada (como en la teoría clásica). Uno de estos axiomas debe ser incorrecto. Según Polchinski et al. [1], lo  más razonable es que sea el tercer axioma.

Su argumento es el siguiente (mira el diagrama de Penrose-Carter de la figura de arriba). Imagina que el observador que cae en el horizonte porta dos estados cuánticos A y B entrelazados entre sí y supón que el estado A atraviesa antes el horizonte de sucesos que el B. Si A y B siguen entrelazados cuando A está dentro y B está fuera, se puede utilizar un protocolo cuántico para producir una pérdida de información, así como una violación del teorema de no clonación; la única solución posible es que el estado B quede entrelazado con la radiación de Hawking R. La idea parece sencilla, pero al realizar un cálculo de las consecuencias de este entrelazamiento se obtienen un curioso resultado para un agujero que supere la edad de Page (que haya emitido al menos la mitad de su entropía inicial). La densidad de radiación en la parte externa del horizonte sería enorme, del orden de la escala de Planck. El observador que cae en el agujero negro encontrará un «muro de fuego» («firewall»).

Por supuesto, el «muro de fuego» será invisible para cualquier observador lejano, para el que el agujero negro será tan negro como siempre (lo único que se podrá observar desde lejos del horizonte es la radiación de Hawking). Solo los observadores que caigan en el agujero negro podrán notar la diferencia, pues quedarán «incinerados en el infierno» y nunca podremos saber que así ha sido. Por cierto, para agujeros negros de masa estelar y para superagujeros negros galácticos, la edad de Page supera con creces la edad actual del universo, así que en la actualidad es imposible verificar estas ideas con datos astrofísicos o cosmológicos (la única posibilidad es utilizar analogías físicas).

Susskind [2] le da una vuelta de hoja a los argumentos de Polchinski et al. [1] y demuestra [según confiesa ahora por argumentos erróneos] que la singularidad protegida por el horizonte de sucesos es la que se modifica en la edad de Page de tal forma que se conecta con dicho horizonte; el origen del «muro de fuego» es la propia singularidad. ¡Toma ya! Susskind nos advierte que los agujeros negros son más peligrosos de lo que pensabámos.

En la figura que abre esta entrada he incluido los diagramas de Penrose-Carter y de Kruskal propuestos por Susskind para un agujero negro. No puedo entrar en detalles técnicos, pero los buenos aficionados a la divulgación científica que hayan leído libros de Penrose o Hawking sobre agujeros negros seguro que los reconocen y los saben interpretar (básicamente son un cambio de variable en la solución tipo agujero negro de las ecuaciones de Einstein que evita la singularidad «ficticia» del horizonte de sucesos en la solución de Schwarzschild). Recomiendo a los físicos la lectura del artículo de Susskind [2], que muestra claramente por qué hay que modificar la dinámica de la singularidad para evitar una violación del teorema de no clonación de la mecánica cuántica. Las ideas fluyen bien, pero hay que releerlo varias veces para comprender sus sutilezas.

Harlow [3] (que también ha retirado su artículo porque Polchinski et al. han encontrado un error en sus argumentos), que ha discutido bastante con Susskind y con Polchinski sobre este asunto, nos dice que en realidad el «muro de fuego» no existe y que estos autores han cometido un error al aplicar la mecánica cuántica a diferentes observadores al mismo tiempo, en lugar de centrarse solo en el observador que cae. El argumento clave de Polchinski et al. sobre los estados cuánticos entrelazados A y B para el observador que cae, en realidad no es aplicable porque ambos estados corresponden a observadores diferentes. Asumiendo que cada uno tiene una línea del mundo diferente, un retruque técnico puede salvar la complementaridad sin que se produzca pérdida de información por el protocolo de Polchinski et al. Según Harlow no hay ninguna transferencia del entrelazamiento.

Buosso [4] y Nomura et al. [5] argumentan de forma muy parecida a Harlow [3], aunque sus artículos me resultan menos convincentes. Su idea es que el «muro de fuego» contradice el principio de equivalencia si se permite el entrelazamiento entre B y R, luego debe ser imposible dicho entrelazamiento y no existe el «muro de fuego.» Hay otros artículos al respecto y más surgirán en los próximos días.

En mi opinión, lo más interesante de estas ideas es que nos muestran que la aplicación de la mecánica cuántica a la física de los agujeros negros es mucho más sutil de lo que pensábamos y que es un campo muy fructífero para los físicos jóvenes, que deberían pensar mucho más sobre ello. Animo desde mi modesto blog a todos los físicos jóvenes a que se estudien estos artículos y a que piensen sobre estas ideas, pues realmente merece la pena [aunque Susskind haya retirado su artículo, sigo pensando que merece la pena leer los otros]. Para abrir boca, el siguiente vídeo de Sixty Symbos es un buen punto de partida.

[1] Ahmed Almheiri, Donald Marolf, Joseph Polchinski, & James Sully, «Black Holes: Complementarity or Firewalls?,» arXiv:1207.3123, 13 Jul 2012.

[2] Leonard Susskind, «Complementarity And Firewalls,» arXiv:1207.4090 (v1), 18 Jul 2012 [este artículo ha sido retirado por el autor el 3 Aug 2012].

[3] Daniel Harlow, «Complementarity, not Firewalls,» arXiv:1207.6243, 26 Jul 2012 [este artículo ha sido retirado por el autor el 9 Aug 2012 porque incluye un argumento erróneo apuntado por Donald Marolf].

[4] Raphael Bousso, «Observer Complementarity Upholds the Equivalence Principle,» arXiv:1207.5192, Subm. 22 Jul 2012.

[5] Yasunori Nomura, Jaime Varela & Sean J. Weinberg, «Complementarity Endures: No Firewall for an Infalling Observer,» arXiv:1207.6626, 27 Jul 2012.

[6] L. Susskind, L. Thorlacius and J. Uglum, «The Stretched horizon and black hole complementarity,» Phys. Rev. D 48: 3743 (1993) [hep-th/9306069]; C. R. Stephens, G. ‘t Hooft and B. F. Whiting, «Black hole evaporation without information loss,» Class. Quant. Grav. 11: 621 (1994) [gr-qc/9310006].

Entrevista a Edward Witten en Science sobre la física cuántica de los agujeros negros

El número de hoy de Science incluye un especial sobre agujeros negros con un artículo de Edward Witten, «Quantum Mechanics of Black Holes,» Science 337: 538-540, 3 August 2012 (entrevista en el Podcast), otro de Kip S. Thorne, «Classical Black Holes: The Nonlinear Dynamics of Curved Spacetime,» Science 337: 536-538, 3 August 2012, Rob Fender & Tomaso Belloni, «Stellar-Mass Black Holes and Ultraluminous X-ray Sources,» Science 337: 540-544, 3 August 2012, y M. Volonteri, «The Formation and Evolution of Massive Black Holes,» Science 337: 544-547, 3 August 2012. Los que tengan acceso a Science podrán disfrutar de todos estos interesantes artículos divulgativos. Los que no, tendrán que conformarse con lo poco que yo pueda resumir en este blog. Lo siento, pero ahora mismo me voy a poner a leérmelos y disfrutarlos yo.

En la entrevista y en su artículo Witten nos cuenta que «los agujeros negros son soluciones de las ecuaciones de Einstein de la gravedad para una estrella muy compacta, tan compacta que no puede escapar nada de ella, ni siquiera la luz. Los astrónomos han observado objetos muy compactos que tienen demasiada masa para su tamaño, que a día de hoy solo pueden ser agujeros negros.

«La mecánica cuántica es una teoría reversible, si es posible la transición entre un estado inicial |i> a un estado final |f>, entonces también es posible la transición opuesta entre un estado |f> a un estado |i>. Tiene que ser así para que las probabilides cuánticas sumen exactamente la unidad (técnicamente se dice que la evolución es unitaria, gracias a matrices unitarias que siempre son invertibles). A primera vista, esto implica que los agujeros negros no pueden ser descritos por la mecánica cuántica.»

«Sea B el estado macroscópico de un agujero negro y A cualquier cuerpo (una roca o un astronauta). Cuando el cuerpo cae en el agujero negro, éste incrementa su masa y pasa a un estado B*. La física clásica de los agujeros implica que el proceso A + B → B* es irreversible, lo que atraviesa el horizonte del agujero negro ya no puede volver a salir. Sin embargo, la mecánica cuántica requiere que pueda ocurrir la reacción inversa B* → A + B.» Witten nos dice que «la mecánica cuántica no permite que un objeto solo absorba, sin emitir, o que solo emita, sin absorber.» Esta dificultad se resolvió hace 40 años cuando Jacob Bekenstein tuvo una brillante idea que relacionaba los agujeros negros con la termodinámica y la mecánica estadística. Poco más tarde, Stephen Hawking descubrió la llamada radiación de Hawking de los agujeros negros.»

Para explicar estos conceptos, Witten recurre a un ejemplo de la vida cotidiana, «una taza de café caliente que se derrama por el suelo. En la práctica, nunca observamos que el agua salte del suelo y se vuelva a meter en la taza. Los físicos del siglo XIX introdujeron el concepto de entropía para describir este proceso termodinámico que no puede ocurrir. Ahora bien, la mecánica estadística nos explica la termodinámica y nos dice que este proceso puede ocurrir, aunque es muy poco probable en objetos macroscópicos y por eso no lo observamos. Pero si consideramos una sola molécula de agua es perfectamente posible que retorne a la taza, incluso si tomamos unos cientos de moléculas. Con los agujeros negros ocurre lo mismo, si un objeto macroscópico cae en su interior no puede volver a salir, pero cuando consideramos una sola partícula hay una probabilidad no nula de que vuelva a salir. La física de los agujeros negros es irreversible en el sentido de la termodinámica, pero no lo es en el sentido de la mecánica estadística. Por ello, los agujeros negros pueden emitir partículas (radiación) y el proceso B* → A* + B está permitido, aunque la radiación A* no es está relacionada con el cuerpo A.»

«Observar la radiación de Hawking,» dice Witten, «es imposible en agujeros negros astronómicos porque están demasiado lejos y porque son demasiado grandes para emitir una radiación apreciable. Sin embargo, en la distribución de su temperatura del fondo cósmico de microondas, la radiación a casi 3 Kelvin de temperatura residuo del Big Bang, se han observado fluctuaciones que encajan en una teoría similar a la de la radiación de Hawking. Un agujero negro tiene un horizonte más allá del cual la luz no puede escapar y la expansión cósmica del universo presenta un horizonte a partir del cual ya no podemos observar nada más. Las fluctuaciones en la radiación cósmica de microondas se parecen mucho a lo que se esperaría observar si se emitieran fotones de Hawking en el horizonte cosmológico.»

«La entropía de todos los cuerpos depende de su volumen, sin embargo, en los agujeros negros es proporcional al área del horizonte. Para entender la termodinámica de los agujeros negros, a mediados de los 1980 se introdujo una teoría que suponía que el horizonte de sucesos es una membrana [1], pero fue imposible obtener su descripción microscópica (cuántica). Hasta mediados de los 1990 no se obtuvo una explicación cuántica (una mecánica estadística) para los agujeros negros que usaba la teoría de cuerdas y suponía que el horizonte de sucesos estaba formado por branas (cuyo nombre proviene de «mem-brana» pero que no tienen nada que ver con las anteriores). La mecánica estadística de los agujeros negros requiere la teoría de cuerdas.»

Witten nos cuenta también que los agujeros negros (cuánticos) tienen aplicaciones en otras áreas de la física. El físico argentino «Juan Maldacena descubrió en 1997 la dualidad gauge/gravedad, no solo las leyes de la mecánica cuántica permiten describir los agujeros negros, también estos últimos se pueden utilizar para entender las teorías gauge de la física de partículas.» Explicar qué es una teoría gauge es difícil y Witten se limita a afirmar que «el electromagnetismo (clásico) de Maxwell es una teoría gauge (clásica) y que los físicos durante el siglo XX lo que han hecho es aplicar esta fructífera idea a la formulación cuántica de las fuerzas electromagnética, débil y fuerte; todas las interacciones conocidas excepto la gravedad.» Me han sorprendido sus palabras al afirmar que «un lector de Science, lo único que tiene que saber sobre una teoría gauge es que se trata de una generalización de la teoría de Maxwell y que es un marco matemático en el que los físicos entendemos la física de partículas.»

Obviamente, no puede haber un artículo teórico en Science sin un «para qué.» Witten, como buen físico de cuerdas, recurre a las aplicaciones más recientes de la dualidad gauge/gravedad. «El Colisionador de Iones Pesados Relativistas (RHIC) ​​en el Laboratorio de Brookhaven en los Estados Unidos ha demostrado que un plasma de quark y gluones se comporta como un fluido ideal. Conocemos las ecuaciones matemáticas que lo describen, pero son muy díficiles de resolver y sus propiedades muy difíciles de entender. La dualidad gauge/gravedad permite estudiar el plasma de quarks y gluones en términos del horizonte de sucesos de un agujero negro [2]. Este fue el primer ejemplo de aplicación de la dualidad guage/gravedad que hoy en día se utiliza para comprender muchas áreas de la física donde las ecuaciones son muy difíciles de resolver, como en física de la materia condensada [3].»

En resumen, un buen artículo divulgativo de Edward Witten que, como buen teórico de cuerdas, lleva los peces del río a su propia red.

[1] K. S. Thorne, D. A. MacDonald, R. H. Price, Eds., «Black Holes: The Membrane Paradigm,» Yale Univ. Press, New Haven, CT 1986.

[2] P. K. Kovtun, D. T. Son, A. O. Starinets, «Viscosity in strongly interacting quantum field theories from black hole physics,» Phys. Rev. Lett. 94, 111601 (2005) [arXiv:hep-th/0405231].

[3] S. Sachdev, «What can gauge-gravity duality teach us about condensed matter physics?,» Annu. Rev. Cond. Matt. Phys. 3, 9 (2012) [arXiv:1108.1197].

El mejor motivo para trabajar en teoría de cuerdas

Yuri Milner, doctor en física y multimillonario, quiere pasar a la historia como en su momento hizo Alfred Nobel, gracias a un premio: «Fundamental Physics Prize.» El premio está dirigido a físicos teóricos y está dotado de 3 millones de dólares (sí, has leído bien, casi tres veces más que el Premio Nobel de Física); este año se han concedido 9 premios (sí, has leído bien, Milner ha regalado 27 millones de dólares a físicos teóricos). Cinco para famosos teóricos de cuerdas: Edward Witten, Nima Arkani-Hamed, Juan Maldacena, Nathan Seiberg y Ashoke Sen. Dos para famosos cosmólogos inflacionarios: Alan Guth y Andrei Linde. Un físico especialista en computación cuántica, Alexei Kitaev, y otro en física matemática, Maxim Konstevich. Ninguno de estos famosos 9 físicos teóricos necesita presentación y todos ellos ya deberían tener en su cuenta bancaria un ingreso de 3 millones de dólares. Los 9 han sido elegidos por Milner, que para eso paga. El próximo año los 9 premiados de este año serán los que elegirán a los nuevos galardonados. Si eres un físico teórico joven, ya sabes, a partir de ahora tienes un nuevo motivo para trabajar en teoría de cuerdas (pero, recuerda, le tienes que caer bien a Ed, Nima, Juan, Nathan y Ashoke, pues en sus manos está tu premio).

Obviamente, se ha hecho eco de esta noticia todo el mundo. Te recomiendo consultar Geoff Brumfiel, «Theoretical physicists win massive awards Billionaire’s prize to deep thinkers dwarfs others,» Nature News, 31 July 2012 [premiados]; Ian Sample, «Biggest science prize takes web tycoon from social networks to string theory. Yuri Milner awards make nine fundamental physics pioneers rich. But founder denies new prizes are Nobels 2.0,» The Guardian, 31 July 2012; y la voz crítica de Peter Woit, «Fundamental Physics Prize,» Not Even Wrong, July 31, 2012.

Por cierto, pronto habrá una página web donde tú mismo podrás nominar(te) (aunque los ganadores de este año tendrán la última palabra).

La energía oscura y la imposibilidad de conocer el destino final del universo

Los autores de libros de divulgación se suelen llenar la boca hablando del futuro del universo. La filosofía tradicional en Relatividad General es que la geometría determina el destino del universo. Sin embargo, la existencia de una constante cosmológica (también llamada energía oscura) implica que la correspondencia uno-a-uno entre la geometría y la evolución del universo se ha perdido para siempre. La única manera de conocer el futuro del universo es descubrir cómo evoluciona la energía oscura y para ello necesitamos una explicación de su origen que nos permita saber cómo evolucionará en el futuro. La existencia de la energía oscura implica que no existen observaciones cosmológicas que se puedan realizar en la actualidad que nos permitan decidir sin ambiguedad cuál será el destino final del universo. Nos lo contaron Lawrence M. Krauss y Michael S. Turner, «Geometry and Destiny,» Gen. Rel. Grav. 31: 1453-1459, 1999 (gratis en ArXiv).

En la actualidad creemos que la ecuación de estado de la energía oscura es p = ω ρ, donde p es la presión, ρ la densidad y ω=–1. El problema es que pequeñas variaciones en el valor de ω, incluso tan pequeñas como una parte en mil (más allá de lo que podremos medir en las próximas décadas), acabarán dominando el futuro del universo a largo plazo. La única solución al problema será obtener una explicación microfísica al origen de la constante cosmológica capaz de predecir su evolución futura.