El origen de las estrellas de gran masa es similar a las demás

Uno de los aspectos cruciales sobre el ciclo de vida de las estrellas de gran masa, aún poco clara, son sus fases evolutivas tempranas. Todavía se discute si las estrellas de gran masa se forman del mismo modo que las estrellas de baja masa y masa intermedia, es decir, gracias a la formación de discos de acreción. También se ignora si la estructura de dichos discos en estas estrellas es análoga a la de sus homólogos de baja masa. Se publica en Nature la observación de un disco compacto caliente alrededor de un objeto estelar joven de unas ~20 masas solares, la protoestrella IRAS 13481-6124. La estudio se ha realizado gracias al Interferómetro del Telescopio Muy Grande (Very Large Telescope Interferometer o VLTI) del Observatorio Europeo del Sur of the European Southern Observatory (ESO), located on Cerro Paranal in Chile. Using the near-infrared beam combination instrument AMBER15, we combined.  La imagen muestra una estructura alargada con un tamaño alrededor de 13 × 19 unidades astronómicas (UA). Todo indica que se trata de un disco visto con un ángulo de inclinación de ~ 45 °, cuyas propiedades son cualitativa y cuantitativamente similares a las de los discos observados durante la formación de estrellas de baja masa. El artículo técnico es Stefan Kraus et al., “A hot compact dust disk around a massive young stellar object,” Nature 466: 339–342, 15 July 2010.

Eugenio Bianchi y Carlo Rovelli: ¿Es la energía oscura realmente un misterio?

El Universo está en expansión y la expansión parece estar acelerándose. Esta aceleración se explica a menudo usando una substancia misteriosa, la “energía oscura.” Para Eugenio Bianchi y Carlo Rovelli no hay ningún misterio en esta aceleración cósmica. La constante cosmológica de Einstein la explica perfectamente. La aceleración cósmica es predicha por la teoría de la relatividad general cuando se toma una constante cosmológica no nula, Λ. El modelo cosmológico estándar, con materia oscura y constante cosmológica, denotado por las siglas (ΛCDM), es “aceptado por casi todos los cosmólogos como la mejor descripción actual de los datos disponibles.” Hay una confusión histórica y conceptual profunda entre quienes creen que el término Λ requiere una explicación a base de una misteriosa “energía oscura.” Bianchi y Rovelli nos ofrecen una respuesta a las tres objeciones (prejuicios) más habituales hacia la constante cosmológica (Λ). Rocky Kolb les contesta con la respuesta oficial. Todo ello en Eugenio Bianchi, Carlo Rovelli, Rocky Kolb, “Cosmology forum: Is dark energy really a mystery?,” Nature 466: 321–322, 15 July 2010. Los interesados en una exposición más detalla de sus argumentos pueden recurrir a “Why all these prejudices against a constant?,” ArXiv, 21 Feb 2010. Algunos artículos recientes les dan la razón, como Roland Triay, “Dark Energy: fiction or reality?,” ArXiv, 1 Apr 2010. Aunque tienen en contra al resto de la comunidad científica.

La primera objeción se conoce como “Λ es el error de Einstein.” Se afirma que Λ fue rechazada por los relativistas en general, y de hecho por el propio Einstein, que la calificó como más tarde como su “mayor error.” Pero muchos olvidan que la “metedura de pata” de Einstein no fue Λ, sino constatar que, con o sin Λ, el Universo no es estático. La teoría de la relatividad general predice la expansión cósmica y el error de Einstein fue no darse cuenta. La constante cosmológica Λ no es un añadido a la teoría de Einstein para dar cuenta de las observaciones, sino una parte integrante y natural de la misma. Su naturaleza y su escala (valor) no son ni más ni menos misteriosas que los de cualquiera de las constantes que aparecen en nuestras teorías físicas fundamentales.

La segunda objeción se denomina el “problema de la coincidencia cósmica.” Los datos cosmológicos indican que nos ha tocado vivir en un “corta” fase de la historia del universo, durante la cual las contribuciones a la dinámica cósmica de la materia y de Λ  son comparables en magnitud. Esta “coincidencia improbable” se presenta como un argumento en contra de la hipótesis Λ en el modelo ΛCDM. Ahora bien, si miramos la evolución del universo en función del tiempo cósmico en una escala lineal, en lugar de la habitual escala logarítmica, se puede ver que esta “corta” fase dura la mitad de la vida del Universo hasta el momento actual y por tanto no hay ninguna “improbable” coincidencia. En cualquier caso, no debemos asumir que vivimos en un lugar del Universo y en un momento completamente aleatorios. La densidad a nuestro alrededor, por ejemplo, está muy lejos de la densidad cósmica promedio.

La tercera y última ojeción se refiere a la “energía del vacío.” La teoría cuántica de campos (QFT ) predice una energía del vacío que se suma a la fuerza cósmica debida a Λ (similar al efecto del vacío sobre las líneas espectrales de los elementos atómicos, las llamadas correcciones radiactivas). Esta contribución a la hipotética Λ es mucho mayor que la Λ observada. Esta discrepancia es un rompecabezas abierto en la QFT en presencia de gravedad. Pero es un error conceptual confundir Λ con la energía del vacío de la QFT . La constante cosmológica Λ no se puede confundir con nuestra incomprensión de la energía del vacío en QFT o con cualquier otra substancia misteriosa . La constante Λ es una especie de “curvatura del punto cero,” una fuerza de repulsión causada por la dinámica intrínseca del espaciotiempo. Buscarle cinco patas al gato no nos lleva a entender por qué el gato tiene cuatro patas.

Bianchi y Rovelli opinan que el modelo ΛCDM debe continuar siendo explorado mediante los experimentos y se deben seguir ofreciendo ideas alternativas que lo complementen, pero en su opinión, y en la de muchos físicos relativistas, es algo engañoso afirmar que la energía oscura es un “gran misterio.” Es un grave error hablar de una “substancia” al referirse a la “energía oscura,” es como afirmar que si nos apetece salir a la calle para dar una vuelta es porque una “misteriosa fuerza oscura” nos empuja a hacerlo.

Como no hay dos sin tres, ni dos sin un tercero en discordia, también tenemos que exponer la opinión de Rocky Kolb, para quien la energía oscura sí es un gran misterio aún por resolver.

El modelo ΛCDM es el modelo cosmológico más completo, más exitoso y con mayor poder predictivo que jamás ha sido diseñado. Un modelo capaz de dar cuenta de un enorme número de observaciones astronómicas y cosmológicas. En la actualidad, no existen observaciones discrepantes con el modelo ΛCDM. Pero su éxito tiene un precio. Solo el 5% de la masa-energía total del Universo observable es comprendida por dicho modelo. El 95% del Universo es “oscuro,” en el sentido de que no lo entendemos completamente. El lado oscuro incluye el 25% de la masa-energía total, en forma de la llamada materia oscura que conforme la estructura de las galaxias y de los cúmulos galácticos, y el 70% en forma de energía oscura, responsable de la aceleración de la expansión cósmica.

Los cosmólogos se refieren generalmente a la materia oscura y a la energía oscura como misterios cósmicos. No estoy de acuerdo con Bianchi y Rovelli quienes argumentan que la energía oscura puede ser explicada invocando una nueva constante de la naturaleza, la constante cosmológica. Afirman que se trata de una explicación simple y aceptable. No estoy de acuerdo. En mi opinión, una constante cosmológica es un misterio en el sentido de que es “algo cuyo origen no se entiende o está más allá de la comprensión actual.” La constante cosmológica de Einstein Λ es la explicación más simple para la energía oscura: se ajusta a los datos adecuadamente  y no hay razón para excluir su presencia, sin embargo, su valor para explicar las observaciones está “más allá de [nuestro ] entendimiento.” Si la constante cosmológica es la explicación para la energía oscura, Λ deberán tener un valor de (1028 cm)-2, pero la longitud 1028 cm es absurdamente grande y por el momento no está relacionada de ningún modo conocido con ninguna escala de longitud observable en la naturaleza. Todos los intentos de explicar esta nueva escala de longitud han sido infructuosos en muchos órdenes de magnitud.

No podemos conformarnos con añadir una constante al modelo que permita reproducir las observaciones, debemos encontrar una explicación para dicha constante y para su valor. Todas las constantes de los modelos cosmológicos deben estar basadas en las leyes de la naturaleza que comprendemos. Ahora mismo, la magnitud de la constante cosmológica no se puede explicar por ninguna teoría física conocida. Por ello es un misterio aún por resolver: “el misterio de la energía oscura.”

Kolb acaba recordando la frase del astrofísico Tommy Gold: “no es un error pensar que para cada fenómeno físico complejo hay una explicación simple.” Sería un error quedarnos satisfechos con la constante cosmológica sólo porque es una explicación sencilla a la aceleración de la expansión cósmica.

Por qué hay que calibrar los detectores del LHC del CERN

Parece una obviedad. Cada detector ha sido diseñado para cumplir con una función bien definida y ha sido fabricado con los mayores estándares de calidad. La mayoría cumple sobradamente con las específicaciones técnicas. Además, han sido instalados con sumo cuidado. Por qué entonces hay que calibrar los detectores para poder buscar física más allá del modelo estándar de las partículas elementales. Una imagen vale más que mil palabras. La figura de arriba muestra la proyección 2D de la posición 3D de todos los detectores (píxeles) internos del  experimento ATLAS en el LHC del CERN. Estos píxeles de los detectores de silicio permitem reconstruir las trayectorias de las partículas tras las colisiones con gran precisión. Una imagen bonita, pero que hay comparar con la imagen teórica esperada. La figura de abajo nos muestra un detalle de esta comparación. Se comparan los resultados de la imagen experimental más precisa hasta ahora (figura izquierda) con lo que se esperaba observar según el diseño teórico de la distribución de dichos detectores (figura derecha), obtenida gracias al uso de simulaciones por ordenador tipo Montecarlo. Las diferencias saltan a la vista. Son muy parecidas pero hay grandes diferencias. La imagen “real” es mucho más difusa, lo que indica que algunos detectores no están exactamente donde deberían estar. Los errores son muy pequeños, del orden de décimas de milímetro. Errores inevitables en el mayor detector de partículas del mundo, con más de 7000 toneladas y una sección transversal de 45×25 metros cuadrados. Una décima de milímetro en 25 metros parece muy poco pero ha de ser localizada y tenida en cuenta. Para reconstruir las trayectorias con la máxima precisión posible es necesario conocer exactamente dónde está cada detector (píxel) con el mínimo error posible y sólo la medida experimental permite saberlo. Estas medidas permiten calibrar todos los algoritmos y corregir todos los defectos (aunque sean del orden de las décimas de milímetro) que se observen. Una labor de chinos, pero una labor necesaria. Una labor que no se puede realizar con el LHC parado. Hay que estudiar muhas colisiones conocidas, colisiones en las que sabemos exactamente la respuesta que tienen que dar cada uno de los detectores, que comparada con la que realmente ofrecen, nos permite corregir la diferencia (diferencia que puede ser decisiva cuando se empiece a buscar física más allá del modelo estándar, física para la que no sabemos que se va a observar).  Nos lo cuenta estupendamente Ceri Perkins, “Detector detectives,” ATLAS e-News, 13 July 2010.

Rumore, rumore, … la Carrá y el Higgs

Los rumores se propagan como una epidemia, en especial en un círculo pequeño. Tommaso Dorigo lanzó un rumor: posible evidencia de un bosón de Higgs ligero a 3 sigma en el Tevatrón del Fermilab. No es la primera vez que lo hace, ni será la última. Lubos Motl se hizo eco y aprovechó que desde la Universidad de Barcelona su blog recibió el “turista” 5 millones para contarnos que un bosón de Higgs ligero reivindica la supersimetríaMarc Sher, físico famoso, ratificó el rumor y concretó que se había observado en el Tevatrón el proceso gb→Hb→bbb (una colisión gluón-quark b produce un Higgs que se desintegra en dos quarks b). Algunas voces desde el Fermilab lo han desmentido y muchos medios se han hecho eco (ABC, Menéame, …). Marc lo ha desmentido. Tommaso también. Lubos nos recuerda que el proceso gb→Hb es uno de los más interesantes para descubrir el Higgs en el Tevatrón. Lo que está claro es que nos enteraremos de los detalles en el Higgs Group Meeting del 16 de julio que se inicia a las 9:00 en el Anfiteatro del Fermilab o en el seminario “wine & cheese” (Joint Experimental-Theoretical Seminar) del mismo 16 de julio a las 16:00 horas, cuando Marco Vezocchi y Tom Wright nos hablen de los nuevos resultados de DZero y CDF, resp., que se presentarán en el ICHEP (seguro que Tommaso nos lo cuenta en su blog). En dicha charla se resumirán los resultados que serán presentados en el ICHEP 2010 en París tanto por CDF como por DZero (prometen resultados para 6’8 fb-1 de colisiones, los anteriores habían sido publicados para 5’4 fb-1). La charla plenaria el próximo lunes 19 a las 11:00 horas, impartida por Ben Kilminster resumirá los resultados más recientes sobre la búsqueda del Higgs en el Tevatrón, datos combinados de CDF y DZero. La semana que viene promete ser muy interesante en relación al bosón de Higgs, no porque se haya descubierto, sino porque se actualizarán nuestros conocimientos sobre su búsqueda en el Fermilab. Habrá que estar al loro (el ICHEP se celebra cada dos años y siempre es muy interesante). Ya os contaré como vayan evolucionando los acontecimientos. Mientras tanto podéis disfrutar de La Carrá… y de nuestro Manolo… sin bombo.

PS (14 julio 2010): Teorema (Sean Carroll): “Todo experimento próximo a ser clausurado ofrecerá provocativos resultados a 3 sigma.” Tweet del físico y bloguero Sean Carroll (“Theorem: any experiment that is scheduled to be turned off will have provocative 3-sigma results”).