La violación de la paridad inducida por campos magnéticos en un plasma de quarks y gluones, y como una noticia vuelve a ser noticia

Violación de la paridad en un plasma de quarks y gluones inducida por campos magnéticos, observada en las colisoines Au-Au y Cu-Cu a 200 GeV en el centro de masas, observada por la colaboración STAR del RHIC del BNL. (C) Phys. Rev. Lett.

La paridad es la simetría de Alicia en el país de las maravillas a través del espejo. La simetría P de una ley física indica que dicha ley es invariante si reflejamos el universo en un espejo. La teoría electrodébil de la fuerza nuclear débil en desintegraciones de partículas que involucran neutrinos viola la simetría P lo que fue toda una revolución en su momento (Premio Nobel de Física en 1957, justo un año después del descubrimiento). La cromodinámica cuántica, la teoría de la fuerza fuerte, no viola la paridad (en el mismo sentido que la teoría electrodébil). Sin embargo, como se teorizó hace más de 10 años (Dmitri Karzeev et al., PRL 1998) y se ha descubierto experimentalmente el año pasado (publicado hace un par de meses en PRL), sí viola la paridad en ciertas circunstancias. Un plasma de quarks y gluones sometido a un campo magnético intenso presenta dominios (pequeñas “burbujas”) en las que se viola la paridad, o al menos así se han interpretado los resultados experimentales observados por la colaboración STAR en el RHIC (Relativistic Heavy Ion Collider) en el BNL (Brookhaven National Laboratory), Upton, New York. El artículo se publicó en PRL [1] y ya fue noticia en diciembre de 2009 [2]. Dicha noticia ha vuelto a ser actualidad en diferentes medios porque fue presentada como charla por Dmitri Kharzeev del BNL el 15 de febrero de 2010 en la Conferencia de Abril de la Sociedad de Física Americana (April meeting of the American Physical Society) [3,4]. Parece que la charla en la conferencia ha tenido más repercusión mediática, si cabe, que el artículo publicado en PRL. Para mí, toda una sorpresa, que incluso me hizo creer en un primer momento que Kharzeev había contado algo nuevo descubierto en los dos últimos meses (ver mi comentario en [4]). Sin embargo, no es así, ha contado sólo lo ya publicado.

En el RHIC se hace colisionar núcleos de iones de oro de tal forma que se forma un plasma de quarks y gluones (los constituyentes de los protones y neutrones del núcleo de estos iones). La “ruptura de la simetría” observada en estas colisiones es muy sutil (comparada con la electrodébil). Cuando los iones en lugar de colisionar centro con centro lo hacen con cierta desviación se forma una plasma de quarks y gluones asimétrico, como un elipsoide (o un geoide achatado por los polos como la Tierra). En este plasma de quarks y gluones, también llamado glasma, se crean intensos campos magnéticos y se ha observado que los quarks y antiquarks con carga positiva se dirigen hacia un polo del campo magnético y los quarks y antiquarks con carga negativa se dirigen hacia el otro polo. Esta separación de cargas viola la paridad, que si se cumpliera obligaría a que el mismo número de quarks y antiquarks tanto positivos como negativos se dirigiera en ambas direcciones.

En la violación de la paridad en las interacciones débiles, un electrón siempre emerge en una desintegración de un partícula con la misma helicidad. Sin embargo, en un glasma, los quarks cargados a veces se dirigen hacia el polo norte y a veces hacia el polo sur. La violación de la paridad es “local” se produce sólo en ciertas regiones localizadas (dominios o “burbujas”) pero no por todas partes (fuera de estos dominios la paridad se conserva). Este tipo de violaciones de la paridad inducidas por cámpos magnéticos en la QCD ha sido teorizada desde hace años, pero para los físicos experimentales es como encontrar una mina de oro en una mina de plata, ya que el efecto ha sido mucho más “dramático” de lo que cualquier físico experimental podía esperar.

[1] B. I. Abelev et al. “Azimuthal Charged-Particle Correlations and Possible Local Strong Parity Violation,” Phys. Rev. Lett. 103: 251601, published 14 December 2009 [ArXiv preprint, 9 Sep 2009].

[2] Berndt Müller, “Looking for parity violation in heavy-ion collisions. The STAR detector at RHIC has measured a signal that may indicate parity violation occurs in metastable regions of the superdense matter,” Physics 2: 104, December 14, 2009.

[3] Lauren Schenkman, “Particle Collision Puts Twist in Early Universe,” ScienceNOW, February 16, 2010.

[4] Kanijo, “‘Burbujas’ de ruptura de simetría en la sopa del quarks del RHIC,” Ciencia Kanija, 15 Feb. 2010,  traducción de Karen McNulty Walsh, Mona S. Rowe, “‘Bubbles’ of Broken Symmetry in Quark Soup at RHIC. Data suggest symmetry may ‘melt’ along with protons and neutrons,” RHIC, BNL, February 15, 2010 [visto en Menéame].

PS (24 feb 2010): Una presentación muy buena (aunque algo técnica) de Jim Thomas,”Strong Parity Violation: A Summary of STAR Charge Separation Measurements,” ALICE Club, CERN, 23 November 2009.

PS (15 mar 2010): Vídeo youtube explicativo (en inglés) publicado desde el RHIC.

El problema de la energía oscura y el origen de las supernovas de tipo Ia

Galaxias estudiadas con su luminosidad en la banda K, su número predicho de enanas blancas acretando materia, su luminosidad total observada con Chandra, es decir, rayos-X en el rango de 0,3 a 0,7 KeV, y el valor predicho. Debes comparar las dos últimas columnas. (c) Nature.

Una gran sorpresa a nivel cósmico. Las supernovas tipo Ia son las candelas estándar para la determinación de distancias en el universo a distancias cosmológicas, ya que todas presentan una curva de luz que decae en el tiempo de forma muy similar, y son las grandes responsables de que se crea que la energía oscura existe. ¿Por qué explotan las enanas blancas? Todo el mundo pensaba que superaban el límite teórico de Chandrasekhar para su masa debido a que absorbían (acretaban) materia de una estrella compañera. ¿Por qué todas tienen curvas de luz tan similares? Porque todas alcanzaban el límite de Chandrasekhar por debajo de la misma forma y su estado en el momento de la explosión era prácticamente el mismo. Sin embargo, algunos investigadores también habían propuesto la fusión/colisión de dos enanas blancas como posible explicación. ¿Cómo distinguir ambos procesos? En el primero, se observaría una emisión de rayos X debido a la acreción de material mucho más intensa. La solución, recurrir al Observatorio Espacial de rayos X llamado Chandra. Un artículo, publicado hoy en Nature [1], ha encontrado que, al menos en galaxias jóvenes y cercanas, la emisión de rayos X es muy débil, entre 30 y 50 veces menor de lo esperado para el escenario de acreción, por lo que habría que descartar dicho mecanismo y considerar que las fusiones de enanas blancas son el origen principal de las supernovas Ia en estas galaxias. Un resultado completamente inesperado. Una gran sorpresa, ya que se conocen poquísimos sistemas binarios con pares de enanas blancas. Más aún teniendo en cuenta que las simulaciones numéricas indican que la fusión de enanas blancas no permite explicar bien la uniformidad en la curva de brillo de las supernovas Ia que está en la base de su uso para medir distancias cosmológicas. El mecanismo de acreción podría explicar sólo el 5% de las supernovas tipo Ia en galaxias jóvenes, ¿qué pasará en galaxias viejas? Sólo los observatorios espaciales podrán obtener una respuesta definitiva. ¿Afectarán estos estudios a la cantidad de energía oscura predicha en el universo? 

En español os gustará la traducción de Kanijo, “Qué hace que estallen las supernovas,” Ciencia Kanija, 18 Feb. 2010, de un artículo de Space.com [comentarios en Menéame]. 

[1] Marat Gilfanov, Ákos Bogdán “An upper limit on the contribution of accreting white dwarfs to the type Ia supernova rate,” Nature 463: 924-925, 18 February 2010.

[2] “Making the paper: Marat Gilfanov,” Nature 463: 848, 18 February 2010.

En 2008, Marat Gilfanov, un astrofísico del Instituto Max Planck de Astrofísica en Garching, Alemania, fue anotando algunas cifras relativas al resplandor de la emisión de rayos X de algunas fuentes en la galaxia Andrómeda, cuando se dio cuenta de que podría tener la respuesta a cómo se producen las supernovas tipo Ia (SN Ia). Se le ocurrió testear el modelo de acreción de materia en enanas blancas para explicar la explosión utilizando como firma la radiación X de la materia que cae en la enana blanca, una señal distintiva que se observaría hasta 10 millones de años antes de la explosión de la SN Ia. El otro modelo en competencia, la fusión de dos enanas blancas, sólo debería presentar una emisión de rayos X fuerte justo antes de la explosión. Gilfanov afirma que hizo “un cálculo preliminar tipo la “cuenta de la vieja” (back-of-the-envelope) y los números indicaban que habría hasta 3 órdenes de magnitud de diferencia en la emisión de rayos X observada en Andrómeda entre lo esperado por ambos mecanismos.”

Marat Gilfanov, director de la tesis de Ákos Bogdán.

Para estar seguros, Gilfanov y su estudiante de doctorado Ákos Bogdán decidieron estudiar la emisión de rayos X de seis galaxias cercanas, todas “jóvenes” (early-type)que contienen muy poca cantidad de gas neutro y polvo que podría dificultar la observación de los de rayos X de emisión por acreción de las enanas blancas. El resultado ya lo hemos comentado, encontraron un flujo medio de rayos X entre 30 y 50 veces menor que el que se prevee en el escenario de acreción. Su conclusión es que la gran mayoría, al menos el 95%, de las supernovas de tipo Ia en galaxias jóvenes son resultado de la fusión de enanas blancas binarias.

Gilfanov y Bogdan han pasado casi un año estudiando la teoría y los datos experimentales con objeto de tener en cuenta todos los modos de acreción posibles y los diferentes tipos de galaxias. “Muchas veces nos íbamos a la cama pensando “¡hice un gran descubrimiento!,” por a la mañana siguiente, tras volver a verificar los datos, todo se esfumaba en el aire.” Saber que tienes en las manos un artículo que puede ser “la bomba” y que podrías publicar en Nature te obliga a repasar los cálculos y observaciones una y otra vez hasta estar completamente seguro de tus afirmaciones.

Obviamente, este no es el punto final de la historia. El mecanismo responsable de la explosión de supernovas tipo Ia en otros tipos de galaxias podría ser completamente diferente. Más aún, incluso podría ocurrir que los astrofísicos teóricos descubrieran otros mecanismos diferentes para la explosión de las supernovas Ia que expliquen mejor los datos observados. Nos recuerda Gilfanov que “en los modelos por ordenador, los científicos pueden hacer estallar enanas blancas justo por debajo de la masa crítica, pero estas explosiones numéricas a veces se parecen poco a lo que realmente se observa en el Universo.” 

Colisión de dos enanas blancas debido a que la radiación gravitatoria las hace acercarse mutuamente. (C) Nature.

Permitidme que añada que la simulación magnetohidrodinámica de explosiones de supernovas Ia es un problema computacional que requiere una potencia de cálculo sólo alcanzable en los mayores supercomputadores y que estudiar y comparar diferentes mecanismos requiere muchísimos años de trabajo. La primera simulación de una explosión de supernova tipo Ia mediante el mecanismo de fusión de enanas blancas se obtuvo por investigadores compañeros de Gilfanov en el Max Planck y se publicó a principios de este año en Nature [3,4]. Lograron simular por ordenador la colisión entre dos enanas blancas de la misma masa produciendo una explosión de supernova Ia de tipo subluminoso, aunque tuvieron que considerar que la parte exterior de las enanas blancas estaba formada sólo por un material (cuando se suele suponer que contiene dos, carbono y oxígeno) y tuvieron que tomar una masa bastante alta de ~0.9 M (casi la masa del Sol). La curva de luminosidad obtenida por ordenador es muy similar a la observada en supernovas de tipo Ia subluminosas como 1991bg. Sorprendió mucho que la masa de las dos enanas blancas en colisión tenga que ser tan alta, cuando el límite de Chandrasekhar es del orden de 1,4 M. Este tipo de simulaciones tendrán que mejorar mucho en los próximos años para entender, gracias a ellas, cómo explotan el 95% de las supernovas Ia en galaxias jóvenes por colisión de enanas blancas, como el trabajo de Gilfanov parece indicar, la mayoría de las cuales no son del tipo subluminoso.

En español os gustará leer la noticia en Alejandro Tropea, “Explosiones violentas en el espacio. Los astrónomos simulan cómo las estrellas enanas blancas se fusionan y convierten en una supernova,” Universo a la vista, 7 de enero de 2010 (traducción de “Violent explosions in space. Astronomers simulate how white dwarf stars merge and become a supernova,” Max Planck News, January 7th, 2010). Los interesados en saber “¿Por qué no explotan las supernovas simuladas?,” disfrutarán con la noticia de Axxon.com.ar enlazada [que yo quise menear en Menéame pero se me adelantaron].

[3] Rüdiger Pakmor et al., “Sub-luminous type Ia supernovae from the mergers of equal-mass white dwarfs with mass ~0.9M,” Nature 463: 61-64, 7 January 2010.

[4] D. Andrew Howell, “Supernovae: A smashing success,” News, Nature 463: 35-36, 7 January 2010.

Sobre la historia del algoritmo PageRank de Google y sobre las publicaciones de los informáticos

En este blog ya hablamos de los orígenes del algoritmo PageRank utilizado por Sergey Brin y Larry Page para Google en “La historia oculta detrás del algoritmo PageRank de Google (o Keller, Keener, Page, Brin y Kleinberg),” 21 Octubre 2008, que sé que interesó a muchos de los lectores de este blog.

Massimo Franceschet ha estudiado la historia de este algoritmo en detalle y ha encontrado sus orígenes en la sociología y la economía en su artículo “PageRank: Stand on the shoulders of giants,” ArXiv, 15 Feb 2010. Los interesados en un resumen breve de la historia pueden recurrir a KentuckyFC, “Scientist Finds PageRank-Type Algorithm from the 1940s,” the physics ArXiv Blog, February 17, 2010. Este artículo no podía pasar desapercibido a muchos por lo que mezvan ya lo ha meneado como “Los orígenes del famoso algoritmo PageRank se remontan a 1941,” donde nos dice que “En 1941, Wassily Leontief publicó un documento en el que se divide la economía de un país en dos sectores que la ofertaban y demandaban recursos entre sí, aunque no en igual medida. Surgió la pregunta: ¿cuál es el valor de cada sector, al estar tan estrechamente integrados? La respuesta de Leontief fue desarrollar un método iterativo de valoración de cada sector sobre la base de la importancia de los sectores que abastecen. ¿Suena familiar? En 1973, Leontief fue galardonado con el Premio Nobel de Economía por este trabajo …

BTW (por cierto), yo leí a KentuckyFC ayer por la tarde y pensé en menear el artículo que seguramente llegaría a portada (y ha llegado), pero soy incapaz de conectarme a Menéame, por alguna razón han dado de baja a mi usuario y el sistema recuperación de claves me envía un correo electrónico con un enlace que sigo y me lleva a la parte pública de mi página, pero no me permite cambiar la clave. Por ello no tengo acceso… no sé si le habrá pasado a alguien más. No puedo comentar las noticias y sólo puedo votar algunas de forma Anónima… Seguramente acabaré creando una cuenta nueva…

Pero vayamos al grano. Franceschet ha publicado artículos muy interesantes sobre bibliometría, sobre todo para los informáticos.

Massimo Franceschet, “The role of conference publications in computer science: a bibliometric view,” January 20, 2010. “En informática, desde una perspectiva bibliométrica, la mejor estrategia para ganar impacto es publicar pocas contribuciones de gran calidad en revistas indexadas, en lugar de muchos trabajos prematuros (“publishing quarks“) en conferencias internacionales.” La conclusión puede parecer obvia pero no lo es. En España, en Informática mucha gente presume de sus publicaciones en Congresos Internacionales de Gran Prestigio y presume que publicar en muchos de ellos es mucho más difícil que publicar en muchas revistas. Para llegar a su conclusión Massimo ha realizado un análisis bibliométrico de la información bibliográfica en DBLP (que incluye tanto revistas como conferencias internacionales). Su estudio ha mostrado que en media, un artículo en una revista es citado 5,41 veces, mientras que un artículo en una conferencia sólo 0,71 veces. Os dejo las conclusiones en inglés, porque sé que a los informáticos os gusta leer estas cosas en inglés… aunque sea un tirón de orejas.

CONCLUSIONS: (i) computer scientists publish more in conference proceedings than in archival journals; (ii) the impact of journal publications is significantly higher than the impact of conference papers. The take-home message for the computer science community might be the following: while it is harder to get published in journals, the effort is ultimately rewarded with a higher impact. From a bibliometric perspective, the best strategy to gain impact seems to be that of publishing few, final, and well-polished contributions in archival journals, instead of many premature ‘publishing quarks’ in conference proceedings.

Eres investigador, tienes un artículo “maravilloso” y quieres que sea publico. ¿Qué debes buscar una revista de prestigio o una de fama (popularidad)? ¿No lo es mismo prestigio y fama? Parece una “chorrada” pero la bibliometría, entre otros objetivos, tiene por obligación resolver este tipo de cuestiones y Massimo Franceschet recoge el testigo en “The difference between popularity and prestige in the sciences and in the social sciences: a bibliometric analysis,” Preprint submitted to Elsevier January 18, 2010. La popularidad de una revista internacional se mide por el número de sus citas y su índice de impacto, pero el prestigio requiere un cálculo más complicado, similar al uso de un algoritmo de tipo PageRank de Google (Massimo es “amante” del eigenfactor). El estudio de Massimo demuestra que prestigio=fama en muchos campos, como las Geociencias, Biología, Medicina y Ciencias Sociales, pero no en todos, diferenciándose en campos como la Física, la Ingeniería, las Ciencia de los Materiales y la Informática. Según su estudio las revistas se pueden clasificar en cuatro categorías:

1. revistas prestigiosas y populares; reciben muchas citas y son citadas por otras revistas prestigiosas.

2. revistas que ni son prestigiosas ni son populares; reciben pocas citas y éstas provienen de revistas “oscuras.”

3. revistas que son populares pero no son prestigiosas; tienen un alto número de citas por artículo, pero la mayoría provienen de revistas de poco prestigio. Estas revistas no están necesariamente muy citadas.

4. revistas que son prestigiosas pero poco populares; reciben pocas citas comparado con el número de artículos que publican pero las reciben desde revistas muy prestigiosas. Estas revistas no están necesariamente poco citadas.

Nadie tiene dudas respecto a las revistas en las categorías 1 y 2, pero el status de las revistas en las categorías 3 y 4 es muy controvertido. Massimo recomienda que para comparar revistas en estas dos últimas categorías, el eigenfactor es el mejor índice bibliométrico.

Finalmente, si eres informático, te recomiendo “The skewness of computer science,” ArXiv, last revised 15 Feb 2010, donde Massimo afirma que “Computer science is a relatively young discipline combining science, engineering, and mathematics. (…) In the computer science publication culture, conferences are an important vehicle to quickly move ideas, and journals often publish deeper versions of papers already presented at conferences. (…) The skewness in the distribution of mean citedness of different venues combines with the asymmetry in citedness of articles in each venue, resulting in a highly asymmetric citation distribution with a power law tail. Furthermore, the skewness of conference publications is more pronounced than the asymmetry of journal papers. Finally, the impact of journal papers, as measured with bibliometric indicators, largely dominates that of proceeding papers.” Digo yo que los informáticos tendrán que aplicarse el “parche” y tener en cuenta estos estudios…