La galaxia espiral NGC 3393 tiene en su núcleo dos superagujeros negros en colisión mutua

La galaxia NGC 3393 fue observada por la cámara ACIS-S del Observatorio Chandra de Rayos X en febrero de 2004 y en marzo de 2011; un total de 89 700 segundos de observación que indican que tiene dos núcleos galácticos activos, dos superagujeros negros activos por la acreción de materia, separados por solo 490 años luz de distancia. Su potencia de emisión indica que tienen una masa de unos ~8 × 105 y ~106 masas solares. La teoría de formación galáctica aplicada a NGC 3393 permite asumir que su núcleo es el resultado (remanente) de la colisión de dos galaxias y que sus superagujeros negros están en proceso de colisión y fusión mutua. Un resultado que ha merecido una publicación en la prestigiosa revista Nature: G. Fabbiano, Junfeng Wang, M. Elvis, G. Risaliti, “Previous articleNext articleA close nuclear black-hole pair in the spiral galaxy NGC 3393,” Nature (AOP), 31 August 2011.

La teoría actual de la evolución galáctica indica que la fusión de galaxias fue un proceso muy habitual en las primeras etapas de la evolución del universo tras la edad oscura. Ya se han observado pares de cuásares (cada uno con un agujero negro supermasivo en su centro) separados por una distancia corta, entre 6 000 y 300 000 años luz de distancia, que se interpretan como que están en proceso de fusión mutua. La fusión de dos superagujeros negros conduce a la formación de un superagujero negro con un horizonte de sucesos mayor que la suma de ambos. También se han observado galaxias cercanas con dos núcleos activos, como NGC 6240 (dos núcleos activos separados unos 2 600 años luz) y Mrk 463 (separados unos 13 000 años luz), sin embargo, nadie podía imaginar que se llegara a observar una galaxia cercana (NGC 3393 está a unos 50 megapársecs, o unos 160 millones de años de luz de distancia) con dos núcleos activos separados por menos de 500 años luz. Una distancia tan corta indica que los dos superagujeros negros están en pleno proceso de fusión. El estudio detallado de su dinámica dará una información muy relevante sobre la dinámica de las colisiones galácticas y la fusión de sus superagujeros negros.

Nuevos límites Gfitter para la estimación de la masa del bosón de Higgs según los ajustes de precisión del modelo estándar

El modelo estándar no predice la masa del bosón de Higgs, pero gracias a su influencia en otros parámetros, los resultados de precisión de la teoría electrodébil permiten estimar su masa. El grupo Gfitter publicó el 18 de agosto de 2011 que la masa del bosón de Higgs más probable está entre 125 y 130 GeV, y se encuentra en los intervalos [115,133] a 1 sigma y [114,146] a 2 sigma. Además, la nueva figura descarta a más de 2 sigma un Higgs con una masa mayor de 150 GeV. El valor más probable para la masa del Higgs publicado el 21 de julio de 2011 (con datos anteriores a la conferencia EPS HEP 11) colocaban la masa más probable en alrededor de 120 GeV, dentro de los intervalos [115,132] a 1 sigma y [114,143] a 2 sigma. La figura de arriba es la nueva estimación (18 ago. 2011) para la masa del bosón de Higgs (superpuesta en la región por debajo de 150 GeV a la del 21 jul. 2011); no hay grandes diferencias aunque la nueva estimación parece preferir un Higgs con una masa algo mayor, desde un punto de vista estadístico la diferencia es muy pequeña. Ya sabéis que mi preferencia siempre ha sido un Higgs entorno a los 120 GeV, pero el nuevo ajuste apunta a uno un poco más masivo, en la línea de la previsión de Gordon Kane utilizando la teoría M/teoría de cuerdas. Por supuesto, no es pura casualidad, seguro que Kane ha ajustado su predicción utilizando estos datos teóricos. Yo no tengo ninguna duda al respecto.

La nueva estimación ha sido publicada por el grupo de trabajo de LEP en teoría electrodébil (LEP electroweak working group) que utiliza el software llamado Gfitter. Este software utiliza los últimos resultados experimentales disponibles para los siguientes parámetros del modelo estándar: MZ, MH, mc, mb, mt, Δαhad(MZ2), y αs(MZ2). Los nuevos resultados publicados en julio de 2011 (EPS HEP 11) ofrecen nuevos valores para la masa del quark top en el Tevatrón (mt=173,2±0,9 GeV) y para el valor de Δαhad(MZ2) tras los últimos resultados de BarBar (arXiv:1010.4180). Para la masa del Higgs se han publicado nuevos límites de exclusión combinados en el Tevatrón con hasta 8,6 fb-1 de datos (arXiv:1107.5518), para ATLAS en el LHC (arXiv:1106.2748) y para CMS (arXiv:1102.5429).

Lo más interesante de las nuevas figuras de Gfitter publicadas en 2011, cuando se las compara con las figuras publicadas en 2010, es que el intervalo de incertidumbre teórico en la región de masas entre 114 y 157 GeV se ha reducido mucho (se ha reducido de cerca de 1 sigma a uno que casi no se ve en la figura). Esto es una señal de que las estimaciones de Gfitter son cada día más confiables.

En las extensiones del modelo estándar con supersimetría también se puede realizar una estimación de la masa del Higgs neutro más similar al del modelo estándar. Este tipo de análisis se realiza con el software MasterCode y nos lo cuenta O. Buchmueller en “Confronting SUSY with LHC Data,” SUSY11. Por ahora estas estimaciones son mucho peores, en cuanto a confianza estadística, que las de Gfitter, pero son interesantes. Arriba tenéis el resultado de MasterCode para las teorías CMSSM, VCMSSM, mSUGRA y NUHM1, así como para el modelo estándar, utilizando los datos del LHC obtenidos en 2010 (que yo sepa un cálculo similar con las colisiones de 2011 todavía no se ha publicado, quizás en los próximos días en SUSY11 lo haga alguien). Como veis la banda de error es grande y todavía no hay datos suficientes para distinguir entre estas teorías caso de que se descubra un Higgs con una masa dada. Pero los resultados a 1 sigma son para todos los gustos.

Por cierto, siempre que se habla de supersimetría (modelo MSSM y sus variantes, como NMSSM) se piensa en 5 bosones de Higgs (o en 7 en NMSSM, o incluso en más en otros modelos), pero se olvida que la SUSY permite que haya un solo bosón de Higgs si además de la SUSY hay algo más (como el tecnicolor), como nos recuerda de forma estupenda el español Alex Pomarol (Univ. Autónoma de Barcelona), “Blended Models of Electroweak Symmetry Breaking.” Los límites actuales para la búsqueda de los 5 bosones de Higgs del modelo MSSM en el Tevatrón nos los ha presentado Thomas Wright (University of Michigan), “Tevatron Non-SM Higgs Searches” y para la búsqueda del Higgs del modelo estándar nos los ha recordado Gregorio Bernardi (LPNHE Paris), “SM Higgs Results from the Tevatron” (ambos en nombre de CDF y DZero del Tevatrón).

PS (1 sep 2011): Más información en Matthias Schott (CERN), on behalf of the Gfitter Group, “Constraints on the electroweak symmetry breaking sector from global fits with Gfitter.”

El año en el que la teoría del big bang estuvo a punto de morir

He recordado el año 1995 y el famoso editorial de John Maddox que ponía entre las cuerdas a la teoría del big bang (o de la gran explosión), tras leer el reciente artículo de Pallab Ghosh, “LHC results put supersymmetry theory ‘on the spot’,” BBC News, 27 August 2011, y ojear la charla de Hitoshi Murayama, “Why do SUSY in 2011?,” SUSY 11, 28-Aug-2011. El artículo en BBC News afirma que la supersimetría está pasando por malos momentos debido a los resultados recientes del LHC en el CERN y que los físicos más jóvenes se están decantando por otras teorías (“younger theoretical physicists are beginning to develop completely novel ideas because they believe supersymmetry to be “old hat”,” según Joseph Lykken del Fermilab). Quizás los lectores más jóvenes de este blog no se acuerden y convenga recordarles la historia.

John Maddox (al que dediqué un obituario en este blog, “John Maddox, Nature, y la mula Francis,” 15 abril 2009), el archifamoso editor de la revista Nature, tenía la buena costumbre de escribir unos editoriales que hicieron historia (y que a mí me gustaba mucho leer). Los más jóvenes quizás solo lo conocerán por su libro “Lo que queda por descubrir: una incursión en los problemas aún no resueltos por la ciencia, desde el origen de la vida hasta el futuro de la humanidad,” Debate, Madrid 1999 (si no conoces el libro, merece la pena).

En “Big Bang not yet dead but in decline,” Nature 377: 99, 14 September 1995, Maddox nos hablaba del artículo de N.R. Tanvir, T. Shanks, H.C. Ferguson, D.R.T. Robinson, “Determination of the Hubble constant from observations of Cepheid variables in the galaxy M96,” Nature 377: 27-31, 07 September 1995. Medidas obtenidas por el Telescopio Espacial Hubble en 1995 indicaban que había estrellas más viejas que el propio universo. La edad del universo se estimaba utilizando la constante de Hubble y la teoría de la gran explosión. El artículo de Tanvir et al. afirmaba que la constante de Hubble era H=69 ± 8 km/s/Mpc (un valor cercano al actual) pero que utilizando la teoría de la gran explosión (sin término de constante cosmológica) conducía a una valor de unos 10 mil millones de años para la edad del universo. Los modelos estelares indicaban que las estrellas más viejas tenían edades mayores de 13 mil millones de años. Como es obvio es imposible que el universo sea más joven que los objetos que contiene, por tanto la conclusión obvia es que la teoría de la gran explosión era incorrecta. Una terrible crisis para la cosmología que no resolvió hasta 1998, cuando el descubrimiento de la aceleración de la expansión cósmica gracias a las supernovas Ia resucitaron a la teoría de la gran explosión gracias a la existencia de la energía oscura. Las medidas más precisas de la edad del universo cuando se incluye el término de constante cosmológica indicaron que su edad era de unos 14 mil millones de años (gracias a WMAP ahora sabemos que es de unos 13,7 mil millones de años).

Ahora que alguna gente habla de que la supersimetría está a punto de morir no es mal momento para recordar que otras teorías “razonables” también han pasado épocas malas y han resurgido cual ave fenix con más fuerza y más energía.

Las predicciones “genéricas” de la teoría de cuerdas para el espectro de partículas supersimétricas

Esta figura muestra el espectro “genérico” de partículas supersimétricas predicho por la teoría de cuerdas según Gordon Kane, “String Theory Is Testable, Even Supertestable,” Physics Today, 1997. Observa que el Higgs (h) tiene una masa inferior a la de los bosones W y Z (hoy sabemos que no es así), que el stop (superpartícula asociada al quark top) tiene una masa inferior a 100 GeV (hoy sabemos que los squarks tienen masa superior a 350 GeV), etc. Los últimos datos del LHC en el CERN descartan existencia de la mayoría de estas superpartículas. ¿Pasa algo con las predicciones “genéricas” de la teoría de de cuerdas? No pasa nada de nada. La nueva predicción de Kane para agosto de 2011 (basada en el modelo que más le gusta, que él ha bautizado como teoría M tipo G2-MSSM) es la siguiente.

En la nueva predicción los squarks son un “poquito” más pesados, unos 50 TeV (es decir, unas 500 veces más pesados). Imposibles de descubrir en al LHC del CERN y quizás en los colisionadores de los próximos 50 años. La nueva predicción ajusta el Higgs donde le permiten los últimos límites de exclusión (entre 120 y 140 GeV, con preferencia alrededor de 127 GeV)  y el gluino (con unos 500 GeV) justo por encima de los límites mínimos actuales del LHC (en julio, EPS2011, se publicó que ATLAS descarta que el gluino tenga una masa inferior a 660 GeV y si los neutralinos tienen masa por debajo de 160 GeV; subiendo la masa de los neutralinos se reduce el límite de exclusión para la de los gluinos). También aparecen como observables en el LHC algunos neutralinos y charginos que podrían ser candidatos para la materia oscura. La nueva predicción se ha publicado en la charla de Kane en la conferencia String Phenomenology 2011.

Según Kane, estas predicciones son “genéricas” para la teoría de cuerdas (o teoría M), como decía que eran las predicciones de 1997. Los defensores de la teoría de cuerdas se alegrarán de que la teoría sea capaz de ajustarse a casi cualquier espectro de partículas posible y que permita predicciones tan bien ajustadas con lo que se sabe hoy en día. Los detractores de la teoría dirán que esto es un ejemplo ideal de que la teoría de cuerdas no es una teoría refutable experimentalmente. Predice todo lo predecible.

Kane en su charla también nos recuerda que el espectro de partículas “genérico” predicho por la teoría de cuerdas está limitado por los datos cosmológicos disponibles a partir del fondo cósmico de microondas. Según estas predicciones, tanto el gravitino como las superpartículas tienen masas superiores a 30 TeV. Artículos técnicos como el de Takeo Moroi, Lisa Randall, “Wino Cold Dark Matter from Anomaly-Mediated SUSY Breaking,” Nucl. Phys. B 570: 455-472, 2000 (ArXiv preprint), y el de Bobby S. Acharya, Piyush Kumar, Konstantin Bobkov, Gordon Kane, Jing Shao, Scott Watson, “Non-thermal Dark Matter and the Moduli Problem in String Frameworks,” JHEP 0806: 064, 2008 (ArXiv preprint). Lo curioso es que la predicción “genérica” de estos artículos para el Higgs está dentro de los límites permitidos hoy en día (esta predicción no es solo de la teoría M o de la teoría de cuerdas, sino de la supergravedad y de casi cualquier teoría supersimétrica).

El marco (framework) de la teoría de cuerdas tiene muchas soluciones posibles (el problema del panorama o “landscape”). La búsqueda de predicciones de la teoría de cuerdas es muy difícil, pero hay ciertas características “genéricas” que deben compartir las soluciones “razonables.” Según Gordon Kane, experto en la fenomenología de la teoría de cuerdas, un bosón de Higgs con una masa de unos 127 GeV y un gravitino que se desintegra en quarks de la tercera generación (bottom y top) con una masa del orden de 500 GeV son dos predicciones “genéricas” de la teoría de cuerdas que podrían confirmarse en el LHC del CERN en los próximos años.

Por cierto, esta entrada está basada en Peter Woit, “This Week’s Hype, Part III,” Not Even Wrong, August 25, 2011.

PS (29 ago. 2011): Puedes leer unas palabras del propio Kane (en la línea de mi entrada) en el blog de Tommaso Dorigo, “Gordon Kane On SUSY At The LHC,” A Quantum Diaries, August 28th 2011. He de confesar que escribí esta entrada el día 26 y la programé para hoy, cuando aún Tommaso no había publicado su entrada.

CMS del LHC excluye los gluinos con una masa inferior a 400 GeV (ver figura 2, derecha) en The CMS Collaboration, “Search for Supersymmetry in Events with Photons, Jets and Missing Energy,” CMS PAS SUS-11-009, CERN CDS 2011/08/24; CMS también ha estudiado el caso de gluinos ligeros y squarks muy pesados con conclusiones similares (ver figura 3, derecha, y figura 4), en The CMS Collaboration, “Search for supersymmetry in hadronic final states using M_{T2} in 7 TeV pp collisions at the LHC,” CMS PAS SUS-11-005, CERN CDS, 2011/08/26.

El “fotoelectromojado” (photoelectrowetting) o como mover microgotas de Coca Cola usando luz

El transporte de líquidos en sistemas implementados en microchips es importante en muchas áreas, como los microfluidos o los optofluidos. El movimiento del líquido en estos sistemas se provoca por medios mecánicos (bombas) o por “electromojado” (electrowetting). Steve Arscott (Universidad de Lille, Francia) ha descubierto un nuevo fenómeno, el “fotoelectromojado” (photoelectrowetting) que permite mover una gota de líquido conductor sobre un sustrato formado por un aislante y un semiconductor (una fina capa de teflón sobre una oblea de silicio dopada tipo p o n). La luz genera portadores de cargas en el semiconductor cerca de la superficie del sustrato, lo que altera la capacitancia de la interface con el líquido, modificando el ángulo de contacto de humectación de la gota; si se aplica la luz de forma asimétrica se provoca que la microgota empiece a moverse. Más sencillo imposible, iluminar una gota de líquido y observar como empieza a moverse hacia donde le lleva la luz. El artículo técnico es Steve Arscott, “Moving liquids with light: Photoelectrowetting on semiconductors,” ArXiv, 24 Aug. 2011 (el artículo cita unos vídeos pero no he podido encontrarlos). Por cierto, uno de los cinco líquidos que ha utilizado Arscott ha sido Coca Cola Cero (hecho que he enfatizado en el título). ¿Por qué ha utilizado Coca Cola? Quizás busque un Premio Ig-Nobel.

En el “electromojado” normalmente se utiliza una gota de un líquido conductor colocada sobre un sustrato formado por una fina capa aislante sobre un conductor. Sin embargo, Arscott ha estudiado el efecto de sustituir el conductor por un semiconductor (tanto de tipo p, como en la figura, como de tipo n). Al aplicar una diferencia de potencial entre la gota y el sustrato semiconductor cambia la capacitancia por unidad de superficie en la capa aislante y con ella la tensión superficial del líquido de la gota, lo que hace que su ángulo de humectación varíe. Para un semiconductor de tipo p, una diferencia de potencial positiva (negativa) hace que el ángulo de humectación aumente (disminuya). ¿Cuál es la ventaja de usar un semiconductor en lugar de un conductor como sustrato? En el semiconductor se forma una nueva capacitancia (Cs) que actúa en serie con la capacitancia del aislante (Ci), lo que permite un grado de libertad adicional para el control del electromojado. Si la diferencia de potencial se aplica de forma asimétrica, el ángulo de humectación variará de forma asimétrica y la gota se moverá por el sustrato. Este efecto ya ha sido utilizado en sistemas microfluidodinámicos para mover microgotas.

La idea de Arscott ha sido sustituir la aplicación de un potencial eléctrico asimétrico por una iluminación asimétrica de la gota de líquido. La capacitancia del sustrato es independiente de la iluminación, pero la capacitancia efectiva en el semiconductor (Cs) se puede modificar por dos vías, tanto por un cambio en el potencial eléctrico como por el uso de iluminación adecuada. Esta segunda posibilidad ha sido bautizada por Arscott como fotoelectromojado. La nueva configuración tiene la ventaja de que es muy fácil introducir una asimetría que provoque la gota se mueva por el sustrato utilizando luz.

Asrcott ha utilizado como aislante una fina capa de teflón (Politetrafluoroetileno o PTFE) colocada sobre una oblea de silicio convencional. Se han utilizado obleas con cuatro tipos diferentes de dopaje, que Arscott llama p+, p, n+, y n. Como líquidos conductores, Arscott ha utilizado una solución diluida de ácido clorhídrico, dos soluciones salinas, ácido acético y Coca Cola Cero (en una lata abierta 7 días antes del experimento), cuyas conductividades eléctricas son 3,64 mS/cm, 1,18 mS/cm, 0,12 mS/cm, 1,32 mS/cm, y 1,07 mS/cm. Las microgotas colocadas encima de la superficie de teflón tienen un volumen de unos pocos microlitros.

En resumen, un estudio realmente curioso que por el formato del preprint seguramente habrá sido enviado a Nature o a Nature Physics. Ya veremos si se lo aceptan.

¿Influye la religión en la propagación de las epidemias?

Un biólogo evolutivo, David Hughes, un historiador de la religión, Philip Jenkins, y un demógrafo, Jenny Trinitapoli, han observado que algunas de las religiones más populares hoy en día surgieron al mismo tiempo que se extendieron ciertas enfermedades infecciosas y proponen que la religión influyó en la propagación de dichas epidemias. Según Hughes y sus colegas, las creencias religiosas influyen en los comportamientos de las personas y puede provocar la propagación no intencionada de enfermedades. Por ejemplo, entre los años 800 a.C. y 200 a.C., florecieron las ciudades, las plagas mortales acabaron con casi dos tercios de la población y surgieron varias religiones modernas. Según la opinión de cada religión sobre la enfermedad, las epidemias se propagaron de forma diferente en cada región. La respuesta de la gente a epidemias como la poliomielitis, el sarampión o la viruela, dependió de su sistema de creencias religiosas, que a veces huyó de la enfermedad y otras trató de ayudar a los enfermos. Nos lo ha contado Elizabeth Pennisi, “Does Religion Influence Epidemics?,” ScienceNOW, 23 August 2011.

Según Hughes y sus colegas, en el caso concreto de la tradición cristiana, ayudar a los enfermos era una manera de llegar al cielo, aunque se corriera riesgo de muerte y se favoreciera la propagación de la enfermedad. Las enseñanzas islámicas renegaron de la existencia de las enfermedades contagiosas, en contra de la opinión de algunos eruditos árabes, por lo que no tenía sentido tratar de evitar a los enfermos, que eran cuidados en el seno de las familias. La doctrina judía atribuía la muerte a la voluntad de Dios y promovió la idea de que sólo Dios puede curar a alguien, así que no se incentivaba el cuidado a los enfermos.

Un ejemplo actual es la propagación del SIDA en Malawi, África. El SIDA es la mayor causa de muerte entre los adultos en Malawi, donde afecta a uno de cada 14 adultos. Algunas regiones tienen comunidades cristianas, otras musulmanes, y otras están más mezcladas. El 30% de los cristianos visita regularmente a sus enfermos, pero solo el 7% de los musulmanes lo hacen. En algunas regiones, la promesa de cuidados médicos está provocando cambios de doctrina religiosa. Muchos se acercan al cristianismo y sus variantes (movimiento pentecostal o las iglesias independientes africanas) buscando atención y cuidados, ya que en estas religiones se acepta como algo natural el cuidado a los enfermos por “extraños.” Estas son las conclusiones de un estudio realizado por el demógrafo Trinitapoli que encuestó a 3000 personas de 1000 poblados de Malawi.

La enfermedad también influye en la religión. Las grandes religiones de hoy en día surgieron en épocas con gran cantidad de enfermedades y conflictos sociales. Los investigadores afirman que cuando las personas se sienten amenazadas tienden a formar grupos cooperativos, especialmente entre los que están viviendo en las ciudades lejos de sus familias y tratan de encontrar sustitutos para ellas. La religión pueden haber llenado este tipo de vacío social que las personas pueden haber sentido. 

Un estudio curioso que Hughes y sus colegas han presentado en el 13th Congress of the European Society for Evolutionary Biology, Tübingen, 20-25 August, 2011.

Seis artículos en Science analizan el polvo del asteroide Itokawa traído a la Tierra por la sonda Hayabusa de la agencia espacial japonesa

El éxito de las misiones científicas espaciales tiene dos caras, que el experimento llegue a iniciarse y que los resultados ofrezcan alguna sorpresa que justifique la misión espacial. No siempre el éxito es doble. Lanzada en 2003, la sonda espacial Hayabusa alcanzó el asteroide Itokawa 25143 en 2005, tomando unas 1500 motas de polvo en una cápsula hermética que regresó a la Tierra en junio de 2010. Todo un tesoro para la Agencia de Exploración Espacial Japonesa, que había ensayado durante dos años cómo analizar dichas muestras sin contaminarlas. Itokawa 25143 es un asteroide cercano a la Tierra de tipo S (de silicio), típico del cinturón de asteroides más cercano a la Tierra. Gracias a las medidas espectroscópicas (la luz que se refleja en su superficie) se sabía que están hechos del mismo material que los meteoritos condríticos encontrados en la Tierra. Los científicos ya lo sabían, pero tenían que estar seguros. El nuevo análisis confirma dos cosas del tipo de quien fue primero el huevo o la gallina: por un lado, se demuestra que los asteroides son objetos arcaicos del sistema solar primitivo porque están formados por condritas; por otro lado, se confirma que las condritas son ejemplos de los materiales más antiguos del sistema solar. Una misión de 7 años que fue muy discutida cuando se creyó (durante 5 años) que las muestras podrían haberse contaminado durante el retorno a la Tierra. El análisis final parece indicar que no estaban contaminadas (porque tienen al composición que se esperaba que tuvieran). Repito lo dicho, el éxito de las misiones científicas espaciales tiene dos caras y en este caso solo podemos disfrutar de una de ellas, la otra, confirmar lo que ya se sabía, no ha ofrecido ninguna sorpresa. ¿Ha merecido la pena la misión? Sí, sin lugar a dudas.

Nos lo ha contado Alexander N. Krot, “Planetary Science: Bringing Part of an Asteroid Back Home,” Perspective, Science 333: 1098-1099, 26 August 2011. Los seis artículos científicos son Tomoki Nakamura et al., “Itokawa Dust Particles: A Direct Link Between S-Type Asteroids and Ordinary Chondrites,” Science 333: 1113-1116, 26 August 2011; Hisayoshi Yurimoto et al., “Oxygen Isotopic Compositions of Asteroidal Materials Returned from Itokawa by the Hayabusa Mission,” Science 333: 1116-1119, 26 August 2011; M. Ebihara et al., “Neutron Activation Analysis of a Particle Returned from Asteroid Itokawa,” Science 333: 1119-1121, 26 August 2011; T. Noguchi et al., “Incipient Space Weathering Observed on the Surface of Itokawa Dust Particles,” Science 333: 1121-1125, 26 August 2011; Akira Tsuchiyama et al., “Three-Dimensional Structure of Hayabusa Samples: Origin and Evolution of Itokawa Regolith,” Science 333: 1125-1128, 26 August 2011; y Keisuke Nagao et al., “Irradiation History of Itokawa Regolith Material Deduced from Noble Gases in the Hayabusa Samples,” Science 333: 1128-1131, 26 August 2011.

 

Las 1500 partículas de polvo analizadas están formadas por 5 minerales (algunos comunes en la Tierra y otros no). La combinación concreta de minerales observada no corresponde a ninguna roca terrestre lo que confirma que las partículas de polvo no han sido contaminadas durante su viaje de retorno a la Tierra. Ya se sabía la composición de los asteroides de tipo S  (gracias al análisis de sus espectros de reflexión) y las muestras la confirman de forma definitiva. La composición es similar a la de muchas condritas ordinarias pero no coincide de forma exacta con ellas. Según los autores la erosión por exposición a las condiciones del espacio (space weathering; gracias César por la aclaración) es la responsable de esta diferencia. Por ello, las muestras del asteroide permitirán estudiar y comprender mejor la erosión espacial en el interior del sistema solar (ya había sido estudiada en la Luna y Marte).

La agencia espacial japonesa lanzará en 2014 una nueva misión Hayabusa 2 que repetirá la hazaña en un asteroide de tipo C  (de carbono). Se espera que el número de muestras recogidas sea mayor. Dado que los asteroides de tipo C son muy ricos en agua y en materiales orgánicos, se espera obtener información muy relevante sobre el origen del agua y de la vida en el Sistema Solar.

PS (28 ago. 2011): Recomiendo la lectura de la entrada de César, “Resultados de Hayabusa: el origen de los meteoritos y los asteroides menguantes,” Experentia Docet, 26 agosto 2011. Para abrir boca, el primer párrafo de su estupenda entrada es “Uno de los logros más impresionantes de la astroquímica (cosmoquímica si somos puristas) acaba de adquirir carta de naturaleza con la publicación en Science de una serie de 6 artículos con los resultados de los análisis completos de unas 1500 partículas, de entre 3 y 180 µm de tamaño, recogidas directamente de la superficie de un asteroide por la sonda japonesa Hayabusa. Los datos confirman que los meteoritos que se encuentran más frecuentemente en la Tierra, las condritas, provienen de los denominados asteroides de tipo S (los rocosos, compuestos de silicio fundamentalmente) y que los asteroides disminuyen su tamaño como consecuencia de la erosión espacial, que también explica las anomalías espectrales observadas.”

La bicicleta que mi hijo quiere que le compre

Ya monta en bicicleta pero no sabe hacerlo como los mayores, soltando el manillar. Ya aprenderá. Por cierto a mí me gusta más esta otra bicicleta (aunque no se pueda montar). No en balde el artículo se publicó en Science (J. D. G. Kooijman et al., “A Bicycle Can Be Self-Stable Without Gyroscopic or Caster Effects,” Science 332: 339-342, 15 April 2011). Por cierto, hace unos años un doctorando me preguntó por qué no investigamos la física de la bicicleta y yo le contesté porque ya está muy estudiada; ¡qué equivocado estaba!

La anomalía de los antineutrinos en los reactores nucleares y los neutrinos estériles

Hay muchas noticias científicas de las que no nos hemos hecho eco en este blog, pero quizás tendríamos que haberlo hecho. En enero estuve a punto de hablar del artículo de G. Mention et al., “The Reactor Antineutrino Anomaly,” Phys. Rev. D 83: 073006, 2011 (ArXiv preprint, 14 Jan. 2011). Un artículo citado más de 40 veces en ArXiv y una de las noticias más importantes del año en cuanto a la física de los neutrinos (junto al descubrimiento de que el ángulo θ13≠0). Los autores de este estudio descubrieron una anomalía sin explicación tras mejorar las técnicas para la predicción teórica de los resultados en su artículo Th.A. Mueller et al., “Improved Predictions of Reactor Antineutrino Spectra,” Phys. Rev. C 83: 054615, 2011 (ArXiv preprint, 14 Jan. 2011). Quizás sea buen momento de retomar esta cuestión, que he recordado por los recientes comentarios de Juan F. González Hernández en una entrada anterior. Por cierto, la noticia apareció ya en muchos medios gracias a Eugenie Samuel Reich, “The amazing disappearing antineutrino,”  News, Nature, Published online 1 April 2011.

La producción de antineutrinos en los reactores nucleares es debida a la desintegración beta, la transformación de un neutrón en un protón en el interior del núcleo inestable de un elemento radiactivo con la consiguiente emisión de un electrón y un antineutrino, con lo que el nucleido (A,Z) se transforma en (A,Z+1). Un análisis de 19 resultados publicados sobre el flujo de neutrinos en reactores nucleares ha encontrado un defecto en el flujo de antineutrinos en los detectores que se encuentran a menos de 100 metros del reactor. Un defecto del orden del 3% en el flujo de antineutrinos producido por los isótopos radiactivos 235U, 239Pu, 241Pu y 238U. El nuevo artículo afirma que el cociente entre la tasa de eventos observada y la predicha es de 0,943±0,023, que implica una desviación respecto a la unidad con una nivel de confianza del 98,6% (2,2 σ). ¿Qué puede explicar esta anomalía? Obviamente, podemos ser malos y pensar que los nuevos cálculos teóricos de Th.A. Mueller et al. para la tasa de emisión de antineutrinos por reactores  ocultan algún fallo que nadie ha sabido ver aún (los cálculos previos no predecían la anomalía conduciendo a 0,976±0,024). Otra posibilidad es que la anomalía observada, de solo 2,2 σ de confianza, podría ser una fluctuación estadística o el efecto de errores sistemáticos; hay que recordar que menos de 100 metros es una distancia muy corta para observar oscilaciones de neutrinos; aunque en descargo de los autores, que una fluctuación estadística esté correlacionada en 19 experimentos diferentes parece poco probable. Finalmente, la posibilidad más interesante es que estemos ante una señal de nueva física más allá del modelo estándar.

Mention et al. han estudiado la posibilidad de que la anomalía que han observado tenga su origen en la existencia de un cuarto neutrino estéril (los neutrinos faltantes oscilarían (cambiarían de tipo/sabor) a dicho neutrino). Combiando sus nuevos resultados con los de los experimentos GALLEX-I, GALLEX-II, SAGE-Cr, SAGE-Ar y MiniBooNE confirman dicha hipótesis (descartan la hipótesis contraria de que no haya oscilación al 99,8% C.L. o con una confianza de 3 σ). El problema con la existencia de este neutrino estéril es que su existencia junto a la anomalía de antineutrinos descartan al 90% C.L. que el ángulo θ13>0 (el otro gran resultado de este año en física de neutrinos que contamos en “Los seis neutrinos que cambiaron el mundo“). Sin embargo, no todos los físicos están de acuerdo con este análisis de Mention et al. Por ejemplo, Schwetz et al. afirman que la anomalía es compatible con θ13>0 con una confianza de 1,8  σ, y Fogli et al. que afirman que es compatible con sin2 θ13= 0,025 ± 0,007 con una confianza de 1 σ.

Cualquier evidencia de nueva física más allá del modelo estándar introduce una chispa en la mente de los físicos teóricos que no pueden evitar ofrecer soluciones “exóticas” (quizás sea parte de la genética de los físicos teóricos). Por ejemplo, la anomalía de los antineutrinos en los reactores podría estar causada por las dimensiones extra del espaciotiempo, como nos propone Pedro A.N. Machado et al., “An Alternative Interpretation for the Gallium and Reactor Antineutrino Anomalies,” ArXiv preprint, 12 Jul. 2011; ver también P.A.N. Machado, “Large extra dimensions and neutrino oscillations,” NuFact Aug 06, 2011.

Ya hemos hablado de neutrinos estériles en varias ocasiones en este blog (tanto a favor, como en contra de su existencia). Los fermiones con masa, partículas de espín 1/2 como el electrón, tienen dos componentes de helicidad definida, eL y eR; sin embargo, los fermiones sin masa pueden tener una sola componente de helicidad definida, como se pensaba que pasaba con los neutrinos antes de que se descubriera que tenían masa, νeL, νμL y ντL. Ahora que sabemos que los neutrinos tienen masa, luego tienen que existir sus componentes νeR, νμR y ντR. Hay dos posibilidades, que el neutrino sea una partícula de Dirac, como el electrón, o que el neutrino sea una partícula de Majorana (en cuyo caso sería idéntica a su antipartícula). La mayoría de los físicos teóricos prefieren esta última posibilidad, pero los datos experimentales todavían no han podido verificarla. Un neutrino estéril νsL sería un neutrino anti-νR de baja masa que no interacciona mediante las interacciones fundamentales del modelo estándar (las interacciones electrodébil y cromodinámica), pero que puede oscilar con los otros tres neutrinos.

La física de los neutrinos es una de las ramas de la física de partículas más excitantes en estos momentos que promete gran número de sorpresas en la presente década. Una de estas sorpresas podría ser el descubrimiento de la existencia de los neutrinos estériles que podrían ser la antesala a efectos más exóticos (como la violación de la simetría CPT). Los neutrinos estériles también podrían ser un candidato a explicar la materia oscura del universo (no sería materia oscura caliente, solo cálida o warm dark matter), aunque tendrían que tener una masa mucho mayor de 1 eV y los datos cosmológicos apuntan a que la suma de las masas de todos los neutrinos (incluidos los estériles, si existen) es inferior a 1 eV. De hecho, los datos del fondo cósmico de microondas de WMAP-7 son compatibles con la existencia de 3+1 neutrinos (aunque no descartan que haya solo 3 neutrinos). Además, resultados preliminares de IceCube se interpretan mejor con 3+1 neutrinos, aunque tampoco descartan que haya solo 3 neutrinos. Muchos resultados experimentales están a favor de la existencia de los neutrinos estériles y muchos otros están en contra. De hecho, hay quien a propuesto un modelo 3+2, con dos neutrinos estériles como una solución de compromiso que evitaría muchas de las dificultades en contra de la existencia de un solo neutrino estéril (como J. Kopp et al., “Are there sterile neutrinos at the eV scale?,” ArXiv preprint, 23 Mar 2011).

Publicado en Nature: El fenómeno de El Niño influye en la aparición de guerras civiles

Países afectados por El Niño (rojo) y no afectados (azul).

Los ejércitos de Napoleón y Hitler sufrieron el invierno ruso, la Armada Invencible sufrió los elementos en el Canal de la Mancha, sin lugar a dudas el clima y la meteorología influyen en la evolución de una guerra. Pero, ¿influyen también en el inicio del conflicto? Un estudio publicado en Nature ha encontrado una correlación convincente entre el fenómeno de El Niño/La Niña (ENSO) y el inicio de las guerras civiles en los países afectados por dicho fenómeno. Estudios previos con conclusiones similares han sido muy criticados porque la deducción de una relación causa-efecto a partir de un estudio de correlación es una cuestión muy delicada. Sin embargo, el nuevo trabajo de Hsiang et al. se ha publicado en Nature porque se supone que presenta el primer estudio cuantitativo riguroso que relaciona un conflicto civil con las variaciones del clima global. El fenómeno de El Niño corresponde a cambios cuasi-periódicos en la temperatura superficial del océano Pacífico ecuatorial oriental que a través de sus efectos sobre la circulación atmosférica influye en los patrones climáticos en todo el mundo. Hsiang et al. han didivido los países del mundo en dos grupos, los 93 países en los que el efecto de El Niño es fuerte (como Australia, Ghana, Laos, Sudán y Trinidad) y los 82 países que se libran de sus efectos (como España, Afganistán, Grecia, Letonia, Suecia y Túnez), y han correlacionado los conflictos civiles de estos países entre 1950 y 2004 y el índice anual de El Niño. El análisis ha identificado una relación estadística entre los conflictos y ENSO para el primer grupo, pero no para el segundo. En el primer grupo los conflictos aumentan un 3% en los años con La Niña y un 6% en los años con El Niño. Una hipótesis plausible para explicar los hallazgos de los autores es que las condiciones cálidas y secas durante los años de El Niño reducen la producción agrícola, dando lugar a conflictos relacionados con la disponibilidad de alimentos. Pero los autores del estudio prefieren otra hipótesis alternativa, que en los conflictos civiles la incorporación de agricultores a la lucha viene condicionada por las variaciones del clima. Nos lo ha contado Andrew R. Solow, “Environmental science: Climate for conflict,” Nature 476: 406–407, 25 August 2011, haciéndose eco del artículo técnico de Solomon M. Hsiang, Kyle C. Meng, Mark A. Cane, “Civil conflicts are associated with the global climate,” Nature 476: 438–441, 25 August 2011.

He de confesar que a mí estos estudios siempre me dejan con la mosca detrás de la oreja. Quién sabe, quizás soy demasiado escéptico. Os dejo la tabla con los resultados de las correlaciones estadísticas y de las series temporales por si alguien más ducho que yo en estadística puede opinar en los comentarios sobre su fiabilidad y confianza (a mí, la verdad, no me convencen).