Neutrinos superlumínicos en Madrid gracias a Sheldon Lee Glashow, Premio Nobel de Física 1979, el próximo sábado 17 de diciembre

Todo aficionado a la física de partículas que se encuentre en Madrid el sábado 17 de diciembre tiene una cita obligada en la sede de la Fundación BBVA en Paseo de Recoletos, 10. El aforo es limitado y es imprescindible confirmar la asistencia antes del día 16 de diciembre por e-mail (confirmaciones@bbva.es) o llamando al teléfono 91 374 5400. No te la pierdas (se ofrecerá traducción simultánea para los que no dominen el inglés). Yo no podré asistir a la conferencia, una pena. El anuncio me lo dijo Mario Herrero Valea (@Fooly_Cooly) en Twitter y me lo volvió a recordar el mismísimo Luis E. Ibáñez (Universidad Autónoma de Madrid) en un comentario en este blog: «Con ocasión de la inauguración del nuevo edificio del Instituto de Física Teórica UAM-CSIC en Madrid, la semana que viene llegará a Madrid Albert De Roeck, “deputy spokesman” (número 2) del experimento CMS del LHC, uno de los dos detectores más grandes del LHC. El sábado 17 por la mañana habrá unas conferencias en la Fundación BBVA en el Paseo de Recoletos en las que De Roeck contará para el publico en general las últimas novedades del acelerador LHC (incluyendo, según nos ha dicho, el status de la búsqueda del Higgs). Habrá también otra charla del Premio Nobel Sheldon Glashow, que hablará de neutrinos, incluyendo los resultados del experimento OPERA.» Más información en la web del IFT, incluyendo programa y póster de la actividad.

Sheldon Lee Glashow, Premio Nobel de Física en 1979 por ser el padre de la teoría de la unificación electrodébil (premio que recibió junto a Steven Weinberg y Abdus Salam) hablará de neutrinos y de su reciente artículo en PRL junto a Cohen donde propone que los neutrinos muónicos superlumínicos pierden energía por una radiación de tipo Cherenkov. Seguro que todos los asistentes disfrutarán. Aprovechando la ocasión, os resumo la historia de la teoría electrodébil que nos contó en su conferencia Nobel, que espero os anime a asistir a la conferencia.

Bludman propusto en 1958 usar una teoría gauge de tipo Yang-Mills basada en el grupo SU(2) para explicar la interacción débil que predice las corrientes neutras, pero esta teoría no es renormalizable. Schwinger le propuso en 1956 a Glashow, como idea para su tesis doctoral, estudiar mediante una teoría gauge la unificación de la interacciones débil y electromagnética. Como escribe Glashow en su tesis doctoral de 1958, dirigida por Schwinger, la unificación electrodébil podría conducir a una teoría renormalizable. Sin embargo, en su tesis Glashow descubrió que una teoría gauge basada en SU(2) no podría realizar esta unificación pues era incompatible con los experimentos (las corrientes neutras modeladas por el grupo SU(2) no corresponden al fotón). Glashow concluyó que había que extender el grupo de simetrías.

Salam y Ward propusieron en 1959 una teoría gauge para la unificación electrodébil, pero que no incorporaba la violación de la paridad de la interacción débil; en esta teoría las corrientes neutras predichas por Bludman se interpretaban como el electromagnetismo. La teoría tampoco era renormalizable. En 1960 Salam y Ward extendieron su teoría gauge al grupo SU(2)xU(1), pero sin violación de la paridad. En paralelo, mientras estaba en Conpenhague, Glashow propuso en 1960 una teoría gauge SU(2)xU(1) para la unificación electrodébil con violación de la paridad. La teoría de Glashow predecía dos corrientes neutras, las mediadas por el fotón y las mediadas por una partícula con masa (que llamó mesón neutro B, pero que ahora se llama bosón vectorial Z). Glashow buscaba una teoría renormalizable, pero sus cálculos indicaban que su teoría no lo era, aún faltaba una pieza clave. Quizás, unificando esta teoría con la interacción fuerte se pudiera lograr la renormalizabilidad. Salam y Ward extendieron su teoría en 1961 a un grupo SU(2)xSU(2) que incorporaba tanto la interacción fuerte, como la débil y la electromagnética. Tampoco era renormalizable.

Glashow trabajó intensamente en la renormalizabilidad de su teoría durante varios años pero no logró encontrar la pieza que faltaba, la ruptura de la simetría. La masa de las partículas en su teoría no podía introducirse a mano, tenía que aparecer gracias a una ruptura espontánea de la simetría. Glashow recuerda que mantuvo muchas conversaciones en 1960 con Goldstone y Higgs, pero que le sirvieron de poco. Las piezas del puzzle no parecían encajar. La extensión del trabajo de Goldstone sobre la ruptura de la simetría en teorías gauge, realizada entre otros por Higgs en 1964, parecía que no tenía nada que ver con la teoría electrodébil de Glashow y con su renormalizabilidad. En 1967, de forma independiente, Salam y Weinberg incorporaron el mecanismo de Higgs de ruptura espontánea de la simetría a la teoría electrodébil de Glashow. Ambos conjeturaron que quizás con esta adición la teoría sería renormalizable. Sin embargo, estos trabajos pasaron completamente desapercibidos para la mayoría de los especialistas ya que nadie confiaba en que una teoría «tan complicada» fuera renormalizable. En 1970, Iliopoulos y Glashow observaron que ciertas divergencias se cancelaban en la teoría de Salam y Weinberg, pero Glashow confiera que los cálculos eran agotadores. En paralelo, Veltman le propuso a uno de sus estudiantes, ‘t Hooft, que estudiara la renormalizabilidad de esta teoría mediante una nueva técnica llamada regularización dimensional (desarrollada originalmente con la idea de estudiar la renormalizabilidad de la gravedad cuántica con un gravitón masivo). El resultado fue espectacular y en 1971 se descubrió que la teoría electrodébil de Glashow, Salam y Weinberg era renormalizable. El descubrimiento de las corrientes débiles neutras (o sea, el descubrimiento indirecto del bosón Z) puso a Glashow en el camino del Premio Nobel. El Modelo Estándar en su forma actual nació en 1973 y maduró durante la década de los 1970. La década prodigiosa de la física de partículas experimental en la que se descubrieron los quarks, la existencia de tres generaciones de partículas y muchas otras evidencias de la validez del Modelo Estándar. El culmen de la década fue el Premio Nobel de Física 1979 dividido a partes iguales entre Glashow, Salam y Weinberg.

Escuchar a Glashow hablar de neutrinos será todo un placer. Si puedes disfrutarlo, no te lo pierdas. Además, Albert de Roeck, la guinda del pastel, tampoco defraudará.

La falla de Nueva Madrid o un toque de atención a los que modelan por modelar

dibujo20090313residualvelocitynewmadridfaultinpublications¿Madrid en la revista Science? No, Nueva Madrid. ¿Un barrio de Madrid?. No, una ciudad del Estado de Missouri, EE.UU., atravesada por una falla del mismo nombre, epicentro de gran número de terremotos en la zona central de dicho país. La falla fue famosa en 1811 y 1812 por un par de terrremotos de gran magnitud (M>7). El registro geológico de los últimos 5000 años muestra una gran actividad sísmica. ¿Habrá otro gran terremoto próximamente? Los habitantes de Nueva Madrid deben estar bastante intranquilos. Unos estudios geológicos dicen que la falla se mueve a 0.2 mm/año, otros que a 1.4 mm/año, incluso hay un estudio reciente realizado con GPS durante 3 años que afirma que el valor es menor de 2.0 mm/año. Más aún, un análisis por ordenador mostró que dichos resultados se pueden entender como fluctuaciones con media 0.0 mm/año y con origen sísmico pero no tectónico. ¿Qué significan estos valores? Un movimiento de 0.2 mm/año significa un seísmo de escala M=7 cada 10 mil años y uno de escala M=8 cada 100 mil años, pero uno de 2.0 mm/año implica un seísmo de escala M>7 en los próximos 900 años.

Al grano, ¿se mueve la falla o no se mueve?  ¿Qué es lo que pasa? ¿Por qué varía tanto el valor en los diferentes estudios? Porque el valor varía con el tiempo, como se acaba de publicar un estudio que trata de explicarlo, Eric Calais, Seth Stein, «Time-Variable Deformation in the New Madrid Seismic ZoneScience 323: 1442, 13 March 2009 . El estudio nos recuerda la gran complejidad de la predicción de terremotos. La hipótesis habitual en la mayoría de los simuladores por ordenador, que la tectónica local se encuentra en un estado estacionario estable, es insostenible en el caso de la falla de Nueva Madrid y quizás también en muchas otras. Dicha hipótesis sobreestima el número de terremotos en unas zonas y lo subestima en otras. Los investigadores no saben por qué fluctúa el movimiento de la falla con el tiempo. Sorprendentemente, la incorporación de estas fluctuaciones como aleatorias (gaussianas de media cero) permite explicar algunos de los resultados de las últimas décadas en la falla.

La figura de abajo muestra una comparación entre las medidas diarias observadas en la sitio RLAP (al norte de la falla) y las obtenidas con un simulador con parámetros perturbados con ruido blanco y coloreado. La simulación reproduce bastante bien la mayoría de las tendencias observadas, así como la pendiente media de la serie temporal (valor observado de -0.9 mm/año versus valor simulado de -0.8 mm/año).

dibujo20090313resultsgpsobservedvsnoisesimulated

Muchos años tratando de mejorar los modelos por ordenador y los efectos físicos considerados para que ahora resulte que los mejores resultados se obtienen suponiendo que los parámetros fundamentales del modelo son puro ruido. Un buen toque de atención para los que modelan por modelar.