La docencia, la buena docencia, hay que premiarla (premio SPORE y un par de vídeos sobre saltos hidráulicos con deposición de sedimentos)

La docencia, la buena docencia, hay que premiarla. El buen docente, si es realmente bueno, puede publicar su labor hasta en Science y Nature. Pero ha de ser bueno. Realmente bueno. Un ejemplo, el premio SPORE (Science Prize for Online Resources in Education), premio de la revista Science al desarrollo de materiales educativos online. Este año han sido premiados unos docentes de geofísica por su labor en el desarrollo de unos workshops (desde 2002) llamados «On the Cutting Edge» («en la cresta de la ola») dirigidos a profesores y titulados en ciencias geofísicas (han pasado por ellos más de 1400 docentes de 450 departamentos de geofísica). Los ganadores acaban publicar un artículo en la propia Science contando su experiencia: Cathryn A. Manduca et al., «On the Cutting Edge: Teaching Help for Geoscience FacultyScience 327: 1095-1096, 26 February 2010. Mejor premio, imposible.

Para mí, lo más interesante de lo que cuentan es algo muy importante, algo que no hay que olvidar. La docencia no es una labor individual. El docente contra el resto del mundo es cosa del pasado. Las nuevas tecnologías en docencia, las nuevas metodologías, las nuevas experiencias docentes requieren un equipo de docentes. El docente es un profesional de la docencia. Ya no vale el «cada maestro con su librillo.» El docente debe colaborar con otros docentes, no sólo de su departamento, sino también de otras instituciones, debe crear redes sociales, ahora muy de moda con la Internet 2.0, en las compartir materiales docentes. Como dicen los autores en inglés «a self-sustaining community of sharing» (una comunidad autosostenida de docentes que comparta materiales).

Los lectores habituales de este blog ya sabéis que me encantan los vídeos que muestran experimentos en física de fluidos. Los dos vídeos que ilustran esta entrada son resultado del proyecto «On the Cutting Edge.» En su web, los interesados, podréis encontrar, entre otros materiales, más vídeos que serán de gran utilidad no sólo para profesores de geociencias, sino también para profesores de física e ingeniería en su sentido más amplio.

Por cierto (BTW) ¿te gusta el piragüismo de aguas bravas?

La historia del gran colisionador de electrones y positrones (LEP) del CERN

Túnel del LEP e imanes (arriba) y uno de los detectores (abajo). (C) CERN

Un amigo me ha preguntado: la historia del LHC está siendo muy accidentada, ¿cómo fue la historia del LEP? La verdad es que sólo recuerdo algunos detalles de la historia final del LEP2 cuando estuvo a punto de encontrar al bosón de Higgs (se observó una señal con 3 desviaciones típicas cuando un descubrimiento requiere 5 desviaciones típicas). Permitidme una breve entrada en la que repasemos la historia del LEP del CERN siguiendo la descripción del artículo de Ralph Aßmann, Mike Lamont, Steve Myers (LEP team), «A Brief History of the LEP Collider,» Nuclear Physics B – Proceedings Supplements 109: 17-31, June 2002 (Proceedings of the 7th Topical Seminar). También recurriré a los «History highlights» del CERN.

El gran colisionador de electrones y positrones LEP (Large Electron Positron collider) del CERN fue clausurado en noviembre de 2000, tras casi 12 años de operación. El colisionador protón-antiprotón SPS del CERN observó por primera vez en 1982 los bosones vectoriales masivos de la teoría electrodébil, el Z0 neutro y los W± cargados. LEP fue diseñado como una máquina para estudiar en detalle dichos bosones vectoriales procediendo en dos etapas: LEP1 y LEP2, diseñadas para alcanzar una energía máxima por haz de 55 y 95 GeV, respectivamente, ya que la producción del Z0 requería que cada haz tuviera una energía mínima de 45’6 GeV y la de los W± una energía mínima de 80’5 GeV. LEP1 utilizaba 5176 imanes, 128 cavidades de aceleración y contenía cuatro detectores ALEPH, DELPHI, L3 y OPAL. LEP2 contenía 288 cavidades de aceleración superconductoras adicionales con objeto de lograr doblar su energía de operación. La etapa final del funcionamiento del LEP2 se centró en la búsqueda del bosón de Higgs para lo que se incrementó la energía por haz de 80’5 a 104’5 GeV progresivamente entre 1996 y 2000, logrando descartar un Higgs con una masa menor de 95 GeV/c² en 1998 y menor de 114’4 GeV/c² en noviembre de 2000.

Los primeros haces de partículas en el LEP1 se inyectaron el 14 de julio de 1989 tras 6 años de construcción, que se inició el 13 de septiembre de 1983. La excavación del túnel de 27 km de circunferencia que albergó el LEP se inició en febrero de 1985 y su construcción requirió tres años de trabajo. El 23 de julio de 1989 los haces de partículas ya circulaban por todo el anillo y el 4 de agosto se logró que uno de los haces alcanzara 45’6 GeV. Las primeras colisiones y los primeros bosones Z0 se produjeron el 13 de agosto de 1989.

El primer año de operación, 1990, fue más complicado de lo esperado. Los haces de partículas no estaban suficientemente colimados (la anchura de los haces era más grande de lo deseado) y se probaron varios diseños diferentes de la óptica de enfoque. Los problemas de colimación continuaron en 1991 y en 1992, cuando se probó sin éxito una óptica 90º/90º para sustituir a la original de 60º/60º. Fue un desastre ya que inestabilizaba los haces, por lo que se acabó usando una óptica mixta 90º/60º en 1993, que se mantuvo hasta 1998. Fueron momentos duros para los físicos e ingenieros del CERN los primeros 3 años del LEP. En 1993 las aguas empezaron a calmarse y el sistema de control definitivo de los haces estaba ya puesto a punto. Se inició entonces un estudio detallado de la física del bosón Z0 durante 3 años.

El año 1996 iba a ser un año de transición hacia LEP2 pero se inició con un incidente frustrante, dos botellas de cerveza Heineken se encontraron en una cámara de vacío e impidieron el reinicio normal de las operaciones. Se cambió a una óptica de 108º/60º, más adecuada para LEP2, pero fue imposible calibrar los detectores por lo que hubo que retornar a una de 90º/60º. Se incrementó la energía por haz hasta los 80’5 GeV y se probó una óptica de 108º/90º que también dio peores resultados que la 90º/60º. El año 1997 también se inició con retraso debido a un incendio en las instalaciones de superficie. Se trabajó con una óptica 90º/60º pero se hicieron pruebas con una óptica 102º/90º, que acabaría siendo la definitiva para LEP2, con la que se alcanzaría en 1998 una energía por haz de 94’5 GeV y de 101 GeV en 1999.

En el año 2000 el LEP2 había alcanzado los límites para los que había sido diseñado y el bosón de Higgs no aparecía. La instalación del LHC en el mismo túnel requería que LEP2 fuera desmantelado. Muchos físicos pensaban que tenían el Higgs en «la punta de la lengua.» Tratando de maximizar las posibilidades de encontrarlo se llegó a alcanzar una energía máxima por haz de 104’5 GeV. En junio de 2000 el detector Aleph detectó una señal que apuntaba a un bosón de Higgs con una masa de 115 GeV/c². En septiembre de 2000 la señal era aún más clara y se solicitaron 2 meses más de operación, pero sólo se concedieron 6 semanas. Tras este periodo la evidencia de un bosón de Higgs con dicha masa alcanzó 2’9 σ (se necesitan 5 σ para proclamar un descubrimiento). El 8 de noviembre de 2000, LEP2 fue definitivamente clausurado.

Publicado en PLoS ONE: Los reliquias de Santa Brígida en Suecia son un siglo más antiguas que ella

Santa Brígida en el retablo de la iglesia de Salem, en Suecia (izq.) y reliquias (restos de Santa Brígida) en Vadstena, Suecia (der.). (C) PLoS ONE

Santa Brígida, patrona de Suecia y nombrada por Juan Pablo II en 1999 como una de las seis patronas de Europa, vivió en el siglo XIV, entre 1303 y 1373. En la Abadía de Vadstena en Suecia se conservan dos cráneos, uno de los cuales se supone que pertenece a ella y el otro a su hija, que han sido venerados durante 600 años. Un análisis forense antropológico en los 1950 demostró que eran los cráneos  de dos mujeres, una con una edad entre 60 y 70 años y la otra con entre 50 y 55 años. Ahora, Marie Allen, genética forense de la Universidad de Uppsala, Suecia, y su equipo ha realizado un análisis genético utilizando ADN mitocondrial que ha demostrado que ambos cráneos corresponden a mujeres, pero que no son madre e hija. Además, la datación con radiocarbono ha mostrado que son cráneos del siglo XIII, entre 1215 y 1270, es decir, ninguno de los dos puede corresponder al cráneo de Santa Brígida. El artículo técnico es Martina Nilsson et al., «Analysis of the Putative Remains of a European Patron Saint–St. Birgitta,» PLoS ONE 5: e8986, February 16, 2010. Parece ser que al párroco de la Abadía de Vadstena no le importa el resultado del análisis: la iglesia está abierta a los resultados de los análisis científicos sobre reliquias, aunque como están santificadas seguirán siendo veneradas. La fe no está reñida con la ciencia.

Publicado en Science un resumen del Manifiesto «Investigar es invertir en futuro» (no al «tijeretazo»)

«Manifiesto: Investigar es invertir en futuro«

Xosé Afonso Álvarez, Noemí Cabrera-Poch, Ana Canda-Sánchez, Carlos Fenollosa, Elena Piñero, Mark J. van Raaij, Eva Sánchez Cobos, Ignacio Segura Pérez, Francisco J. Tapiador, y Ana M. Torrado Agrasar, son los autores de una carta al Editor de Science, «Spain’s Budget Neglects Research,» Science 327: 1078-1079, 26 February 2010, en la que resumen el Manifiesto (que te recomiendo que leas en el enlace que abre esta entrada) y que traduzco aquí.

«La investigación y la innovación son cruciales para el desarrollo y el bienestar de la sociedad. En el contexto de la crisis actual, es urgente cambiar el modelo económico de España en pos de una economía sostenible. Sin embargo, observamos que la inversión en investigación y desarrollo es el primer «daño colateral» en las finanzas del Estado, a pesar de que sólo dedicamos a Investigación+Desarrollo+innovación (I+D+i) el 1’35% del PIB. Un colectivo muy afectado por este «tijeretazo» será el de los aspirantes a entrar en la carrera investigadora y, especialmente, el de los científicos con contrato temporal, que verán en muchos casos como éste no se renueva, después de todos sus años de trabajo, durante un proceso de formación y perfeccionamiento continuo financiado en gran parte por el Estado, que desaprovecha así su inversión.

El sector científico fue totalmente marginado de las medidas anticrisis, cuando un Plan-E consagrado a la Investigación y a las infraestructuras científicas podría haber cumplido los mismos objetivos que el efectivamente realizado y haber supuesto un salto cualitativo aprovechable en años posteriores. El aumento del paro debería haber impulsado un programa nacional urgente de formación de investigadores y técnicos y de reciclaje de trabajadores de sectores excedentes; además, hubiese sido un excelente momento para impulsar las actividades de I+D+i en el sector privado.

El sistema científico español adolece de una serie de males estructurales, endémicos, que, en el mejor de los casos, son parcheados de un modo deficiente, como el cambio continuo de los responsables burocráticos y de las estructuras de gestión de la investigación, la falta de un calendario fijo de convocatorias de proyectos de investigación, la arbitrariedad y falta de planificación en los sistemas de selección, promoción y estabilización del personal, y la paralización de diversas iniciativas legislativas necesarias.

Creemos que es hora de salir a la calle y exigir una apuesta clara y decidida por una sociedad basada en la investigación y el desarrollo como pilares de futuro, exigir un incremento real de los recursos públicos y privados en el sector de I+D+i, de modo que en el plazo más corto posible se iguale la media europea en % de PIB, y exigir el diseño de una carrera investigadora que favorezca la estabilización de los investigadores.

Las diferentes asociaciones, sociedades, sindicatos, grupos e investigadores abajo firmantes creemos que es el momento de que toda la comunidad científica, todos juntos, apostemos clara y decididamente por la ciencia y la innovación en España.»

PS (27 feb. 2010): La noticia ha llegado a portada en Menéame. Es importante que este Manifiesto tenga repercusión en los medios nacionales, no sólo internacionales.

Publicado en Science: ¿Resuelta la paradoja de Abraham-Minkowski sobre el momento lineal de la luz con un empate?

Cometa Hale–Bopp visto en California en 1997 mostrando dos colas (izq.). La cola azul de iones es debida al impulso del viento solar. La cola blanca de polvo es debida a la presión de la radiación solar. El momento en este segundo caso es menor que en el primero por eso las dos colas se separan. Comparación entre las fórmulas para el momento de Abraham (der. arriba) y Minkowski (der. abajo) para el momento / pseudomomento de la luz en un medio. (C) Nature (izq.) y Science (der.)

El momento de luz describe la fuerza que la luz ejerce sobre los objetos que la absorben o reflejan. La cola de un cometa es debida a la acción de la luz solar que transfiere momento a las partículas de polvo que lo rodean generando una cola en la dirección opuesta al Sol. El momento lineal, p, de la luz (de un fotón) en el vacío está claro y es igual a p=E/c, donde E es la energía del fotón y c es la velocidad de la luz. Sin embargo, en un medio material con índice de refracción n la cuestión no está resuelta. En 1908, Hermann Minkowski calculó la respuesta obteniendo p=(n E)/c, pero en 1909, Max Abraham propuso como fórmula para lo mismo p= E/(n c). ¿Cuál es la respuesta correcta? Como nos cuenta Adrian Cho en Science [1], Stephen Barnett, físico teórico de la Universidad de Strathclyde, Glasgow, GB, afirma que ha resuelto la paradoja de Abraham-Minkowski [2] dándole la razón a Peierls [3]: las dos fórmulas son correctas, pero se refieren a cosas distintas y son aplicables en contextos diferentes. La fórmula de Minkowski se refiere al momento canónico y la de Abraham al momento cinético. El momento total del sistema materia-luz es único, pero su separación en dos componentes, una para la luz y otra para el material, puede ser realizada de dos formas diferentes, asociando a la luz la parte cinética o asociando a ella la parte canónica, de ahí que haya dos fórmulas posibles. Lo dicho, una solución que me suena muy similar a la ya ofrecida por Peierls [3]. Todo esto me suena a algo ya leído. Como nos contó Leonhardt en Nature [4], algunos experimentos indican que Minkowski tenía razón, otros que la tenía Abraham. Por ejemplo, el Premio Nobel Wolfgang Ketterle [5] midió el efecto en 2005 utilizando estados condensados de Bose-Einstein y, para su sorpresa, observó la predicción de Minkowski. Dereli et al. [6] utilizaron la teoría general de la relatividad para presentar una respuesta dual: cuando la luz actúa como onda, Minkowski tiene razón (como en el experimento de Ketterle), pero cuando actúa como partícula, es la fórmula de Abraham la que se aplica. ¿Ha resuelto Barnett la paradoja? En mi opinión, todavía no y correrán más chorros de tinta discutiendo este asunto tanto con experimentos mentales como con nuevos experimentos.

Fórmulas del artículo de Barnett (sólo para físicos).

Resumen de las fórmulas de Barnett, para los lectores que sean físicos. (C) Phys. Rev. Lett.

Permitidme que recapitule lo que nos cuenta Peierls [3]. Cuando la luz atraviesa un medio material, el campo electromagnético de la luz pone en movimiento los átomos del medio, por lo que el momento lineal total, p, tiene dos componentes, el propio de la luz y el del movimiento de los átomos. La paradoja tiene su origen en que si consideramos un fotón como una onda plana infinita y tomamos un medio infinito, podemos elegir un sistema inercial que se mueva a una velocidad finita arbitraria sin afectar a la física del problema pero, obviamente, afectando al momento total. La fórmula de Abraham considera el medio en reposo y calcula sólo la contribución del campo electromagnético de la luz utilizando el teorema de Poynting. Pero su fórmula no es invariante relativista. La fórmula de Minkowski calcula el pseudomomento (vector de onda) de la luz. El pseudomomento es la magnitud que se conserva ante simetrías de traslación. En el vacío, momento y pseudomomento coinciden, pero en un medio material no lo hacen. Por eso la fórmula de Abraham y la de Minkowski no coinciden. La solución de Barnett utiliza los términos momento canónico y momento cinético en lugar de los términos momento y pseudomomento utilizados por Peierls.

La fórmula de Abraham para el momento del fotón en el cristal se obtiene con el siguiente análisis. Imaginemos un fotón que se dirige hacia un bloque de cristal (véase la figura que abre esta entrada). Juntos, el cristal y el fotón poseen una masa y una energía totales que fluyen en la misma dirección que el fotón. Según las leyes de Newton del movimiento, el flujo debe continuar sin cesar conforme el fotón pasa a través del cristal. Pero dentro del cristal, el fotón se ralentiza. Así que para mantener el flujo constante de energía, el cristal tiene que retroceder en la misma dirección. Por otra parte, la fórmula de Minkowski se obtiene como sigue. Los átomos del medio pueden absorber fotones y reemitirlos. Si el átomo puede absorber luz de una longitud de onda ligeramente más larga que la del fotón que se aproxima, entonces, para absorber el fotón, el átomo debe acelerar alejándose de la fuente de la luz de tal forma que desde su perspectiva la longitud de onda de la luz se acorta por efecto Doppler (como se vuelve más grave el sonido de una sirena si estas en un automóvil que se aleja de la sirena). Este desplazamiento Doppler es proporcional al índice de refracción del medio.

Según Barnett, los dos casos descritos en el párrafo anterior describen dos situaciones diferentes. La fórmula de Abraham modela el «momento cinético» (el impulso mecánico que ejercen los fotones al incidir en el cristal como partículas). Cualquier experimento que mida dicho impulso será descrito por la fórmula de Abraham. La fórmula de Minkowski modela algo más sutil, el «momento canónico» (asociado a la naturaleza ondulatoria de la luz) que es mayor en un material que en el vacío porque longitud de onda de la luz de es más corta en el material. Cualquier experimento para demostrar los efectos de la luz como onda cumplirá con la fórmula de Minkowski. Para los físicos indicaré que Barnett llama «momento canónico» aludiendo al momento conservado según el teorema de Noether para la invarianza del sistema ante traslaciones espaciales. 

La diferencia entre el trabajo de Barnett [2] y el de Dereli et al. [6], en mi modesta opinión, es muy pequeña, si la hay, y en ambos casos se argumenta alrededor de las ideas de Peierls [3]. Por ello, en mi modesta opinión, el debate sobre la paradoja de Abraham-Minkowski continúa abierto.

[1] Adrian Cho, «Century-Long Debate Over Momentum of Light Resolved?,» Science 327: 1067, 26 February 2010.

[2] Stephen M. Barnett, «Resolution of the Abraham-Minkowski Dilemma,» Physical Review Letters 104: 070401, 19 Feb. 2010.

[3] Rudolf Ernst Peierls, «More surprises in theoretical physics,» Princeton University Press, 1991.

[4] Ulf Leonhardt, «Optics: Momentum in an uncertain light,» News and Views, Nature 444: 823-824, 14 December 2006.

[5] Gretchen K. Campbell, Aaron E. Leanhardt, Jongchul Mun, Micah Boyd, Erik W. Streed, Wolfgang Ketterle, David E. Pritchard, «Photon Recoil Momentum in Dispersive Media,» Physical Review Letters 94: 170403, 4 May 2005 [gratis site .au].

[6] T. Dereli, J. Gratus, R.W. Tucker, «The covariant description of electromagnetically polarizable media,» Physics Letters A 361: 190-193, 29 January 2007 [ArXiv preprint gratis].

Publicado en Science: Coki, un «fósil» de polvo interplanetario recogido por la sonda Stardust en el cometa 81P/Wild-2

La nave espacial Stardust voló a principios de 2004 por la nube de gas y polvo alrededor del cometa Wild 2 (der.) y partículas de polvo interplanetario recogidas en la alta atmósfera (izq.). (C) Science AAAS.

La sonda espacial Stardust de la NASA hace cuatro años recogió muestras de polvo de la cola del cometa Wild-2, cuyo análisis se presenta en un artículo aceptado para publicación en Science [1]. El análisis muestra que las colas de los cometas y el cinturón de Kuiper contienen polvo interplanetario arcaico que proviene de la época en la que se originaron los primeros cuerpos sólidos en el Sistema Solar. Más aún, el polvo interplanetario recogido en el cometa tiene características similares al polvo interplanetario que se ha recogido en muestras en la parte alta de la atmósfera terrestre. El equipo investigador, dirigido por la Dra. Jennifer Matzel del Lawrence Livermore National Laboratory de California, ha analizado en detalle una partícula refractaria de aproximadamente 5 µm bautizada como Coki, recogida en un gel por la sonda, cuya composición policristalina es similar a la de ciertos meteoritos llamados condritas carbonosas. Han analizado su contenido en isótopos de aluminio (26Al) y magnesio (26Mg), y no han encontrado trazas del segundo y el contenido del primero es muy bajo, menor de [26Al]/[27Al] < 10–5. Estas medidas han permitido estimar que la edad de Coki que debe ser poco mayor de 1,7 Ma (millones de años) tras la formación de los primeros cuerpos sólidos en el Sistema Solar, las llamadas inclusiones ricas en calcio-aluminio, que recientemente se utilizaron para revisar la estimación de la edad del sistema solar [3]. Estas muestras de polvo son un «fósil» de los últimos momentos de la formación del sistema planetario alrededor del Sol y ayudarán a los astrónomos a reconstruir con precisión las condiciones que reinaban en dicha época.

[1] J. E. P. Matzel et al., «Constraints on the Formation Age of Cometary Material from the NASA Stardust Mission,» Reports, Science Express, Published Online February 25, 2010.

[2] «Kometenbaustoff stammt aus Sonnennähe,» Spektrumdirek, 25 feb. 2010; John Matson, «Wild Ride: Comet Sample May Help Constrain the Early Evolution of the Solar System,» Scientific American, February 25, 2010.

[3] «La edad del sistema solar debe recalcularse,» Odisea Cósmica, 4 de enero de 2010.

Carnaval de la Física (4ª edición): Explicando la física del bosón de Higgs utilizando el índice de refracción en óptica

La que sigue es mi contribución a la 4ª edición del Carnaval de la Física (página web oficial del Carnaval), esta vez organizado por Rael Garcia Arnés en su blog rtfm.es y que se publicará el domingo 28 de febrero (Día de Andalucía). Participé en la 1ª edición, pero no en la 2ª ni en la 3ª, por lo que no prometo nada respecto a la 5ª y sucesivas… Os recuerdo a todos el objetivo de la participación en el Carnaval: «publicar un entrada lo más divulgativo y didáctico posible sobre algún tema relacionado con la Física. La finalidad es mostrar al público en general lo divertida que es la física, las consecuencias fascinantes que tienen los descubrimientos que se han ido produciendo a lo largo de los años y demostrar que también que la física no es tan difícil como la pintan si está bien explicada.» Espero que esta entrada cumpla, al menos parcialmente, con dicho objetivo.

El artículo de Xabier Cid y Ramón Cid, «The Higgs particle: a useful analogy for physics classrooms,» Physis Education 45: 73-75, explica el mecanismo de generación de masa de las partícula elementales gracias al bosón de Higgs mediante una analogía física con el índice de refracción de un medio óptico. Me ha gustado bastante su explicación (mucho mejor que la de Lederman) que os traduzco aquí tratando de preservar al máximo el original. Supongo que los lectores de este blog menos aficionados al tecnicismo agradecerán esta descripción. Los físicos y los demás deben recordar que, aunque la descripción obvia muchos detalles «técnicos» importantes, está pensaba para ser utilizada en enseñanza secundaria no universitaria.

«Cuando la luz, compuesta de fotones, pasa a través de un material transparente como el agua o el vidrio, su velocidad cambia de acuerdo con el índice de refracción del material. Si un rayo de luz entra en la material en un ángulo, se dobla o se refracta como resultado de esta disminución en la velocidad. La razón por la cual los fotones son más lentos cuando pasan a través de un material transparente es el efecto de los campos eléctricos que rodean los electrones y los los núcleos de los átomos en el material. Los fotones son frenados por la interacción con estos campos eléctricos. El efecto es mayor en materiales como el agua y el vidrio que en el aire, debido a su mayor densidad relativa. Los campos actúan como una «fricción» para los fotones, disminuyendo su velocidad de transmisión. Es como tratar de caminar por el fango. El índice de refracción (i) de un material es igual a la velocidad de la luz en el vacío (c), dividida por la velocidad de la luz en el material (v), es decir, i=c/v. El índice de refracción depende de la longitud de onda, es decir, la cantidad de movimiento, de los fotones. Por ejemplo, para la luz visible en el agua, los índices de refracción para el color azul (486,1 nm) es 1,337, para el amarillo (589,3 nm) es 1,333, y para el rojo (656,3 nm) es 1,331, lo que significa que los fotones «amarillos» viajan a través del agua más rápido que los «azules» y los «rojos» aún más rápido. Los fotones azules se comportan como si tuvieran más «inercia», es decir, más «masa».

El índice de refracción da una medida de la interacción entre los fotones y el material a través del cual viajan. En el vacío, todos los fotones viajan con idéntica velocidad. Si el Universo estuviera lleno de agua, los fotones con diferentes longitudes de onda viajarían con diferentes velocidades, todas menores que la velocidad de la luz en el vacío, es decir, aparentarían tener una «masa» en reposo no nula. Sería como si hubiera fotones con «diferentes masas». Se habría pasado de una situación simétrica, en la que todos los fotones son iguales, a una asimétrica, en la que se diferencian en su masa. Esto es lo que en física de partículas se denomina una ruptura espontánea de la simetría.

El modelo estándar considera que justo después de la Gran Exposión todas las partículas eran partículas sin masa. Cuando el universo se enfrió y la temperatura cayó por debajo de un valor crítico, un campo invisible que permea todo el universo llamado el «campo de Higgs» apareció, llenando todo el espacio. El campo de Higgs podría haber sido creado al comienzo del Universo, pero sólo mostró su influencia una vez que el universo se enfrió lo suficiente. La simetría de las partículas sin masa que se había roto. A diferencia de los campos magnéticos y gravitacionales, que varían de un lugar a otro, el campo de Higgs es exactamente el mismo en todas partes. Lo que varía es cómo las diferentes partículas fundamentales interactúan con el campo y reciben su masa en reposo. Por supuesto, otros tipos de interacción, tales como la interacción electromagnética, débil o fuerte puede contribuir al valor de la masa resultante. La diferencia de masa entre un electrón y un quark depende de su grado de resistencia al campo de Higgs.

La situación es similar a la del índice de refracción. El campo de Higgs actúa como un «material transparente con cierto índice de refracción» específico para cada tipo de partícula fundamental. De esta manera, el campo de Higgs dota a cada partícula de un valor diferente de esa propiedad que llamamos «masa en reposo.» Para un protón el «índice de refracción» efectivo debido al campo de Higgs es 2000 veces mayor que para un electrón, por eso su masa en reposo es 2000 veces mayor. La masa inercial de un átomo o molécula aparece cuando sus constituyentes (quarks y electrones, o si se prefiere, protones, neutrones y átomos) se mueven a cierta velocidad relativa respecto al campo de Higgs uniforme. Si estos átomos (o moléculas) cambian sus velocidades, es decir, si se aceleran, el grado de resistencia que ejerce sobre ellos el campo de Higgs cambia, por lo que la masa inercial depende de la velocidad, como indica la relatividad especial de Einstein. 

Obviamente, la analogía tiene sus limitaciones. Por ejemplo, sólo funciona si se considera que la luz está formada por partículas y no por ondas. La refracción de la luz sólo ocurre en un medio material, sin embargo, el campo de Higgs no es un «material» sino que permea el «vacío cuántico.» Sin embargo, los Cid nos indican que siempre que estas limitaciones se tengan claras, la analogía con el índice de refracción puede ayudar a los estudiantes de secundaria a comprender el campo de Higgs. Obviamente, desde un punto de vista cuántico la interacción con el campo de Higgs sólo se realiza en unidades discretas, llamadas partículas de Higgs, o más precisamente bosones de Higgs. Cuando una partícula adquiere masa consume un bosón de Higgs. Las partículas sin masa en reposo como el fotón o los gluones no consumen bosones de Higgs, dejando un conjunto de ellos que se espera que podrán ser detectados en los experimentos ATLAS y CMS del LHC del CERN. Estos bosones de Higgs también sufren el campo de Higgs cuando se propagan por el «vacío cuántico» y por tanto presentan una masa en reposo no nula, que se estima que es de unos cientos de veces la masa del protón. La opinión generalizada es que estas partículas existen, o al menos algún tipo de partícula que desempeñe la función de generación del masa asignada al Higgs-como el que desempeña dicha función. Pero no hay ninguna garantía real de que el LHC la hallará. Se debe encontrar, al menos en los modelos más simples, pero los modelos más simples no siempre tienen razón.»

El fallo del LHC en septiembre de 2008 fue un error de diseño y se podría haber evitado con un buen control de calidad

Interconexión defectuosa en el sector 3-4 del LHC, vista con rayos gamma (izq.) y en esquema (der.).

«Cualquier fallo técnico es un error humano,» dice Lucio Rossi, físico que supervisó la producción de los imanes superconductores del acelerador de partículas LHC (Large Hadron Collider) en el CERN. En un artículo presentado en un conferencia en septiembre de 2009 [1] y publicado en revista el 22 de febrero de 2010 [2] afirma que el fallo catastrófico de la conexión entre dos imanes superconductores en el sector 3-4 no fue un accidente, sino el resultado de un diseño deficiente y de fallos en el control de calidad de las soldaduras e interconexiones. En su opinión, el fallo se podría haber evitado, como nos cuenta en una entrevista que le hace Geoff Brumfiel para Nature News [3].

Errar es de humanos. Los técnicos no soldaron correctamente los cables. Como había más de 10000 conexiones, era inevitable que al menos una soldadura fallara. Si se hubiera soldado con un material que contuviera plomo, algo que se desechó porque podría causar daños a los soldadores, el problema se habría evitado. Habría que haber diseñado un sistema de detección de estos posibles fallos. El nuevo sistema de detección de sobrecalentamiento en los circuitos, instalado tras el accidente, se podría haber previsto antes. El sistema diseñado para la protección de la instalación ante estos fallos resultó ser ineficaz y el fallo de la interconexión se propagó con consecuencias mucho más drásticas de las que inicialmente se habían considerado.

Las palabras de Lucio Rossi son duras, pero más claro agua. El LHC va a funcionar este año a medio gas porque el análisis de las conexiones realizados el verano pasado encontró que podría haber otras conexiones mal soldadas y funcionar a pleno gas provocaría más fallos similares. Se necesitará un año para corregir dichas soldaduras. Hasta 2013, como pronto, el LHC no podrá funcionar a full. No hay que olvidar que el LHC es el instrumento experimental más grande y más complejo desarrollado por el hombre.

Steve Myers, jefe del proyecto del LHC afirma que Rossi es quizás demasiado duro con sus palabras. «En un proyecto técnicamente tan complicado y con fechas tope tan ajustadas que es inevitable que algo salga mal.» Pero Rossi tiene defensores. Jim Strait, físico del Fermilab, afirma que el análisis de Rossi es correcto, las conexiones entre imanes del LHC no son todo lo robustas que deberían ser. «Todo apunta a que se trató de optimizar el tiempo de instalación de la máquina y no la robustez.» Como afirma Rossi en italiano «Chi non fa, non sbaglia

[1] Lucio Rossi, «Superconductivity: Its Role, Its Success and Its Setback in the Large Hadron Collider (LHC) of CERN,» Presented at 9th European Conference on Applied Superconductity, Dresden, Germany, 13-17 Sep 2009 [CERN preprint gratis, 04 Jan 2010, 27 pp.].

[2] Lucio Rossi, «Superconductivity: its role, its success and its setbacks in the Large Hadron Collider of CERN,» Journal Superconductor Science and Technology 23: 034001, 22 Feb. 2010.

[3] Geoff Brumfiel, «Did design flaws doom the LHC? Catastrophic failure that caused accelerator shutdown was not a freak accident, says project physicist,» News, Nature, Published online 23 February 2010.

Cómo podría esconderse el bosón de Higgs en los datos del LEP2 y del Tevatrón

Desintegración de un Higgs en neutralinos (izq.) y sneutrinos (der.), incluyendo el cociente entre las predicciones supersimétricas MSSM (ver curva "Hidden Sector" en rojo) y el modelo estándar SM (azul). El modelo estándar está dominado por las desintegraciones en quarks bottom (verde) y pares de bosones W (naranja). Un tal Higgs de 100 GeV sería compatible con la búsqueda en LEP2.

 El bosón de Higgs podría haberse producido copiosamente en el LEP2 del CERN y estar haciéndolo en el Tevatrón del Fermilab sin que nadie lo haya detectado. El ajuste experimental de los observables de precisión de la teoría electrodébil utilizando los datos recabados en LEP2 y el Tevatrón apuntan a un bosón de Higgs con una masa de unos 80 GeV, sin embargo, la búsqueda directa de dicho bosón en el LEP2 indica que su masa debe ser superior a 114,4 GeV. Este límite asume que es cierto el Modelo Estándar y se basa en el estudio de la producción conjunta de un Higgs y un bosón Z, desintegrándose el primero en un par de quarks b (bottom). El mejor límite inferior para la masa del Higgs que sea independiente del modelo fue obtenido por OPAL, en concreto 82 GeV. El bosón de Higgs podría estar escondido en los datos de LEP2 con una masa menor de 114,4 GeV si hubiera física más allá del modelo estándar que permitiera BR(h→b b) < 0,20 (o sea, el 20%). Hay muchos modelos que pueden suprimir este modo de desintegración del Higgs y que permiten modos de desintegración no estudiados aún en los datos de LEP2 y el Tevatrón. Un nuevo estudio sugiere que hasta 104 bosones de Higgs con una masa de unos 100 GeV pueden estar ocultos en los datos de LEP2 y del Tevatrón según un modelo supersimétrico mínimo que suprime la desintegración del Higgs en quarks bottom. Los teóricos han pasado el testigo a los físicos de partículas elementales que tendrán que cribar los datos de LEP2 y del Tevatrón para chequear la posible validez de esta sugerencia. El artículo técnico, para los interesados, es Adam Falkowski, Joshua T. Ruderman, Tomer Volansky, Jure Zupan, «Hidden Higgs Decaying to Lepton Jets,» ArXiv, 16 Feb 2010. 

Lo más curioso del nuevo estudio es que ajustando adecuadamente los parámetros del modelo supersimétrico utilizado se pueden suprimir terriblemente los modos de desintegración del modelo estándar para un Higgs con una masa menor de 150 GeV, como muestra la figura de la izquierda para la desintegración de un Higgs singlete. Las desintegraciones del Higgs en el «sector oculto» tienen una probabilidad cercana a la unidad, suprimiendo las desintegraciones compatibles con el modelo estándar hasta en tres órdenes de magnitud. ¿Cómo es posible que el bosón de Higgs esté escondido en los datos ya estudiados? El problema con estos modos de desintegración «exóticos» para el Higgs es que se confunden muy fácilmente con modos de desintegración de los hadrones y la relación señal/ruido para ellos es muy baja. El ruido de fondo debido a la QCD impide ver estas desintegraciones del Higgs «a simple vista» ya que el resultado final es una cascada compleja de electrones y muones, llamada chorro de leptones (lepton jet), final típico de muchos otros procesos. 

La posibilidad de un bosón de Higgs supersimétrico de baja masa está poniéndose de moda entre los teóricos. Otro artículo reciente que la discute es Radovan Dermisek y John F. Gunion, «New constraints on a light CP-odd Higgs boson and related NMSSM Ideal Higgs Scenarios,» ArXiv, 9 Feb 2010, donde se nos indica que, según el modelo NMSSM, un bosón de Higgs CP-impar supersimétrico (h1) de menos de 105 GeV podría escapar del límite de 114,4 GeV del LEP2 gracias a su desintegración h1→ a1 a1, con ma1> 7,5 GeV. El análisis de esta propuesta, utilizando datos experimentales del detector BaBar del SLAC (que estudia millones de bosones B, formados por quarks bottom) muestra que dicho bosón de Higgs preferentemente tiene una masa entre 90 y 100 GeV. 

PS (24 feb. 2010): Algunos estáis interesados en los límites inferiores para la masa del bosón de Higgs según OPAL y LEP, os dejo aquí la figura a partir de la cual se obtuvieron (extraída de esta presentación Joshua T. Ruderman, «Hiding the Higgs with Lepton Jets,» NHETC at Rutgers Physics Department, February 2, 2010, que incluirá un vídeo para Real Player; también es interesante la presentación de C.Csaki, «Buried Higgs,» NHETC at Rutgers Physics Department, 12/08/09, también tendrá vídeo .rm). 

Lo que se descubrirá sobre el universo gracias al satélite Planck

Espectro de la radiación de fondo de microondas (CMB) según WMAP, mostrando los primeros tres picos acústicos, y el esperado para Planck, mostrando los diez primeros. (C) The Scientific Programme of Planck.

El satélite Planck de la ESA nos ofrecerá resultados en 2012 sobre el fondo cósmico de microondas (CMB) con una gran resolución angular (de unos 5´) y una sensibilidad de μK que le permitirá estudiar en detalle la distribución de las anisotropías de la temperatura del CMB (más allá del cuarto pico acústico, ver la figura de arriba) así como su polarización (ver más abajo). La polarización es muy importante porque es el resultado de las ondas gravitatorias primigenias que se generaron durante la Gran Explosión. El análisis detallado de esta polarización (en una escala de 0,1 µK) nos permitirá conocer detalles íntimos de la inflación cósmica. Planck permitirá separar las anisotropías observadas en dos componentes, siendo la componente secundaria debida a las grandes estructuras del universo, que podremos explorar gracias al efecto Sunyaev–Zel’dovich en cúmulos de galaxias y al efecto sobre los fotones del CMB de las lentes gravitatorias débiles. También permitirá estudiar si las perturbaciones de densidad primordiales son gaussianas (como predicen los modelos de inflación) o no, gracias al estudio de las componentes multipolares de la radiación. Los resultados de Planck nos permitirán comparar entre sí diferentes modelos teóricos para la inflación cósmica y para los primeros instantes de la Gran Explosión permitiéndonos decidir cuál de ellos describe mejor el origen del universo. Nos lo cuenta en detalle Amedeo Balbia, «Cosmology from PlanckNew Astronomy Reviews 51: 281-286, March 2007.

Recapitulemos. COBE no tenía resolución suficiente para estudiar con detalle el primer pico acústico de la anisotropía de la radiación del fondo cósmico de microondas (CMB). Dicho pico fue estudiado mediante globos sondas, en experimentos como BOOMERang y MAXIMA, lo que demostró que el universo era aproximadamente plano como predecía la teoría de la Gran Explosión con inflación cósmica. WMAP ha sido capaz de estudiar los dos primeros picos acústicos, el primero mucho mejor que el segundo. Sin embargo, la incertidumbre para el tercer pico es aún alta. WMAP también es incapaz de estudiar en detalle la polarización del CMB.

La evolución del universo durante sus primeros instantes está «congelada» en las oscilaciones y anisotropías del fondo cósmico de microondas (CMB). Estas anisotropías se reflejan en picos acústicos que dan la característica forma «oscilatoria» de la distribución de la temperatura de la radiación CMB. En el plasma de fotones y bariones del universo primigenio, los fotones tienden a eliminar las anisotropías y los bariones, que se mueven a velocidad mucho menores que la velocidad de la luz, tienden a producir anisotropías por atracción gravitatoria. Los picos acústicos corresponden a las frecuencias en las que los fotones se desacoplan de los bariones. La anchura del primer pico determina la curvatura del universo (pero no su topología). El cociente entre las amplitudes del primer y segundo pico determina la densidad de materia bariónica del universo. El cociente entre segundo y tercer pico determina la densidad de materia oscura. Cuanto más picos conozcamos en detalle más precisión tendremos en estas medidas. Además, la localización de los picos nos da información sobre la naturaleza de la densidad de perturbaciones primigenia tras la inflación cósmica del universo. Los modelos más sencillos de inflación cósmica predicen una distribución completamente adiabática para la densidad de estas perturbaciones, pero podría no serlo.

Planck determinará con gran precisión el porcentaje de materia oscura que hay en el universo y también aportará datos sobre su porcentaje de energía oscura (que sólo podrá medir de forma indirecta). La medida precisa de la curvatura del universo y la distribución de la componente secundaria de las anisotropías nos permitirá, gracias al efecto integrado de Sach-Wolfe, estudiar la transición entre un universo dominado por materia a uno dominado por energía oscura (época actual).

Comparación entre la polarización del CMB medida por WMAP y B2K (izq.) y Planck (der.) para los modos TE (arriba) y EE (abajo) suponiendo el modelo cosmológico estándar (ΛCDM). (C) The Scientific Programme of Planck.

Esta figura compara las medidas de la polarización del fondo cósmico de microondas que se pueden obtener con WMAP con las que se espera que se puedan obtener gracias a Planck. Hay dos tipos de polarización en el CMB llamados modos E y B, por analogía con el electromagnetismo, en el que el campo campo eléctrico (campo E) tiene un rotacional nulo, mientras que el campo magnético (campo B) tiene una divergencia nula. Los modos E aparecen de forma natural por difusión en un plasma heterogéneo. Los modos B son una señal de la inflación cósmica y depeden de la densidad de ondas gravitatorias primigenias. La detección de los modos B es extremadamente difícil porque se cree que su intensidad es mucho menor que la de los modos E. Se espera que el satélite Planck sea capaz de determinar con buena exactitud las componentes relativas del espectro angular de la polarización del CMB, tanto las componentes de polarización EE (eléctrica), TE (trasversal eléctrica), como BB (magnética). Esta última es crucial ya que depende de las componentes tensoriales de las perturbaciones primigenias (ondas gravitatorias) y permitirá medir los parámetros de los modelos inflacionarios y por tanto discriminar entre diferentes modelos de inflación. Abajo aparece una figura con una estimación de las posibles incertidumbres que se espera se puedan obtener utilizando Planck.

Estimación del error en la medida de la polarización BB del CMB usando Planck. (C) The Scientific Programme of Planck.