Naukas Bilbao 2012: El evento de divulgación científica del año

Foto de familia de Naukas Bilbao 2012 | Imagen: Javier Pedreira (@wicho) [el único que no sale].

No hay palabras para describir el evento de divulgación científica del año 2012 en España, Naukas Bilbao 2012 (que renació de Amazings Bilbao 2012). He llegado agotado, sin dormir, pero con un gran número de recuerdos de amigos con los que he disfrutado a muerte. Os quiero a todos. Por cierto, en esta foto de @wicho me quité la txapela que decoró mi cabeza durante todo el evento. Si alguien quiere ver una foto de familia Naukas Bilbao 2012 con txapela incluida puede verla aquí gracias a Antonio José Osuna Mascaró (@biotay) quien viajó de regreso a Málaga en el mismo avión que yo [te recomiendo leer su crónica personal].

Lo confieso, yo me comí “el plátano de Jennifer López” que usó Jose Manuel López Nicolás (@Scientia) en su charla | Imagen: J.J. Gallego (@Raven_neo) que titula “Tomando el mejor alimento funcional y radioactivo.”

Dos momentos durante mi charla “Los números que no se pueden calcular” | Imagen: J.J. Gallego (@Raven_neo) que titula “Francis es único” en referencia a mi txapela (una de las sorpresas del evento).

El viernes por la mañana impartí una charla homenaje a Turing titulada “Los números que no se pueden calcular,” centrada en el artículo científico de 1936 que llevó a la fama a Turing. Cuando esté disponible el vídeo online ya lo colgaré para que la podráis volver a disfrutar (si os apetece).

Imágenes: Izquierda de J.J. Gallego (‏@Raven_neo), derecha-arriba de Iván García Cubero (‏@Wis_Alien) y derecha-abajo de Juan José Sáenz (‏@juanchosdlt).

La mesa redonda sobre Inteligencia Artificial fue moderada por José Cuesta (@InerciaCreativa) y Antonio Martínez Ron (@aberron). Participamos Arturo Quirantes (@elprofedefisica), Miguel Santander (@migusant) y yo mismo. Como soy un poco “chupacámaras” al final fui el que más hablé en la mesa; bueno, en realidad es que cuando tres físicos se ponen a hablar de inteligencia artificial, al final, quien más habla es quien también es informático y profesor del área de conocimiento de Ciencia de la Computación e Inteligencia Artificial.

Imagen: Miguel Artime (@Maikelnaiblog) que titula “Ejemplar euskomalagueño de físico.”

Mi txapela ha sido una de las anécdotas más comentadas durante el evento (algunos han llegado a llamarme “Txapela man,” el rey de la farra). La compré en 1998 y me la pongo cuando voy a Bilbao en invierno. En septiembre, recién iniciado el otoño, nunca la uso, pero pensé que podía quedar como un detalle curioso para Naukas Bilbao 2012. Por supuesto, he pasado mucha calor, pero que mucha caló (no estoy acostumbrado a llevar zapatos, pantalones largos y txapela). Aún así, he apechugado con las consecuencias de mi decisión.

Imagen: Diego Arroyo Soto (‏@Arroyuco) que titula “Escuchando a Francis hablando de fisica de particulas.”

Para todos los organizadores de Naukas Bilbao 2012, lo más sorprendente fue la acogida de la charla sobre física de partículas, pasado, presente y futuro del viernes por la tarde. La sala estaba abarrotada y muchos interesados en asistir no pudieron tomar sitio, pues las plazas estaban limitadas. Más de dos horas y media divulgando física de partículas no es habitual, pero lo más sorprendente es que nadie hizo conato de levantarse e irse. Todos aparentemente estaban interesados en lo que Arturo Quirantes (@elprofedefisica), con grandes dosis de humor, Mario Herrero-Valea (@Fooly_Cooly) y yo mismo teníamos que decir sobre este apasionante campo de la física. La charla fue moderada por Javier Peláez (@irreductible) quien, como siempre, volvió a preguntar “¿qué es el espín?” (yo prometí una entrada sobre el tema en los próximos días). Como no podía ser menos, anuncié que los resultados de Planck de principios de 2013 serán una de las grandes noticias del año.

El día grande de Naukas Bilbao 2012 fue el sábado. Yo no intervine en las charlas, tras el palizón del viernes, pero, créeme, fue espectacular. Mucha ciencia, mucho humor, mucho escepticismo y puestas en escena que fueron sorpresa tras sorpresa. Aunque el wifi me fallaba de vez en cuando, traté de tuitear todas las charlas. Disfruté como un niño. Ya estoy deseando que llegue Naukas Bilbao 2013.

Nota dominical: Emmy Noether y su foto más polémica

La portada de la biografía de Emmy Noether (1882-1935) escrita por M. B. W. Tent, “Emmy Noether: The Mother of Modern Algebra,”  A. K. Peters, 2008, ha generado una gran polémica. ¿Realmente dicha fotografía es un retrato de Noether? Según reza en el propio libro, la foto fue tomada de la Colección de Fotos Oberwolfach; sin embargo, dicha foto fue retirada de dicha colección tras la publicación del libro. La foto fue donada a Oberwolfach por Peter Roquette, que la recibió de manos de Margot Chow, la viuda del matemático W. L. Chow, que estudió con Noether en Gotinga en 1933; la viuda Chow pensaba que la retratada era Emmy Noether [fuente]. La foto completa, que incluye a Chow sentado en un banco de la estación de Gotinga con un violín encima de las piernas, es la siguiente [fuente].

La razón de la retirada de la foto de la colección nos la aclaró el propio Peter Roquette en junio de 2010 [original en alemán]. En junio de 2009, Christine Bessenrodt (Universidad Leibniz de Hannover, Alemania) le envió una carta indicándole que tenía serias dudas de que la retratada en la foto fuera Emmy Noether, sobre todo porque el retrato parece de una anciana (Noether tendría 38 años entonces) y la viuda Chow nunca conoció a Noether en persona. En opinión de Roquette la pose accidental de la anciana retratada en la foto apunta a que no se trata de Noether. Más aún, aunque la viuda de Chow ya había fallecido, en su opinión, ni siquiera el retratado es Chow. Lo más probable es que se trate de un amigo, Zeng Jiongzhi (también conocido como Chiungtze Tsen), que fue estudiante de doctorado de Emmy Noether (defendió su tesis doctoral en 1934). Zeng murió en 1940.

Esta foto (Oberwolfach #9268) muestra a Emmy Noether en la estación de Gotinga. Fue tomada por Otto Neugebauer cuando Noether partió para los EEUU. Si quieres puedes comparar ambas fotos tú mismo. En opinión de Roquette queda clara a la vista de estas dos fotos que la portada del libro no muestra a la famosa matemática, idolatrada por los físicos, uno de los grandes genios del siglo XX.

Permíteme un par de notas biográficas de Emmy Noether, para incentivar a la lectura de su biografía. Su padre, profesor de matemáticas en la Universidad de Erlangen, Alemania, fue uno de los responsables de que dicha universidad admitiera a mujeres como estudiantes (a finales del siglo XIX, en Alemania, la educación de las mujeres acababa a los 14 años). Emmy entró en dicha universidad con 18 años, pero solo se permitía que las mujeres fueran oyentes en las clases y siempre con el permiso del profesor (que se podía negar a impartir clase si había alguna mujer presente). Noether publicó en 1918 dos teoremas que relacionaban las simetrías continuas descritas por un grupo de Lie en un sistema físico con leyes de conservación. Su trabajo estuvo en el olvido durante 40 años, hasta que fue redescubierto en 1958 por los físicos de partículas. Noether murió en 1935 sin saberlo, pero hoy en día, ningún curso de teoría cuántica de campos puede omitir el teorema de Noether. A ella le gustaría saber que es la matemática más famosa entre los físicos.

Noether fue admitida en 1904 para realizar su tesis doctoral bajo la dirección de Paul Gordan, amigo de su padre, que finalizó en 1907. Su padre estaba lisiado por la polio, por lo que Emmy permaneció en Erlangen cuidándole y ayudándole en sus tareas académicas, sin salario. En 1915, ya iniciada la I Guerra Mundial, fue invitada por Hilbert y Klein a la Universidad Göttingen, en aquel momento la capital mundial de las matemáticas. Hilbert la contrató como su asistente para sus clases y reorientó su trabajo hacia los invariantes en ecuaciones diferenciales, con énfasis en la teoría de la relatividad general de Einstein. Su artículo de 1918, “Invariante Variationsprobleme,” tenía por objeto clarificar el papel de la conservación de la energía (a nivel local) en dicha teoría. Este artículo le permitió superar la habilitación e impartir clases como profesora a partir de 1919. Decidió reorientar de nuevo su investigación hacia el álgebra abstracta, ideales, anillos, módulos y otras estructuras. Quizás por ello la mayoría de los físicos ignoraron su trabajo durante cuatro décadas.

Más información en español en Sergio Montero Modino, “Emmy Noether y su Impacto en la Física Teórica,” Trabajo para el Curso “Historia de las Matematicas,” impartido por Enrique Zuazua Iriondo, Universidad Autónoma de Madrid, Curso 2005/06, y en inglés en Nina Byers, “The Life and Times of Emmy Noether; contributions of E. Noether to particle physics,” UCLA/94/TEP/42, arXiv:hep-th/9411110, 1994.

XXXIV Carnaval Física: La física de las torres de perdigones de Jeréz

En 1782, el británico William Watts patentó una nueva tecnología para la fabricación de perdigones de plomo para munición, las “torres de perdigones” que reemplazaron el uso de moldes o la inmersión de gotas de plomo en barriles de agua. En estas torres se dejan caer gotas de plomo desde una gran altura (en Baltimore, Maryland, EEUU, hay una que alcanza los 71 m) que adoptan una forma esférica mientras se enfrían durante su caída libre gracias a la tensión superficial. Hay torres de perdigones por todo el mundo (en España las hay en Jerez y en Sevilla). En un torre moderna de finales del s. XX se producen unos diez mil perdigones por segundo. Se vierten unas cinco toneladas de plomo fundido por hora en un recipiente de cobre con 2400 agujeros en su fondo. Los chorros de plomo fundido en caída libre, casi de forma inmediata, se ponen a gotear gracias a la inestabilidad de Plateau-Rayleigh, de manera similar a como gotea un grifo de agua con un caudal bajo. ¿Cómo depende el tamaño del perdigón de la altura de la torre? Nos explican la física y la termodinámica de las torres de perdigones Trevor C. Lipscombe, Carl E. Mungan, “The Physics of Shot Towers,” The Physics Teacher 50: 218-220, April 2012 [acceso gratuito]. He obtenido los dibujos que abren esta entrada de “Metalurgia,” Colectivo Proyecto Arrayanes (gracias a César @EDocet).

Una gota de plomo líquido de masa m cae desde una altura H en una torre de perdigones. La solidificación de la gota requiere una energía igual a  m L, donde L = 24,7 kJ/kg es el calor latente de fusión del plomo. En la parte inferior de la torre hay una cuba de agua que amortigua el impacto y enfría los perdigones hasta la temperatura ambiente. Para evitar la producción de grandes cantidades de vapor de agua, la temperatura del perdigón al alcanzar el agua debe ser menor que el punto de ebullición del agua. Por tanto, la altura de la torre debe garantizar que tras su solidificación, el perdigón debe perder una energía térmica adicional durante su vuelo de al menos m c ΔT, donde c = 128 J /kg/K es el calor específico del plomo y ΔT = 227 K es la diferencia de temperatura entre el punto de fusión del plomo (600 K) y el punto de ebullición del agua (373 K). Un cálculo termodinámico sencillo en función del tiempo de caída (que se puede estimar suponiendo que la resistencia del aire es proporcional a la velocidad al cuadrado, pues el número de Reynolds para este problema ronda los 2500) y del coeficiente de transferencia de calor del perdigón con el aire, permite obtener (los detalles son sencillos y se pueden consultar en el artículo de Lipscombe y Mungan) que el radio del perdigón R está relacionado con la altura H de la caída y la masa original de la gota de plomo están relacionados por la fórmula

R = α H5/8, donde α = 1,2 × 10-4 m3/8.

Esta fórmula sublineal implica que un perdigón de hasta 1,2 mm de radio se puede producir con una torre de al menos 40 metros. Para producir un perdigón con un radio de 1,9 mm se requeriría el doble de altura, unos 80 metros.

En resumen, los detalles del análisis termodinámico de la fabricación de perdigones en un torre de caída libre no son complicados y pueden ser utilizados para ilustrar la termodinámica de la transferencia de calor en cursos de física y/o ingeniería.

Esta entrada participa en la en la XXXIV Edición del Carnaval de la Física, alojada en esta ocasión en el blog colaborativo Hablando de Ciencia.

El tamaño aparente de la Luna en el horizonte y en el cénit

Mucha gente cree que la Luna tiene un tamaño aparente mayor en el horizonte que en el cénit, cuando en realidad es al contrario, debido a la refracción de la luz en la atmósfera. Esta ilusión óptica es debida a que en el horizonte comparamos el tamaño de la Luna con el de los edificios, mientras que en el cénit no tenemos ninguna referencia para comparar. Podemos comprobarlo fácilmente midiendo el tamaño aparente de la Luna con una cámara digital y un software de procesamiento de imágenes. La Luna en el horizonte, parte izquierda de esta fotografía, presenta un área 5,73 ± 0,04 % más pequeña que en el cénit, parte derecha (en píxeles, la Luna en la imagen del horizonte tiene 16.572 ± 62 píxeles, mientras que la del cénit tiene 17.579 ± 44 píxeles). Estas fotografías han sido realizadas con una cámara fotográfica Canon Powershot SX220 HS de 12 megapíxeles. Las fotografías originales se pueden descargar en la información suplementaria del artículo de Adam Ellery, Stephen Hughes, “Measuring the apparent size of the Moon with a digital camera,” Physics Education 47: 616-619, Sep. 2012.

Obviamente, la diferencia de área entre la Luna en el horizonte y en el cénit depende del tiempo meteorológico del día en el que se tome la fotografía. ¿Cuál es la diferencia más grande entre ambas áreas? Según los análisis teóricos, la diferencia mayor es de un 17%, aunque en la práctica no suele superar el 10%. Si algún lector se atreve a hacer la prueba por sí mismo, estaría muy bien que nos mostrara el resultado que ha obtenido en los comentarios. Quizás le interese saber que conviene usar trípode, que la Luna se mueve medio grado (alrededor del tamaño aparente de la Luna) cada dos minutos, y que si el diámetro de la Luna son unos 150 píxeles, se mueve 1,25 píxeles por segundo (con una exposición de 1/8 la Luna se mueve unos 1/8 de píxel).

Atención, pregunta: ¿Se debe especificar la contribución de cada autor de un artículo científico?

Permíteme exagerar un poco. Piensa en un artículo sobre el descubrimiento del bosón de Higgs en el LHC del CERN con más de 2000 autores. Bueno, con más de 2000 nombres y sus afiliaciones. Solo son nombres. Nadie sabe quiénes son, si son doctorandos, postdocs, seniors, jefes, etc. ¿Se debe especificar la contribución de cada autor? ¿Puede que haya personas que no firman el artículo que hayan contribuido más que algunos que lo firman? Quizás Hollywood tiene la respuesta. En 1934, la Academia de Artes y Ciencias Cinematográficas que entrega los Oscar decidió mantener una base de datos de los créditos de todas las películas de Hollywood. Más aún, cualquier persona que aparezca en los créditos puede recibir algún premio, desde los peluqueros a la actriz principal, cada uno con una función bien especificada. ¿Por qué la ciencia no hace lo mismo? Hoy en día, con las tecnologías de la web sería muy fácil hacerlo. Obvio, el problema es otro. ¿Por qué hay que especificar la contribución de cada autor? ¿Realmente le importa a alguien? Preguntas retóricas que nos recuerda Sebastian Frische, “It is time for full disclosure of author contributions,” Nature 489: 475 (27 September 2012), y que discute más en detalle Amber Dance, “Authorship: Who’s on first?,” Nature 489: 591–593 (27 September 2012).

Algunas revistas científicas, como Nature, permiten que los autores especifiquen en qué y cuánto han contribuido en el artículo, pero mucha gente deja vacío el hueco o lo rellena con algunas “mentirijillas” (que todo el mundo acepta, pues quien logra la financiación tiene que firmar aunque no haya hecho nada más). La tecnología está ahí y bases de datos como ResearcherID.comBioMedExperts.com y ResearchGate.net podrían incorporar esta información sin dificultad alguna. La cuestión sobre el tapete es si la transparencia, la sinceridad y el buen hacer deben ser parte íntegra de la ciencia, o solo un adjetivo bonito.

¿Qué opinas sobre este tema? ¿Crees que en el futuro será una práctica habitual especificar la contribución de cada autor de un artículo? Usa los comentarios si te apetece…

Por cierto, a pequeña escala, en artículos con pocos autores, ¿quién debe firmar primero? ¿Es importante quién firma primero?

En ciencia no hay mala publicidad: Los artículos más criticados alcanzan un mayor impacto

Muchos científicos odian que se critique su trabajo, pues piensan que ello conlleva un bajo impacto y bajo número de citas. Sin embargo, los análisis bibliométricos afirman todo lo contrario. Filippo Radicchi (Universitat Rovira i Virgili) ha estudiado el número de citas de los artículos en 13 revistas importantes y ha descubierto que los más criticados (con comentarios enviados al editor que se publican en la propia revista) son más citados en media; además, entre los artículos más citados de cualquier revista siempre hay un alto porcentaje de artículos que han sido “comentados” (o criticados). El dicho popular “Que hablen de mí, aunque sea mal” adquiere todo su sentido en el mundo de las publicaciones científicas. Más aún, el estudio de Radicchi apoya la hipótesis de que las disputas y críticas entre científicos son claves para la producción y difusión del conocimiento, y para el avance de la ciencia. El artículo técnico es Filippo Radicchi (Universitat Rovira i Virgili, Tarragona, Spain), “In science “there is no bad publicity”: Papers criticized in technical comments have high scienti c impact,”  arXiv:1209.4997, Subm. 22 Sep 2012.

La controversia científica es parte coyuntural del progreso científico. Grandes avances científicos del pasado, como el modelo heliocéntrico de Copérnico, la teoría de la evolución de Darwin o la deriva de los continentes de Wegener, han estado rodeados de disputas, críticas y controversias de todo tipo. Por supuesto, muchas investigaciones controvertidas acaban en el olvido o siendo rechazadas, como la fusión fría o la memoria del agua. Aún así, lo que parece claro de la historia de la ciencia es que los cambios revolucionarios suelen ser polémicos y encuentran cierta resistencia antes de ser aceptados.

Fracción de artículos comentados que forman parte del 5% de los artículos más citados (círculos rellenos). Se compara con las predicciones estadísticas de un modelo que no diferencia entre artículos comentados y no comentados.

Los comentarios o cartas al editor en muchas revistas son el medio por el cual los científicas demuestran sus críticas al trabajo publicado por otros. Estos comentarios son considerados por los editores de las revistas como cualquier otro artículo y pasan por una revisión por pares. Hay comentarios positivos que aclaran o complementan el artículo comentado, pero la mayoría suelen ser críticas a las conclusiones o a la metodología utilizada. Normalmente, estos comentarios críticos suelen ir acompañados de una respuesta por parte de los autores (una deferencia muy habitual entre todos los editores). Por tanto, una manera automático de detectar comentarios críticos es considerar los comentarios que van acompañados de una respuesta de los autores. Utilizando esta regla, Radicchi ha estudiado el número de citas recibidas en la base de datos del Web of Science por los artículos de 13 revistas que han recibido “críticas.” Por ejemplo, en Physical Review Letters, el artículo más citado (más de 20.000 citas) fue un artículo criticado. Solo el 3% de los artículos han sido comentados, pero los 5 artículos más comentados están entre los 16 más citados de esta revista. Lo mismo pasa en las demás 12 revistas estudiadas (Nature, Science, Phys. Rev., etc.), los 5 artículos más comentados siempre están en el top de los más citados.

Por supuesto, el estudio de Radicchi tiene muchas limitaciones, entre ellas, que no se incluyen todas las posibles críticas a un artículo, solo las publicadas como comentarios (con respuesta de los autores) en la propia revista. Un análisis más riguroso requeriría estudiar qué artículos que citan al artículo lo hacen criticando sus conclusiones. Radicchi tiene mucho trabajo por delante investigando en dicha línea.

Calcula tu defecto de masa atómica en número de bombas de Hiroshima

La masa de un cuerpo compuesto de partes es igual a la masa de estas partes más la masa equivalente a la energía que las une entre sí, llamada defecto de masa. Si el cuerpo es estable, la masa total del sistema compuesto es menor que la suma de las masas de sus partes por separado, luego el defecto de masa es negativo. ¿Cuál es el defecto de masa de un humano? Por cada kilogramo de tu cuerpo, el defecto de masa es de 7,6 gramos. Multiplica tu peso en kilogramos por 7,6 y calcularás tu defecto de masa en gramos. Medido en energía, tu defecto de masa es enorme. Por ejemplo, la energía de la bomba de Hiroshima corresponde a 0,70 gramos y la de Nagasaki a 0,98 gramos, con lo que un bebé recién nacido con 3,6 kg tiene un defecto de masa equivalente a 39 bombas de Hiroshima o 28 bombas de Nagasaki. Si te apetece, puedes calcular tú mismo el número de bombas de Hiroshima de tu defecto de masa, la energía con la que explotarías si la materia de tu cuerpo fuera inestable. Por cierto, el defecto de masa de la mayoría de los profesores es mayor que el de sus alumnos, luego “los profesores somos más defectuosos que nuestros alumnos.” Seguro que nunca has pensado en ello. Nos lo recuerda Rick Marshall, “The mysterious equation where mass meets energy,” Physics Education 47: 642-644, Sep. 2012.

Los más inquietos querrán saber cómo se han calculado estos números. Para calcular el defecto de masa de un cuerpo humano es necesario conocer su composición. Prácticamente toda la masa de tu cuerpo está constituida de 9 elementos: O (65,5%), C (18,6%), H (10,4%), N (3,2%), P (1,0%), K (0,4%), Fe (0,3%), S (0,3%) y Cl (0,2%). Calculando el defecto de masa de cada elemento se obtiene como suma ponderada un valor de 7,6 gramos por cada kilogramo de masa corporal.

Ya que estamos puestos, conviene recordar que un átomo está formado por electrones unidos por un campo electromagnético a un núcleo formado a su vez por protones y neutrones (llamados de forma colectiva nucleones) unidos entre sí por una fuerza nuclear fuerte. El defecto de masa Δm es la diferencia entre la masa del átomo y la de los protones y neutrones que lo forman, siendo igual a la energía que los une entre sí, vía la fórmula de Einstein ΔE = Δm c². Los electrones no contribuyen pues la energía que une los electrones al núcleo, la necesaria para ionizar el átomo, tiene un valor típico de unos 15 eV (equivalente a un defecto de masa de 2,5 × 10–35 kg). Este valor es ridículo comparado con la energía que une a los nucleones entre sí, cuyo valor típico, salvo para los núcleos ligeros, es de 8 MeV (equivalente a un defecto de masa de 1,5 × 10–29 kg, es decir, unas 55.000 mayor que el valor anterior). Estos números reflejan la diferencia entre una explosión de una bomba convencional (pongamos TNT), que es debida a la energía química entre los electrones, y una explosión de una bomba nuclear (como las de Hiroshima o Nagasaki), que es debida a la energía nuclear entre los nucleones.

La tabla periódica de los elementos contiene 118 elementos, siendo bismuto Z=83 el elemento estable de mayor masa. Todos los núcleos con número atómico Z>83 son inestables y se desintegran en cadenas radiactivas (fisión nuclear). En la Tierra se encuentran de forma natural 90 elementos, siendo el más masivo el uranio-238 con Z = 92. El tecnecio Z = 43 y el prometio Z = 61 son sintéticos, porque son inestables y su vida media es demasiado corta (2,6 millones de años para el Tc y 17,7 años para el Pm); si estos elementos formaban parte de la Tierra cuando nació nuestro planeta, ahora mismo ya se han desintegrado del todo. Elementos radiactivos como el torio Z=90 y el uranio Z=92 tienen vidas medias muy largas, comparables con la edad de la Tierra, por ello observamos elementos como el protactinio Z=91, cuya vida media es muy corta, pero se observan como producto de la desintegración de estos otros (el Pa está en la cadena de desintegración del U).

Conferencia de Francis: “El bosón de Higgs: Mitos y Realidades” en la Sociedad Malagueña de Astronomía

Hoy martes 25 a las 20:30 en el salón de la Sociedad Malagueña de Astronomía tendrá lugar la conferencia con titulo “El bosón de Higgs: Mitos y Realidades” a cargo del Dr. Francisco R. Villatoro del Dpto Lenguajes y Ciencias de la Computación de E.T.S. Ingenieros Industriales (Universidad de Málaga). Anuncio en la web de la SMA.

“Sipnosis: El año 2012 pasará a los anales de la historia de la física por el descubrimiento del bosón de Higgs, la partícula asociada al campo responsable de que las demás partículas adquieran masa. Esta noticia científica tan importante ha suscitado muchas dudas entre el público general que los medios han tratado de aclarar, aunque con poco éxito a la vista del gran número de “mitos” que se han construido alrededor de la física del campo de Higgs.

El Dr. Francisco R. Villatoro revisará los más importantes, como la relación de la masa con la gravedad y la del Higgs con el vacío. Mucha gente cree que entiende qué es un electrón, pero tiene dificultades con el Higgs. Y tratará de resolver estas dudas recordando qué es un campo cuántico, una partícula, una partícula virtual, el vacío y el espín de una partícula. Y para terminar todo lo que sabemos sobre las propiedades del Higgs según la teoría, cómo puede fabricarse esta partícula en las colisiones protón contra protón en el LHC del CERN.”

Qué sabemos de la gigantesca nube de gas caliente que rodea nuestra galaxia

No me gusta nada esta espectacular recreación artística que acompaña a la noticia del día, “La Vía Láctea está rodeada de una gigantesca nube de gas caliente,” lainformacion.com, 25/09/2012. “El observatorio de rayos X Chandra descubre un gigantesco halo de gas caliente a su alrededor. Tiene cientos de miles de años luz y su masa es como la de todas las estrellas de la Vía Láctea. El observatorio Chandra midió ocho fuentes de rayos X situadas fuera de la galaxia y analizaron la forma en que los iones de oxígeno son absorbidos selectivamente en las proximidades de la galaxia. Si el tamaño y la masa estimadas de esta nube son correctas, el descubrimiento podría poner fin al conocido problema de los “bariones perdidos” de la galaxia.” Según las medidas cosmológicas del fondo cósmico de microondas el 73% del universo es energía oscura, el 23% es materia oscura y el 4% es materia (bariónica); por tanto, del total de la “materia” el 83% es materia oscura y el 17% es materia bariónica (recuerda 4/23*100=17). Sin embargo, en las estrellas y en el halo galáctico de la Vía Láctea solo se observa una pequeña parte de la materia (bariónica) que debería haber. El nuevo estudio apunta a una solución a este problema, la materia (bariónica) que falta estaría en la nube de gas ionizado de alta temperatura que rodea a nuestra galaxia. La noticia original es “The Milky Way’s Hot Gas Halo,” NASA, 24/09/2012, y “Galactic Halo: Milky Way is Surrounded by Huge Halo of Hot Gas,” Chandra, 24/09/2012.

Cualquiera que me lea va a pensar que tengo algo en contra de José Manuel Nieves, pero es que últimamente está sembrado. Su noticia “Una gigantesca nube de gas ardiente envuelve la Vía Láctea,” ABC.es, 25/09/2012 (lo de “ardiente” por “ionizado” tiene connotaciones que omitiré comentar), nos explica que los datos de los telescopios Chandra de la NASA (EEUU), XMM-Newton de la ESA (Europa), y Suzaku de la JAXA (Japón) han logrado determinar que “la temperatura del halo oscila entre los 100.000 y los 250.000 grados centígrados” [de dónde habrá sacado estos números, la noticia de la NASA pone entre 1 y 2,5 millones de grados], “varios cientos de veces más caliente que la superficie del Sol; [además] la masa del gas es realmente enorme, oscilando entre la de 10.000 y 60.000 millones de soles, quizá incluso más aún” [de hecho, el artículo original habla de más de 60.000 millones de soles]. La nube “se extiende como mínimo hasta varios cientos de miles de años luz” [el radio estimado es de unos 300 mil años luz], “pero podría llegar incluso a rodear todo nuestro grupo local de galaxias. Sea como sea, su masa es realmente enorme.” ¿Por qué no se ha detectado este halo extragaláctico con anterioridad? Porque “la densidad estimada del halo es tan baja que otros halos similares alrededor de otras galaxias han pasado, hasta ahora, inadvertidos.” Me parece que todo esto requiere una aclaración.

Lo primero, la noticia ya apareció antes del verano, cuando el artículo de Gupta et al. apareció en ArXiv y ha sido refrescada por la aceptación para publicación en MNRAS del artículo de Prateek Sharma, Michael McCourt, Ian J. Parrish, Eliot Quataert, “On the Structure of Hot Gas in Halos: Implications for the Lx-Tx Relation & Missing Baryons,” arXiv:1206.4314, Subm. 19 Jun 2012, que incorpora resultados de modelos numéricos. El artículo de Gupta et al. ya fue publicado en agosto en una revista internacional, A. Gupta, S. Mathur, Y. Krongold, F. Nicastro, M. Galeazzi, “A huge reservoir of ionized gas around the Milky Way: Accounting for the Missing Mass?,” The Astrophysical Journal Letters 756: L8, 2012 [arXiv:1205.5037, Subm. 22 May 2012]. Estos autores enviaron a MNRAS una versión más larga y detallada de dicho artículo Massimiliano Galeazzi, Anjali Gupta, Kevin Huffenberger, Eugenio Ursino, “Detection of X-ray Emission from the Warm-Hot Intergalactic Medium through the Angular Autocorrelation Function with Chandra,” arXiv:1205.5753, Subm. 25 May 2012.

Lo segundo, ¿cuál es el problema de la masa bariónica perdida? La teoría del big bang predice la cantidad de materia (bariónica) que se formó durante la nucleosíntesis primordial. Las medidas de la masa de las estrellas y del gas frío en las galaxias solo explica el ∼ 3% de dicha cantidad (ver siguiente párrafo). Por increíble que parezca, falta el 97% restante. La mayoría de los astrofísicos opinan que esta masa bariónica que falta se debe encontrar en el gas caliente altamente ionizado que se ha observado en el medio intergaláctico (llamado WHIM por Warm–Hot Intergalactic Medium). Estimar la cantidad de WHIM en el universo es difícil y muchos astrofísicos han recurrido a estimarla en el entorno de nuestra galaxia, la Vía Láctea.

Las estimaciones de la masa total de la Vía Láctea (basadas en su interacción con el resto de galaxias del Grupo Local) indican un valor alrededor de 2 billones de masas solares (200 × 1010 M⊙); este valor incluye el disco, el halo y el entorno circumgaláctico. La masa de sus estrellas del disco galáctico totaliza unos 0,05 billones de masas solares y el gas frío (en forma atómica o molecular) totaliza unos 0,01 billones de masas solares, totalizando unos 6 × 1010 M⊙, es decir, un 3% de su masa total. Si la materia (bariónica) es el 17% de la materia del universo, debería haber 34 × 1010 M⊙, por tanto ¿dónde está la materia que falta? Desde hace una década se cree que debe formar parte del gas caliente (o ionizado) que se encuentra más allá del halo galáctico, en el medio circumgaláctico. Las estimaciones de la cantidad de este gas ionizado se basaban en lo que ahora se llama gas “cálido” (warm), con temperatura inferior a un millón de grados, y arrojaban un valor inferior al necesario para explicar toda la materia bariónica.  ¿Dónde está el gas ionizado circumgaláctico que falta?

El nuevo artículo ha estudiado el efecto del gas ionizado de alta temperatura, entre uno y diez millones de grados, que no había sido estudiado con anterioridad. Han estudiado su efecto en las líneas de absorción del oxígeno (O-VII y O-VIII) con corrimiento al rojo z=0, detectadas por telescopios espaciales de rayos X en varios lugares del cielo. Estas observaciones indican la presencia de gas ionizado a entre 1,8 y 2,4 millones de grados, con una densidad muy baja que se extiende por una región enorme, de unos 239 ± 100 kilopársecs (unos 780 ± 326 miles de años luz) de radio; asumiendo el límite inferior, 139 kilopársecs, la masa total de unos 6,1 × 1010 M⊙, una masa similar a la masa del disco y gas frío de la Vía Láctea. Sumando todos los números tenemos una masa de unos 0,12 billones de soles para explicar los 0,34 billones de soles, pero los autores creen que el valor observado se puede extrapolar. Han introducido su resultado en modelos de simulación numérica del entorno circumgaláctico y han concluido que la nueva observación permite explicar de forma razonable toda la materia bariónica que falta (de hecho, los modelos numéricos predicen filamentos de gas gas ionizado circumgaláctico que conectan todas las galaxias del Grupo Local al que pertenece la Vía Láctea). Esta concordancia nos puede llevar a afirmar que se ha resuelto el problema de la materia bariónica. Sin embargo, en mi opinión, todavía es pronto para proclamarlo a los cuatros vientos. Medidas más detalladas en los próximos años serán claves para dar por resuelto este problema.

Por último, ¿cuál puede ser el origen del halo de gas ionizado con una temperatura de más de un millón de grados? Se han propuesto varios modelos para explicar la alta temperatura de este gas. Un halo de gas caliente puede ser consecuencia natural de la formación de la galaxia, ya que así lo predicen muchos modelos por ordenador de formación galáctica. Explosiones de supernovas que se encuentran fuera del plano galáctico pueden haber calentado el gas. Finalmente, también se ha propuesto que las supernovas en el propio disco galáctico pueden actuar como motores de fuentes de gas caliente que siembran el halo a partir del propio gas más frío del disco. Esta última explicación es la más razonable a la vista de los nuevos resultados y de simulaciones numéricas como la mostrada más abajo. Ver, por ejemplo, David B. Henley et al., “The Origin of the Hot Gas in the Galactic Halo: Confronting Models with XMM-Newton Observations,” ApJ 723: 935 (2010) [arXiv:1005.1085], y Alex S. Hill et al., “Vertical structure of a supernova-driven turbulent magnetized ISM,” ApJ 750: 104 (2012) [arXiv:1202.0552].

Por cierto, ¿por qué no me gusta nada la imagen que abre esta entrada? Por varias razones. Las simulaciones numéricas mediante superordenadores indican que el halo circumgaláctico tiene una estructura filamentosa (que en mi opinión el artista ha retratado fatal). La densidad del halo circumgaláctico es muy inferior a la densidad media de la Vía Láctea, lo que no queda bien reflejado en la imagen. Además, aunque en la noticia se habla de 100 kpc, en la imagen el artista utiliza un valor más próximo a 239 kpc. En cualquier caso, la recreación artística es espectacular.

PS: ¿Qué es la temperatura de un gas ionizado?  César @EDocet me ha criticado y con razón por no aclarar qué significa el concepto de temperatura en el contexto de un gas. La temperatura de un gas es una medida de la energía cinética media de sus moléculas (o iones si el gas está ionizado). Cuando las moléculas se mueven más rápido, la temperatura es más alta. Para el gas ionizado circumgaláctico, una temperatura de un millón de grados equivale a una energía por ión entre 0,4 y 1 keV (la masa de un electrón en energía con unos ~500 keV). ¿Te quemarías a un millón de grados si estuvieras en el espacio circumgaláctico como si estuvieras en el infierno? Obviamente, no. El espacio circumgaláctico está vacío, mucho más vacío que el mejor vacío que podemos lograr en la Tierra. La densidad es ridícula, más o menos, ~10-4 cm-3, es decir, hay un ión por cada 10 litros de volumen de espacio. Solo un ión en 10 litros. Más vacío casi imposible, aunque la densidad media del universo es de 1,9 × 10-7 cm-3. El concepto de temperatura para gases tan poco densos solo tiene sentido en regiones inmensas del universo.

Los pulsos de radiación emitidos por un teléfono móvil GSM vistos con un osciloscopio

Mucha gente le tiene miedo a la radiación emitida por los móviles, por lo que no sé si es buena idea que vean la pinta que tienen los pulsos electromagnéticos emitidos por un teléfono móvil GSM (que se emiten en las bandas de 900 y 1800 MHz). En un laboratorio de física que disponga de un osciloscopio es fácil ver estos pulsos. Para los móviles antiguos, cuya antena es exterior, conviene usar diodos para conectarla directamente al osciloscopio (esquemas (a) y (b) en la figura). Para los móviles más modernos, cuya antena no es accesible, se puede utilizar un hilo de unos 30 cm en forma de bucle que envuelva el móvil, que actuará como antena receptora, con o sin diodo (esquemas (c) y (d) en la figura). En el osciloscopio habrá que seleccionar un escala de tiempos de unos 0,5 ms por división y una escala vertical entre 2 y 100 mV por división (que se puede ajustar a mano fácilmente). La figura que abre esta entrada muestra algunos pulsos de ejemplo (para las configuraciones (a), (b) y (c) de la parte derecha). Los pulsos emitidos tienen una duración de 0,56 ms (medio milisegundo) y están separados por 4,6 ms, en la banda de 1800 MHz, o por 9,2 ms, en la banda de 900 MHz. La voz es codificada digitalmente con pulsos y transmitida mediante una modulación GSMK. Los interesados en más detalles pueden consultar la web (hay muchas fuentes). Las figuras de esta entrada están extraídas del artículo de Tomasz Kawalec, “Should we bother with the speed of light in everyday life? A closer look at GSM technology,” Physics Education 47: 579-583, Sep. 2012.