Primeros haces de protones estables en el LHC del CERN del año 2011

Los primeros haces estables de protones en el LHC del CERN durante 2011 han recorrido el túnel hoy mismo y se están produciendo las primeras colisiones protón-protón del año que se están almacenando en los discos duros de los experimentos. La luminosidad (número de colisiones por segundo) es bajísima, el valor pico alcanzado hoy (ver la figura) ha sido de unos 1’2/μb/s, un valor que ha de ser comparado con los 200/μb/s de luminosidad pico que se alcanzaron en 2010; hoy se han usado sólo 3 paquetes de protones a 3’5 TeV por haz, una minucia comparado con los 368 que se alcanzaron en 2010 y los 900 que se pretende alcanzar en un par de meses. Las colisiones en serio durante 2011 empezarán dentro de un mes ya que hay varias tareas importantes que se desarrollarán durante las próximas semanas, como limpiar el túnel con haces de alta energía para tratar de evitar la producción de los UFOs que se observaron el año pasado (“OVNIs en el interior del túnel del LHC en el CERN,” 5 octubre 2010).

¿Ya se dicho todo sobre la central nuclear de Fukushima?

No lo sé, pero supongo que sí. Yo estudié una asignatura cuatrimestral (o semestral) de Física Nuclear hace años y poco más tengo que añadir a lo que ya se ha dicho por doquier. En cualquier caso, permíteme recomendar algunas entradas de blogs de amigos y conocidos que me han resultado una lectura refrescante.

Omalaled, “Radiactividad y probabilidad,” Historias de la Ciencia, 20 feb. 2011. “¿Qué hace exactamente la radiación en nuestros cuerpos? ¿Qué daño provoca? El principal problema es que afecta a nuestro ADN. (…) A mayor dosis recibida, mayor probabilidad de que tengamos cáncer, pero la probabilidad existe sea cual sea la dosis. Y nadie se libra de la radiactividad, por lo menos, de un mínimo. Para empezar, nosotros mismos somos radiactivos. Hay radiactividad en los alimentos, en el potasio de las rocas, el radiocarbono del aire, el uranio, el torio naturales, etc. La dosis que recibimos se cuantifica en rem o sievert (100 rem es 1 sievert).” La naturaleza hace “que recibamos 0’2 rem por año. Dicha dosis no debe asustarnos: la estamos recibiendo desde siempre y no parece que nos afecte demasiado. Una dosis de menos de 100 rem no provoca síntomas. (…) Los supervivientes de Hiroshima y Nagasaki recibieron por término medio una dosis de 20 rem. Según los cálculos más aceptados, aumentaron su probabilidad de padecer cáncer en un 0’8%. Así pues, de los 100.000 supervivientes, 800 contrajeron un cáncer extra. (…) En Chernóbil se calcula que unas 30.000 personas que se encontraban cerca de la central recibieron una dosis de unos 45 rem por cabeza. La probabilidad de contraer cáncer de aquellas personas pasó de ser del 20% al 21,8%.” Omalalded nos hace una pregunta a todos: Si te dijeran que en tu ciudad la probabilidad de contraer cáncer en lugar de ser de un 20% es de un 21,8%, “¿abandonarias tu casa? Te recuerdo que estamos hablando de aproximadamente 500 muertes extra por cada 30.000 personas.” Las fuentes de Omalaled han sido Manuel Lozano Leyva, “¿Nucleares? Por qué no,” y Richard A. Muller, “Física para futuros presidentes.” Los dos libros son muy recomendables y el blog “Historias de la Ciencia” también.

Pedro J. Hernández, “Rumores sobre niveles de radiación (Cotilleos radiactivos),” Ecos del futuro, 12 marzo 2011. “MSNBC publica los números en los que interesa fijarse. Los niveles de radiación por hora en la zona cercana a la entrada principal de la planta nº 1 de Fukushima alcanzó 0’59 micro Sievert, que es ocho veces los niveles normales. La sala de control central del reactor registraba niveles de radiación 1.000 veces el nivel normal, lo que sería aproximadamente de 70 microsieverts (7 milirems) por hora. El estadounidense promedio está expuesto a unos 620 milirem cada año. Aproximadamente la mitad provienen de fuentes naturales y la otra mitad de fuentes artificiales, según la Comisión Reguladora Nuclear. Una radiografía de tórax implica una exposición de entre 8 y 10 milirems por placa. Atravesar el país en avión contribuye a una absorción de unos 4 milirems. (…) Hubo alrededor de 80.000 supervicientes de la bomba atómica, por ejemplo, con una exposición promedio de 23 rem.Durante los siguientes 50 años cerca de 9.000 de los supervivientes murieron de cáncer. Sin embargo, sólo unas 500 de estas muertes están en exceso sobre las muertes que de otro modo se habrían producido. (…) Hasta donde sabemos, la situación de la central nuclear de Fukushima es preocupante, pero nada parece indicar de momento que haya un riesgo importante de fuga radiactiva. (…) Afortunadamente —por lo menos hasta donde sabemos— la situación de la central nuclear de Fukushima es preocupante, pero nada parece indicar de momento que haya un riesgo importante de fuga radiactiva. Si todo termina como parece lo más probable ningún ecologista saldrá diciendo que en un terremoto y un tsunami de escalas brutales, que 55 centrales nucleares no produjeran ni una muerte es un ejemplo contundente seguridad.”

Aunque Pedro J. lo ha cambiado en su web, pues lo “escribió en caliente” yo creo que hemos de ser conscientes de esta realidad: “Si la guerra irracional contra la energía nuclear no se hubiese producido, es probable que las viejas centrales como Fukushima” (tiene 40 años de edad) “hubiesen dado paso a nuevas centrales mucho mejor diseñadas y más robustas. Eso significaría una producción de energía aún más segura. Así que la ley de las consecuencias imprevistas también podría ser aplicable a los movimientos ecologistas.” Porque, como bien recuerda rrtucci en los comentarios, aunque “en Japón no hay “guerra contra la energía nuclear”,” hay que recordar que el I+D en reactores nucleares ha sido penalizado a nivel mundial desde el suceso del Reactor de las 3 Millas. La investigación avanza mucho más despacio de lo que quizás debería avanzar. Nadie en 1970 podía pensar que un reactor diseñado en los 1960s y que comenzó a operar en 1971 estuviera en funcionamiento en 2011 (se le han hecho muchos arreglos, pero hay muchos elementos del diseño original que no pueden ser alterados).

Un software que simula dónde van a parar los globos que se les escapan a los niños

¿Dónde van a parar los globos rellenos de helio que se les escapan a los niños? La respuesta es fácil de encontrar en Internet. Pero Patrick Glaschke, no contento con esta respuesta, ha decidido desarrollar un software de simulación que a partir de los datos meteorológicos de la zona donde se abandonó el globo permite estimar la trayectoria que seguirá; para ello utiliza un modelo termodinámico de la interacción entre el globo y el entorno. Más aún, ha validado su teoría con un estudio experimental. Un globo de helio puede alcanzar, en condiciones óptimas, más de 10 km. de altura, puede permanecer en el aire más de 24 horas y puede recorrer una distancia de vuelo cercana a los 3000 km. Sin embargo, las condiciones meteorológicas típicas son adversas para el globo y la vida media típica de un globo está entre 2 y 5 horas. ¿Para qué estudiar todo esto? Porque los globos (no los de los niños) pueden ser utilizados para estudiar la atmósfera, por ejemplo, la contaminación en una ciudad. Patrick está interesado en optimizar las propiedades del globo para garantizar que la distancia recorrida sea máxima. En mi opinión, Patrick también busca un Ig-Nobel. Los interesados en más detalles pueden recurrir al trabajo de Patrick Glaschke, “Trajectories of Rubber Balloons used in Balloon Releases: Theory and Application,” ArXiv, 10 Mar. 2011 [63 páginas], cuyo único problema es que está escrito en alemán.

¿Cómo se valida que un simulador de la trayectoria de un globo ofrece un resultado fiable? Se pueden lanzar miles de globos y pretender recuperar sus restos esparcidos por el suelo en un radio de kilómetros a la redonda. Sin embargo, no es fácil, ya que un globo a mucha altura explota y se rompe en tiras muy finas con un tamaño muy pequeño (ver la foto de arriba extraída del artículo de D. K. Burchette, “A study of the effect of baloon releases on the environment,” Latex Rubber Institute of Malaysia, 1989).

Además, la meteorología y el viento puede hacer que globos que partieron del mismo lugar acaben en lugares muy distantes entre sí. Por ejemplo, en las competiciones de globos aerostáticos sin motor hay globos que recorren decenas de kilómetros y otros que sólo recorren cientos, unos que permanecen en el aire durante días y otros que sólo lo hacen durante unas pocas horas, etc. La figura de arriba muestra los resultados para la Gordon Bennett Cup 1995; el cuadrado es el punto de inicio común y los 18 puntos rojos los lugares que alcanzaron (esta figura está extraída de un artículo que analiza el efecto de la meteorología en la trayectoria de cada globo, Kathrin Baumann & Andreas Stohl, “Validation of a Long-Range Trajectory Model Using Gas Balloon Tracks from the Gordon Bennett Cup 95,” Journal of Applied Meteorology 36: 711-726, 1997).

Para validar su software de simulación Patrick Glaschke ha decidido estudiar siete globos en los que ha colgado una pequeña tarjeta de toma de datos. Los resultados aparecen resumidos en la parte izquierda de la tabla de arriba; gracias a dichos datos utilizando su simulador ha podido obtener los datos que aparecen en la parte derecha de la tabla de arriba. Aunque el procedimiento de validación no me parece muy razonable, la figura de abajo muestra una concordancia razonable entre lo esperado en teoría y lo observado en los experimentos. 

En resumen, un trabajo curioso que disfrutarán quienes sepan leer en alemán.