Los científicos pasan demasiado tiempo buscando financiación en lugar de haciendo experimentos

En 2007 un estudio del gobierno de EE.UU. encontró que el personal docente e investigador en la Universidad gasta alrededor del 40 por ciento de su tiempo de investigación navegando por el laberinto de la burocracia (buscando financiación). La situación no es mejor en Europa. Se ha desarrollado un círculo vicioso: conforme más y más personas solicitan subvenciones, las posibilidades de lograr una disminuyen, por lo que los científicos deben presentar cada vez más propuestas. Los que más sufren este círculo vicioso son los científicos más jóvenes. El sistema actual además de hacer un uso ineficiente del tiempo de los científicos, desalienta el tipo de investigación que más puede avanzar el conocimiento. Ante el abanico de propuestas, los organismos públicos de financiación tienden a favorecer la investigación digna pero constante en lugar del trabajo arriesgado, pero potencialmente transformador. El riesgo científico ya no está de moda. Nos lo cuenta el Editorial «Dr. No Money,» Scientific American, May 2011.

¿Qué opinas al respecto?

La NASA retrasa por enésima vez el lanzamiento del espectrómetro AMS-02 hacia la ISS

Los lanzamientos de los transbordadores espaciales siempre están repletos de incidencias (y esta entrada también ha estado sujeta a muchas incidencias). Así que cambio por enésima vez el título y quito los párrafos que taché…

El 29 de abril, a las 3:47 p.m. EDT, es decir, a las 21:47, hora de Madrid, el transbordador espacial Endeavour iba a dar inicio a la misión STS-134 que llevaría el espectrómetro AMS-02 hasta la Estación Espacial Internacional. El lanzamiento se podría haber visto en directo en la web del CERN seguiendo este enlace.

Quizás sea el momento de recordar algunas cosas sobre la AMS-02, para los despistados que no la conozcan. Te recomiendo el artículo de Manuel Aguilar Benítez de Lugo, «En busca de la antimateria perdida,» Real Academia de Ciencias, Exactas, Físicas y Naturales, Director del Departamento de Investigación Básica del CIEMAT, 2010. Os extraigo algunos párrafos, para abrir boca, lo que no quita que también os recomiende su lectura detallada. Las imágenes con las que acompaño esta entrada están extraídas de J. Casaus, «The AMS Experiment on the ISS,» Discrete-08, Valencia (Spain), 2008.

«El estudio de la radiación cósmica ha sido la herramienta fundamental para avanzar en el conocimiento del Universo. El espectrómetro AMS-02 (Alpha Magnetic Spectrometer) será instalado en la Estación Espacial Internacional (ISS por International Space Station) y realizará medidas precisas y de larga duración de las componentes electromagnética y cargada de la radiación cósmica en ausencia de contaminación atmosférica. La ISS (el instrumento de coste más elevado construido hasta la fecha, con un coste estimado de 157 mil millones de dólares, más de 25 veces el coste del acelerador LHC (Large Hadron Collider) en el CERN) es un lugar privilegiado para el estudio de la radiación cósmica primaria, al eliminar los problemas derivados de la existencia de atmósfera. Sin embargo, las restricciones impuestas por el limitado suministro eléctrico y el peso de la instrumentación, así como las implicaciones debidas al entorno de vacío, microgravedad, radiaciones y variaciones de temperatura, constituyen un enorme desafío para el diseño, construcción y operación de instrumentación del tipo de la utilizada en experimentos de física de partículas. El instrumento AMS─02 constituye un esfuerzo pionero para el aprovechamiento del extraordinario potencial de la Estación Espacial Internacional para el desarrollo de un ambicioso programa de investigación en Astrofísica de Partículas.

En 1994 el Profesor S. S. C. Ting, del Instituto Tecnológico de Massachusetts (MIT), Premio Nobel de Física en 1976, propuso al Departamento de Energía (DOE) de los Estados Unidos la construcción de un detector de altas prestaciones para ser instalado a bordo de la ISS. El peso del detector y su consumo eléctrico debían respetar las limitaciones impuestas por la NASA (6700 kg y 2 kilovatios de potencia). El éxito científico de una misión espacial depende del correcto funcionamiento de todos los sistemas que componen el instrumento en las condiciones hostiles espaciales: aceleración 3’0 g en el despegue, deceleración 6’5 g en el aterrizaje, vibraciones (150 dB), gradientes de temperatura del orden de 100 ºC (−65 ºC / +40 ºC), radiación ambiental, alto vacío, microgravedad, impacto de micro-meteoritos, etc. Además, la instrumentación espacial exige un alto grado de redundancia para evitar posibles fallos.

En 1995 nació la Colaboración Internacional AMS que construiría el instrumento en dos etapas. En una primera etapa la Colaboración construiría un instrumento prototipo (AMS-01) que validaría el concepto experimental en un vuelo precursor de uno de los trasbordadores a la estación espacial rusa MIR. En una segunda etapa se construiría un instrumento (AMS-02), con los últimos avances tecnológicos, que sería transportado a la ISS en donde permanecería instalado por un periodo no inferior a 3 años. El AMS─01 tomó datos a bordo de la estación espacial MIR durante el periodo 2─10 de Junio de1998, recolectando unos ~100 millones de rayos cósmicos. Su éxito científico-técnico confirmó que es posible realizar medidas de alta precisión de espectros de partículas cargadas de alta energía en el espacio.

La contribución española al proyecto del AMS-02, organizada desde el CIEMAT (Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas), se ha focalizado en el diseño y construcción, por la empresa CRISA, de los sistemas electrónicos que permiten cargar eléctricamente el imán superconductor, monitorizar y controlar su operación (Cryomagnet Avionics Box, CAB) y en el diseño y construcción del contador Cherenkov (RICH).

Durante los primeros tres años de operación AMS-02 puede acumular estadísticas importantes de los núcleos más abundantes presentes en la radiación cósmica. Por ejemplo: ~108 protones con energías > 100 GeV, ~107 núcleos de helio con energías > 100 GeV/nucleón, y ~105 núcleos de carbono con energías > 100 GeV/nucleón. Estas muestras estadísticas y la precisión en la determinación de las propiedades de las partículas que forman la radiación cósmica, debido a las altas prestaciones del instrumento, van a permitir desarrollar un variado y novedoso programa de investigación:

  • Estudio de precisión de la composición y propiedades de los rayos cósmicos en rangos de energía de hasta 1 TeV.
  • Estudio de la radiación gamma difusa en el intervalo de energía 0’1 GeV – 1 TeV.
  • Estudio de la emisión de rayos gamma con energías superiores a varios GeV en pulsares  en la Vía Láctea.
  • Búsqueda de antimateria cósmica primaria. Con una muestra de 2×109 núcleos de helio con energías hasta los 2 TeV, en caso de no encontrarse ningún núcleo de antihelio, será posible excluir la existencia de antimateria hasta el confín observable del Universo (~1000 Mpc, ~3×1024 km).
  • Evidencia y naturaleza de la materia oscura. El estudio de la dependencia con la energía de la fracción de positrones  (e+) sobre el total de electrones y positrones (e++e) podría revelar la existencia de nuevas partículas compatibles con la abundante presencia de materia oscura. En caso de descubrirse otros posibles candidatos (p. ej. partículas supersimétricas) en experimentos con aceleradores de partículas, el estudio comparativo de las características de ambas señales podría ser de gran interés.     
  • Búsqueda de nuevas formas de materia en el Universo, por ejemplo núcleos de materia compuestos de super-nucleones formados por tres tipos de quarks (u, d, s). Este tipo de núcleos, denominados “strangelets”, se caracterizan por tener pequeños valores del cociente Z/A (~0’1) a diferencia de lo que ocurre en los núcleos ordinarios (Z/A~0’5). Algunas hipótesis apuntan a que las estrellas de neutrones son en realidad un único gigantesco “strangelet”.

El objetivo científico más atractivo del programa de AMS-02 es la exploración de lo desconocido, la búsqueda de fenómenos que existen en la Naturaleza y que nunca habíamos imaginado o para los que no estábamos equipados con la adecuada instrumentación. La versatilidad y prestaciones de AMS-02 hacen que sea considerado ya como el “Telescopio Hubble” para partículas cargadas.

Como se ha constatado en repetidas ocasiones, la Ciencia produce resultados que con frecuencia desafían la intuición humana. Es uno de sus aspectos fascinantes. Como también lo es que muchos de estos inesperados resultados han propiciado cambios radicales en la forma de vida de los seres humanos. Es altamente probable, por no afirmar que inevitable, que la investigación realizada desde la Estación Espacial Internacional con instrumentación novedosa produzca resultados no esperados y contribuya de forma relevante al proceso de acopio de conocimiento científico-técnico en física fundamental y en otras disciplinas, en particular en el campo de la exploración espacial y del conocimiento del Universo.»

Más en este blog sobre la AMS-02: «El lanzamiento del AMS-02 se retrasa hasta el 29 de abril de 2011,» 17 abril 2011.

Récord tras récord, el LHC del CERN navega viento en popa y a toda vela

El Gran Colisionador de Hadrones (LHC o Large Hadron Collider) ha vuelto a lograr un récord de luminosidad instantánea (colisiones protón-protón por segundo) gracias al uso de 624 paquetes de protones por haz. El experimento ATLAS alcanzó 737/μb/s, mientras que CMS se quedó en 660/μb/s, lo que significa unos 30/pb de colisiones diarias en cada experimento. Si el LHC sigue con el viento en popa durante la próxima semana es posible que el próximo fin de semana se logren alcanzar en un solo día tantas colisiones como durante todo el año 2010 completo (unos 40/pb de datos). A este ritmo a mediados de junio se habrá logrado cumplir con el objetivo original para todo el año 2011, alcanzar 1/fb de datos. Pero todo apunta a que los responsables de la máquina van a seguir forzando los números todo lo posible. ¿Se logrará en el próximo mes alcanzar el límite de 1404 paquetes de protones por haz? Si se logra (no es fácil y podrían aparecer inestabilidades en los haces que obligaran a bajar este número) estaremos hablando de unos 70/pb por día. Mejor imposible. En febrero sólo en sueños se esperaba que el 1 de mayo las cosas fueran a este ritmo; hay que recordar que entonces se pensaba espaciar los paquetes de protones a 75 ns, pero tras varias pruebas con un espaciado de 50 ns se ha decidido que este último valor es seguro y será el utilizado durante 2011 y 2012. El trabajo de los responsables de los haces del LHC merece todas nuestras felicitaciones.

Si quieres jugar a adivinar la luminosidad integrada total durante 2011, puedes jugar con Philip Gibbs en «LHC Luminosity Estimates for 2011 (and poll),» viXra log, April 28, 2011.

Por cierto, ¿qué ha pasado con el rumor relativo a una partícula de 115 GeV/c² observada en la búsqueda del Higgs en el canal H → γγ? Un nuevo análisis de los primeros 100/pb obtenidos por el LHC (ahora mismo ya se superan los 240/pb) realizado por ATLAS indica que la señal motivo del rumor ha desaparecido. Más aún, CMS también ha hecho los deberes y también ha buscado dicha señal, tampoco la ha encontrado. No hay nada extraño en los datos. La nueva partícula, bautizada por algunos como el bosón de Wu (la Dra. Wu fue la líder del análisis motivo del rumor), ha desaparecido. Nos lo ha contado Jester, «ATLAS shrugged,» Résonaances, 28 April 2011. 

No será la última vez que haya un rumor de este tipo en los próximos meses (años). En cualquier caso, para mí, lo importante es que ATLAS y CMS han sido capaces de realizar los análisis para refutar este rumor a una velocidad de vértigo, lo que indica lo bien que están engranadas todas las piezas del LHC y sus experimentos. Cierto es que todo está diseñado para trabajar con colisiones a 14 TeV c.m. y que las colisiones a 7 TeV c.m. son como usar un Ferrari en ciudad, todo está «sobrado» (sobredimensionado), pero los ingenieros y científicos del LHC son como principiantes con su «L» bien puesta en el Ferrari. Desde este blog quiero felicitar a todos (muchos de ellos son españoles) por su gran trabajo.

La hormesis y el riesgo de contraer cáncer tras una exposición a dosis bajas de radiación ionizante

Rafael, lector habitual de este blog, tras leer «Por qué la radiactividad causa miedo entre el público general,» 18 abril 2011, donde mencioné la hormesis, me ha recomendado la lectura de un par de artículos: Mark P. Little et al., «Risks Associated with Low Doses and Low Dose Rates of Ionizing Radiation: Why Linearity May Be (Almost) the Best We Can Do,» Radiology 251: 6-12, April 2009; y E. Cardis et al., «Risk of cancer after low doses of ionising radiation: retrospective cohort study in 15 countries,» BMJ 331: 77, 29 June 2005 [varios de los autores son españoles].  Os resumo dichos artículos e incluyo algunos datos adicionales.

El efecto hormético («beneficioso») de la radiactividad a bajas dosis no está demostrado fuera de toda duda por los estudios epidemiológicos. Hay estudios que han encontrado evidencia del efecto «beneficioso» y otros estudios que han encontrado evidencia del efecto «perjudicial» de bajas dosis de radiactividad. Por tanto, Little et al. proponen que la mejor solución de compromiso es considerar que los efectos horméticos no se dan en las exposiciones a bajas dosis de radiactividad y que lo mejor es utilizar la ley lineal sin umbral recomendada por la ICRP (International Commission on Radiological Protection). Su artículo presenta un análisis de la evidencia científica publicada sobre los riesgos respecto al cáncer (de tiroides, mama, pulmón, etc.) y otras enfermedades de la exposición a dosis bajas y moderadas de radiactividad tanto en supervivientes de las bombas atómicas lanzadas en Japón, entre trabajadores de centrales nucleares y entre radiólogos clínicos. Este análisis confirma que dicha evidencia es consistente con las recomendaciones de la ICRP, en contra del uso de un umbral para dosis bajas (u hormesis).

Para medir el riesgo de contraer cáncer tras una exposición a bajas dosis de radiactividad podemos estudiar a los trabajadores de la industria nuclear cuya radiactividad es medida de forma regular y continuada. El mayor estudio realizado hasta el momento entre estos trabajadores comprende 407391 trabajadores de 15 países estudiados durante unos 12’7 años en media. El exceso de riesgo de contraer algún tipo de cáncer (salvo leucemia) relativo a la media que se ha observado entre estos trabajadores es de un 0’97 por Sv (sievert); con un 95% de confianza estadística está en el intervalo [0’14, 1’97]. En el caso de la leucemia el exceso de riesgo es algo mayor, en concreto, 1’93 por Sv. Como resultado, este amplio estudio concluye que la dosis de radiactividad que reciben los trabajadores de las centrales nucleares durante su trabajo incrementa su tasa de morir debido a un cáncer entre un 1% y un 2% respecto a la media (del orden del 20% de las personas muere de cáncer, pero entre los trabajadores de centrales nucleares este número sube en media al 22%). Para los amantes de los números hay que indicar que 24158 (el 5’9%) de los trabajadores han muerto durante el estudio, 196 entre ellos de leucemia y 6519 de otros tipos de cáncer. La dosis media de radiación acumulada por ellos durante el estudio ha sido de 19’4 mSv; el 90% de los trabajadores ha recibido dosis menores de 50 mSv y menos del 0’1% ha recibido dosis acumuladas mayores de 500 mSv. Quiero recalcular este dato; el exceso de 1’93 por Sv acumulado durante todo el estudio es una extrapolación del resultado observado, ya que el 90% de los trabajadores estudiados ha recibido dosis menores de 50 mSv. También quiero recalcar que Cardis et al. aclaran que estudios previos sobre la población de supervivientes de las bombas de Hiroshima y Nagasaki muestra niveles de exceso de cáncer similares a los obtenidos en este estudio.

Según Cardis et al., la recomendaciones de la ICRP (International Commission on Radiological Protection) limitan las dosis aceptables para los trabajadores de centrales nucleares a 50 mSv por año y a 100 mSV por cada 5 años. Para el público en general el límite recomendado es de 1 mSv por año. Entre los trabajadores estudiados, menos del 5% han recibido dosis acumuladas mayores de 100 mSv durante toda su carrera y la mayoría de estos trabajadores las recibieron durante los primeros de la industria nuclear, cuando las recomendaciones ICRP eran menos estrictas que en la actualidad. Si el estudio se limita a estos trabajadores resulta un incremento de la tasa de riesgo de mortalidad por leucemia, cáncer de pulmón y cáncer de la pleura de un 5’9% (entre -2’9% y 17’0% con un intervalo de confianza del 95% ) y de un 9’7% (entre 1’4 y 19’7% al 95% C.L.) para el resto de los cánceres. Fijaros que un valor negativo (como -2’9%) indica un posible efecto hormético.

He buscado un estudio más reciente y he encontrado un artículo [de acceso gratuito] específico para la leucemia («cáncer de la sangre» que se desarrolla en la médula ósea): R.D. Daniels, M.K. Schubauer-Berigan, «A meta-analysis of leukaemia risk from protracted exposure to low-dose gamma radiation,» Occupational & Environmental Medicine, 8 October 2010. El artículo presenta un metaanálisis de 23 estudios (seleccionados entre 55 de los que se descartaron 33 por defectos en su análisis estadístico) sobre una población de más de 400000 trabajadores que reciben dosis bajas de radiactividad. Los resultados de este metaanálisis son similares a los del estudio anterior, se observó un aumento moderado de la tasa de mortalidad por leucemia del 19% (con un intervalo de confianza al 95% entre el 07% y el 32%) por cada 100 mSv de exposición acumulada. ¿Qué significa este número? Que si la tasa de cáncer en la población general es del 20%, la tasa entre los expuestos a baja radiactividad crece un 19% de dicho 20%, es decir, hasta casi un 24%.  

Una pregunta que seguro que te harás es si el riesgo de morir por cáncer entre trabajadores de centrales nucleares (que reciben pequeñas dosis durante mucho tiempo) es mayor que el de los supervivientes de las bombas atómicas de Hiroshima y Nagasaki (que recibieron una alta dosis pero por poco tiempo). Nos ofrece una respuesta el metaanálisis presentado en el artículo de P. Jacob et al., «Is cancer risk of radiation workers larger than expected?,» Occupational & Environmental Medicine 66: 789-796, 2009. Esta figura, extraída de dicho artículo, muestra el exceso relativo de riesgo por dosis recibida para la mortalidad por cáncer en nueve artículos científicos publicados entre 2002 y 2007 sobre los efectos de dosis bajas y moderadas de radiactividad de forma acumulada (símbolos en rojo) comparado con exposiciones a dosis altas entre los supervivientes de las bombas atómicas de Hiroshima y Nagasaki (símbolos azules). Las barras de error indican los intervalos de confianza al 95% para los estudios de los trabajadores en Rocketdyne, los «liquidadores» (trabajadores de emergencia) de Chernobyl y los residentes del río Techa, y al 90% para el resto de los estudios. El resultado de este metaanálisis es que el riesgo es similar. En la figura el eje horizontal es el riesgo de mortalidad por dosis medidas en Sv (dosis equivalente a un gray o Gy). Para mí lo más curioso de esta figura es la alto riesgo al que han estado sometido los trabajadores (científicos e ingenieros) del ORNL (Oak Ridge National Laboratory); la explicación es sencilla pero terrible: en los primeros años de la industria nuclear civil y militar las medidas contra la radiactividad eran ridículas (el ORNL cumplió 60 años en 2003).

Observada por primera vez el efecto de una lente gravitatoria en el fondo cósmico de microondas

 

Un grupo de astrónomos liderados por Sudeep Das, de la Universidad de California, Berkeley, ha detectado por primera vez el efecto de una lente gravitatoria en el fondo cósmico de microondas (CMB). Han utilizado el Telescopio Cosmológico de Atacama (Chile) que permite estudiar las anisotropías del CMB con una precisión 20 veces mayor que la obtenida por el satélite WMAP. Esta detección es una prueba fehaciente de que las leyes físicas de la gravedad también se aplican en el universo antes de la formación del CMB. Más aún, el análisis futuro de otras lentes gravitatorias en el CMB permitirá conocer muchos detalles del modelo cosmológico de consenso.  Los datos que publicará el satélite Planck sobre el CMB en 2013 prometen ser apasionantes (y presentarán muchos ejemplos de lentes gravitatorias en el CMB). Nos lo cuenta Yudhijit Bhattacharjee, «Peering Back 13 Billion Years, Through a Gravitational Lens,» News & Analysis, Science 332: 522, 29 April 2011, haciéndose eco del artículo técnico de Sudeep Das et al., «The Atacama Cosmology Telescope: Detection of the Power Spectrum of Gravitational Lensing,» ArXiv, 10 Mar 2011 (accepted in PRL).

Das y su equipo han medido la función de correlación entre cuatro puntos en los mapas de temperatura de alta resolución del CMB obtenidos por el ATC (Atacama Cosmology Telescope), un telescopio con un espejo de 6 metros situado en el desierto de Atacama, Chile, a 5200 metros de altitud.  El efecto de lente gravitatoria imprime un señal no gaussiana en los patrones de las anisotropías de la temperatura. Trabajos previos habían observado cierta evidencia (a 3 σ de confianza estadística) pero el nuevo trabajo lo confirma de forma irrefutable. El nuevo método de detección desarrollado por Das y su grupo ha sido validado mediante 480 simulaciones del mapa de temperaturas obtenido por el ACT. La figura que abre esta entrada muestra el ajuste el espectro observado experimentalmente (puntos rojos y barras de error (según los métodos de Montecarlo) en azul) y el mejor ajuste teórico a dicho espectro. El parámetro AL=1 indica la presencia del efecto de las lentes gravitatorias. Se ha obtenido un valor experimental ajustado con 5 datos de AL = 1’16 ± 0’29 (lo que corresponde a una detección a 4 σ). Restringiendo la medida a los primeros 3 datos se obtiene un valor de AL = 0’96 ± 0’31. El pico observado en el espectro a  z ≃ 2 corresponde a una distancia (conforme) de ≃ 5000 Mpc.

Lo más importante de esta observación es sus posibles implicaciones respecto a las observaciones del satélite Planck que medirá el CMB de forma mucho más precisa y permitirá observar múltiples efectos de lentes gravitatorias en el CMB.

El impacto climático de las nubes tipo cirro formadas a partir de las estelas blancas de los aviones

Las estelas blancas que dejan tras de sí los aviones pueden convertirse en nubes de tipo cirro indistinguibles de las que se forman de manera natural. Según un estudio numérico publicado en Nature Climate Science, hoy en día estas nubes pueden estar causando un efecto mayor en el calentamiento climático que todo el dióxido de carbono emitido por los aviones desde el inicio de la aviación. La aviación es responsable del 3% de las emisiones de dióxido de carbono por la quema de combustibles fósiles y se estima que contribuye entre un 2 y 14 % al efecto antropogénico sobre el clima y, según algunos estudios, su efecto podría triplicarse para el año 2050. Por lo tanto, mitigar el impacto de la aviación sobre el cambio climático es un tema de considerable interés público y político. El nuevo artículo de Burkhardt y Kärcher presenta un estudio mediante simulación por ordenador del efecto global en el clima terrestre de las nubes jóvenes de tipo cirro formadas a partir de las estelas de los aviones. Sus resultados indican que estas nubes tienen un efecto sobre el cambio climático un orden de magnitud mayor que el que puedan tener las estelas como tales. Obviamente, este estudio es polémico pues es imposible distinguir si una nube tipo cirro es de origen natural o ha sido producida por la evolución (difusión) de una serie de estelas de aviones. Para entender el impacto de la aviación sobre el clima es necesario investigaciones experimentales más precisas sobre este mecanismo. La tarea no es sencilla. Nos lo ha contado Olivier Boucher, “Atmospheric science: Seeing through contrails,” Nature Climate Change 1: 24–25, 29 March 2011, haciéndose eco del artículo técnico de Ulrike Burkhardt, Bernd Kärcher, “Global radiative forcing from contrail cirrus,” Nature Climate Change 1: 54–58, 29 March 2011. Estos artículos son de acceso gratuito en la web por lo que os recomiendo su lectura si estáis interesados en los detalles técnicos. Algunos extractos en inglés en mi otro blog: «Contrails can evolve into cirrus clouds causing more climate warming today than all the carbon dioxide emitted by aircrafts

Por cierto, la semana que viene aparecerá en Amazings.es un artículo mío sobre la «Fïsica de las estelas blancas de los aviones,» que ha surgido a colación de la entrada de Rinze, «Chemtrails: Fumigados de la vida,» Amazings.es, 25 abr. 2011, y del artículo divulgativo de América Valenzuela, «¿Por qué los aviones dejan estelas blancas?,» El porqué de la ciencia, RTVE.es, 11 marzo 2011. Este último es un tentenpié para abrir boca.

Las estelas de condensación (contrails en inglés) están formadas por la condensación de vapor agua ambiental al mezclarse con los gases de escape del motor del avión que están más calientes. La dinámica atmosférica de las estelas es complicada y puede dar lugar a la formación de cirros, que tienen un efecto sobre el calentamiento climático. El artículo de Burkhardt y Kärcher utiliza un modelo por ordenador a escala global que trata de evaluar los efectos de las estelas y de las nubes tipo cirro a las que pueden dar lugar. Si los cálculos de Burkhardt y Kärcher son correctos, los efectos son importantes para el sistema climático.

¿Se pueden minimizar estos efectos? Según Boucher, se podrían desarrollar estrategias de mitigación que reduzcan el impacto de la aviación sobre el clima. Por ejemplo, las rutas de vuelo o la altitud de vuelo podrían ser planificadas y modificadas en tiempo real para evitar las regiones de la atmósfera que estén sobresaturadas con respecto al hielo (en mi artículo en Amazings.es explico que significa esto) para reducir la probabilidad de formación de las estelas y minimizar su evolución hacia cirros. Pero esta estrategia puede conducir a un aumento en el consumo de combustible. También se podrían desarrollar nuevos conceptos de motores que minimicen la producción de estelas (algo que ya ha sido estudiado en aviones militares; imagina un avión espía invisible al radar que vaya dejando estelas a su paso). Hay también otras estrategias propuestas por Boucher.

El trabajo de Burkhardt y Kärcher ofrece algunos consejos interesantes sobre cómo podría reducirse el impacto de la aviación en el sistema climático, pero las incertidumbres sobre dicho impacto siguen siendo grandes. Según Boucher, la industria aeronáutica tendría que investigar más sobre el impacto climático de las estelas y cómo mitigar dicho impacto.

El futuro de la ley de Moore, el memristor y la Fórmula 1

Kimi Raikkonen ganador del Gran Premio de España 2005 conduciendo un McLaren MP4-20.

La Hoja de Ruta Internacional para la Tecnología de Semiconductores (ITRS 2010) prevee que en el año 2019, las memorias RAM dinámicas (DRAM) con canal de 16 nm tendrán una capacidad de alrededor de 46 GB/cm² (gigabytes por centímetro cuadrado) si su eficacia por unidad de área es del 100%. Las memorias ROM basadas en (nano)memristores (MROM) prometen una capacidad superior a 110 GB/cm² y 460 GB/cm² para los dispositivos  con canal de 10 y 5 nm, respectivamente. Las memorias MROM son más lentas que las DRAM, aunque estas últimas necesitan de un refresco continuo (al menos cada 16 ms). Gracias a las MROM la Ley de Moore seguirá cumpliéndose durante las próximas dos décadas. En este blog ya hemos hablado del memristor en dos ocasiones (aquí y aquí), quizás convenga recordarlo una vez más. Me basaré en el artículo de O. Kavehei et al., «The fourth element: characteristics, modelling and electromagnetic theory of the memristor,» Proceedings of the Royal Society A 466: 2175-2202, 8 August 2010 [el artículo es de acceso gratuito].

Los elementos pasivos clásicos de los circuitos eléctricos son tres: el condensador (C), la resistencia (R) y la inductancia (L), que fueron descubiertos en 1745, 1827 y 1831, respectivamente. Estos elementos relacionan entre sí las cuatro magnitudes fundamentales de la teoría de circuitos: la corriente eléctrica (I), el voltaje (V), la carga eléctrica (Q) y el flujo magnético (φ). Las leyes que rigen el comportamiento de los tres elementos pasivos son bien conocidas: V = R I para la resistencia, Q = C V para el condensador y φ = L I para la inductancia. Leon O. Chua propuso en 1971 la existencia de un cuarto elemento pasivo al que llamó memristor (M) porque era como una resistencia con memoria y cuya ley circuital sería φ = M q. En el caso lineal, este elemento se comporta como una resistencia (o una conductancia), pero en el caso no lineal el comportamiento es diferente (presenta una histéresis). Chua demostró que a partir de las leyes de Maxwell es posible deducir la existencia de un dispositivo pasivo que se comporte como un memristor, pero fue incapaz de imaginar qué tecnología sería capaz de fabricarlo. En su lugar propuso una modelo circuital del memristor basado en dispositivos activos (amplificadores operacionales) que permite simular su comportamiento como dispositivo pasivo.

En 2008 científicos de los Hewlett-Packard Labs liderados por R. Stanley Williams fabricaron mediante nanotecnología el primer memristor (y lo publicaron en Nature). En 1995 HP decidió crear un grupo de investigación básica para desarrollar proyectos a largo plazo y puso a Williams a su cargo con «carta blanca» para trabajar en cualquier tema que quisiera. Se creía entonces que el límite físico último para la tecnología de los transistores era un canal de 0’35 μm (350 nm). Williams decidió utilizar la manipulación de átomos mediante microscopios de barrido por efecto túnel (STM) para diseñar dispositivos 100 veces más pequeños (0’3 nm). Parecía algo ridículo, imposible, pero tenía «carta blanca» y tenía que pensar a lo grande. Más de cien científicos e ingenieros han pasado por el laboratorio a su cargo. Sus primeros dispositivos, fabricados manipulando átomo a átomo, se comportaban de forma extraña y no parecía que fueran a tener ninguna utilidad práctica. Además, no conocían ningún modelo físico que permitiera describir sus propiedades. En 2002 tenían algo que funcionaba, pero no entendían por qué ni para qué podría servir. Su colaborador Greg Snider le dijo a Williams en 2002 que la histéresis del diagrama corriente-voltaje de su «dispositivo» se parecía a la del memristor de Chua y le retó: ¿por qué no fabricas un memristor? Dos años le costó a Williams entender la relación entre el «oscuro» artículo de Chua y su dispositivo. Williams recuerda que el 20 de agosto de 2006 resolvió las dos ecuaciones más importantes de su carrera, las que demuestran que su dispositivo era el memristor de Chua. Un mes más tarde ya eran capaces de controlar sus dispositivos y cambiar a voluntad sus propiedades. El camino hacia un memristor con 4 nm de ancho estaba allanado y la gloria sonreía a Williams. La historia del memristor, el eslabón perdido de la teoría de circuitos, es apasionante. Te recomiendo la lectura del artículo de R. Stanley Williams, «How We Found the Missing Memristor,» Cover paper, IEEE Spectrum, December 2008.

Los memristores tienen propiedades muy curiosas como también ocurre con otros elementos no lineales. Por ejemplo, funcionan mejor bajo cierto nivel de ruido. Alexander Stotland y Massimiliano Di Ventra, ambos de la Universidad de California en San Diego, han estudiado los efectos del ruido sobre la dinámica de los memristores. Su conclusión es sorprendente: los memristores son inmunes a muchos tipos de ruido y, además, su memoria mejora con cierto nivel de ruido. Este fenómeno es análogo a la resonancia estocástica: cierto nivel de ruido mejora la sensibilidad de ciertos sistemas en lugar de degradarla. La fuente de ruido más natural en un dispositivo electrónico es debido a la temperatura (ruido térmico). Nos lo ha contado KFC, «Next Generation Memories Will Be Improved By Noise,» arXiv blog, 27 abr. 2011, haciéndose eco del artículo técnico de Alexander Stotland, Massimiliano Di Ventra, «Stochastic memory: getting memory out of noise,» ArXiv, 22 Apr 2011.

¿Qué tiene que ver el memristor con la Fórmula 1? En 1972, G. F. Oster y D. M. Auslander propusieron que podría existir un análogo mecánico al memristor. Nadie ha sido capaz de fabricarlo, sin embargo, muchos lo han intentado. La búsqueda de elementos mecánicos equivalentes a los elementos circuitales tuvo un avance reciente en 2009 cuando Michael Z. Q. Chen et al. propusieron que un nuevo componente de suspensión mecánica inventado por el equipo McLaren de Fórmula 1, llamado J-damper, era un inertor. Kimi Raikkonen utilizó por primera vez el J-damper en su McLaren MP4-20 en el Gran Premio de España de 2005, donde logró una victoria aplastante. En McLaren le llamaron J-damper para despistar a los demás equipos, ya que la «J» no significa nada y no es un amortiguador (damper). El objetivo era mantener esta tecnología en secreto. Pero el espionaje del equipo Renault logró descubrir el secreto del J-damper en 2007 (noticia en la FIA). Gracias a los pocos datos publicados en la prensa automovilística sobre su funcionamiento Chen et al. propusieron que se trataba de un inertor. Os recuerdo la analogía entre circuitos eléctricos y sistemas mecánicos: muelle ↔ inductancia, amortiguador ↔ resistencia y masa ↔ condensador (pero con un terminal conectado a tierra). Un elemento circuital tipo condensador con ningún terminal conectado a tierra no tiene análogo mecánico. Malcolm Smith propuso en 2002 un elemento de este tipo, con dos terminales de tal forma que la fuerza aplicada a dichos terminales es proporcional a la aceleración relativa entre ellos. Smith introdujo el término «inertor» para este dispositivo.

El inertor ha sido encontrado pero el equivalente mecánico del memristor todavía se encuentra en la agenda de los investigadores. ¿Será descubierto por un equipo de Fórmula 1? Quizás el coche de carreras que posea este tesoro será el ganador de todos los grandes premios (hasta que los espías desvelen de nuevo su secreto o la FIA tome cartas en el asunto).

Una resonancia magnética nuclear de un huevo de chocolate

Sixty Symbols (Universidad de Nottingham, Gran Bretaña) tienen un canal de youtube en el que presentan vídeos curiosos en el que los protagonistas con huevos de chocolate. El vídeo que abre esta entrada nos recuerda que Sir Peter Mansfield desarrolló una gran parte de la tecnología de la resonancia magnética en la Universidad de Nottingham y fue galardonado con el Premio Nobel por su trabajo. En el canal de youtube podéis encontrar otros vídeos curiosos. ¡Qué disfrutéis!

Observados por primera vez 18 núcleos de antihelio-4 en colisiones entre iones de oro

La traza roja en esta figura es la primera vez que se observa un núcleo de antihelio-4 (partícula anti-alfa formada por dos antineutrones y dos antiprotones, con número bariónico −4), el mayor antinúcleo observado hasta la fecha. El experimento STAR del colisionador de partículas estadounidense Relativistic Heavy Ion Collider (RHIC), sito en el Brookhaven National Laboratory, ha producido 18 núcleos de antihelio-4 en un total de mil millones de colisiones de iones de oro (Au+Au) con una energía en el centro de masas de la colisión de 200 GeV (gigaelectrónvoltio). La antimateria es una predicción de la ecuación de Dirac propuesta en 1928, que C. D. Anderson confirmó en 1933 con el descubrimiento del positrón (la antipartícula del electrón). El antiprotón y el antineutrón se observaron por primera vez en 1955 y 1956; el antideuterio (antiprotón + antineutrón) y el antitritio (antiprotón + 2 antineutrones) se observaron en 1965 y 1974; y el antihelio-3 (2 antiprotones + antineutrón) se observó por primera vez en 1970. El RHIC logró producir 17 átomos de antihidrógeno en sus colisiones Au+Au en 1996 y la producción del antihipertritio (antimateria «extraña» o con la propiedad de extrañeza) en 2010. Ahora el RHIC logra un nuevo éxito que ha sido coronado con un artículo técnico publicado en Nature, en concreto, The STAR Collaboration, «Observation of the antimatter helium-4 nucleus,» Nature, Published online 24 April 2011.

Artículo invitado: HiPER – La fusión nuclear por confinamiento inercial en Europa

Jesús Álvarez Ruiz, del Instituto de Fusión Nuclear de la Universidad Politécnica de Madrid (UPM), miembro del proyecto HiPER, impartirá una conferencia titulada «Fusión Inercial: Peligros y propuestas para proteger las paredes internas de un futuro reactor» en los Seminarios Internacionales de Fronteras de la Ciencia de Materiales (Aula de Seminarios, Departamento de Ciencia de Materiales, E. T. S. de Ingenieros de Caminos, UPM), el lunes 20 de Junio de 2011, a las 9:30 h. Le propuse y ha aceptado escribir una breve entrada describiendo dicho proyecto (HiPER). Espero que la disfrutéis.

¿Qué es la Fusión Nuclear?

La fusión nuclear es el proceso por el cual varios núcleos atómicos se unen para formar un núcleo más pesado a la vez que se genera una gran cantidad de energía. Para producir las reacciones de fusión es necesario que  los núcleos atómicos de partida superen la repulsión que experimentan al estar cargados positivamente. En caso de querer utilizar la fusión como una fuente de energía, se  requiere que los núcleos atómicos tengan velocidades iniciales y probabilidades de choque altas. Hablamos de temperaturas de millones de grados para alcanzar las velocidades requeridas (a esas temperaturas, la materia está en forma de plasma) y de densidades y confinamientos de esos plasmas adecuados para garantizar las colisiones. Estas condiciones se resumen en una combinación adecuada de temperaturas, densidades y tiempos de confinamiento que se denominan criterio de Lawson.

Son las densidades del plasma y su confinamiento, las que definen los dos principales mecanismos que el hombre está explorando para obtener energía de la fusión nuclear con la reacción entre el Deuterio y el Tritio. Por un lado se encuentra la fusión por confinamiento magnético que encierra el plasma dentro de varios campos magnéticos el tiempo suficiente como para asegurar un número de choques y reacciones de fusión que generen más energía que la requerida para producir inicialmente el plasma y  su confinamiento. Y por otro lado se encuentra la fusión por confinamiento inercial que genera y confina un plasma muy denso (20 veces la densidad del plomo) en un instante, de modo que se produzcan suficientes reacciones de fusión como para compensar la energía invertida en la compresión y calentamiento instantáneo del combustible.

La fusión magnética es la más conocida y en la cuál se está invirtiendo más dinero (véase el proyecto internacional ITER), aunque la fusión inercial tomará una posición relevante en los próximos años si se cumplen las predicciones y una instalación de fusión consigue mostrar por primera vez  ganancia (la reacción de fusión produciría más energía que la que consumiría).

Fusión Inercial – HiPER

Aunque hay varias propuestas para inducir la fusión inercial, la más extendida se base en el uso de sistemas láser muy potentes. En el concepto más sencillo, varias decenas de pulsos láser muy energéticos se enfocan simultáneamente sobre una pequeña cápsula redonda de plástico que contiene el Deuterio-Tritio. Esa energía comprime el combustible a grandes densidades y lo calienta hasta alcanzar las temperaturas necesarias para producir la fusión.

Fases de la fusión por confinamiento inercial por láser de un blanco directo. Las flechas azules representan la radiación láser; las flechas naranjas representan los fragmentos de cápsula que salen despedidos. Las flechas rojas indican la dirección en la que se transporta la energía térmica (Imagen tomada de la Wikipedia).1. La radiación calienta rápidamente la superficie, generando un plasma. 2. Por efecto de acción-reacción el plasma se expande hacia afuera y el combustible se comprime. 3. La cápsula implosiona alcanzando densidades de >200g/cm3 y temperaturas de 100 millones de grados. 4. La fusión nuclear tiene lugar en el centro y se transmite al combustible comprimido colindante, produciendo más energía que la consumida en el proceso.

La Instalación Nacional de Ignición, NIF, del Lawrence Livermore National Laboratory de los Estados Unidos, es el laboratorio que dispone del sistema láser más potente del mundo. Con sus 192 pulsos láser que depositarán unos 1.5 MJ de energía sobre el blanco, aspira a ser el primer centro en demostrar ganancia en los próximos 1 o 2 años y así fundar las bases de lo que, en un futuro, puede ser un reactor de energía de fusión.

En Europa, las dos iniciativas más importantes en fusión inercial son la francesa Laser MégaJoule, LMJ, muy similar a NIF y con fines militares únicamente, y el High Power laser Energy Research facility, HIPER.

Esquema de la instalación HiPER.

 HiPER es el proyecto europeo que pretende acercar la fusión inercial a  una planta de energía. Como siguiente paso a NIF, busca demostrar la fusión de forma repetitiva (varias veces por segundo) y aumentar la ganancia de energía reduciendo el consumo de los láseres y optimizando el proceso de compresión y calentamiento del combustible.

Las altas pérdidas en forma de calor durante la conversión de energía eléctrica en energía para amplificar los pulsos láser (mediante lámparas de flash) hacen que los láseres de NIF necesiten más de 6 horas para enfriarse y poder volver a disparar. HiPER está trabajando en el desarrollo de láseres de estado sólido bombeados por láseres de diodo, DPSSL, mucho más eficientes y que permitirán disparar con frecuencias entre 5-10 Hz.

A su vez, HiPER está trabajando en otros esquemas del blanco de combustible, como son la ignición rápida o la ignición por choque, que permitirían reducir la cantidad de energía depositada en el combustible en aproximadamente un tercio de la que se inyecta en NIF.

El proyecto HiPER se encuentra en la actualidad en la fase preparatoria de evaluación de tecnología. En caso de que los gobiernos de los distintos países participantes  promuevan su construcción (entre ellos España), se espera entrar en la fase de diseño para el 2012-2013.

Estados Unidos también está evaluando un programa similar llamado LIFE, con el firme propósito de tener un reactor experimental que genere la misma cantidad de energía que consuma (unos 300 MW) para el 2020. Su objetivo es disponer de una planta demostradora de potencia (1.5-2 GW) entre el 2025-2030.*

Aunque todavía son varios los retos que la fusión inercial tiene que afrontar (como la construcción de láseres de alta energía y alta repetición o la inyección de blancos en cámara de reacción de varios metros de radio con precisiones espaciales y temporales muy altas) esta forma de energía puede ser una realidad económicamente en las próximas dos décadas. Eso si contar con las múltiples aplicaciones en diversos campos de la física que una instalación de este estilo significaría. Hay mucho en juego y los grupos españoles que lideran el diseño del reactor pueden jugar un importante papel. Sólo el tiempo y los políticos dirán.

Jesús Álvarez, Instituto de Fusión Nuclear, UPM.

.

.

*La principal diferencia de LIFE con el proyecto HiPER se encuentra en el tipo de blanco y en la protección interna de las paredes del reactor. LIFE utilizará blancos indirectos como los de NIF en los que la energía láser no se deposita directamente sobre la esfera de combustible sino que primero se  convierten en rayos X en las paredes internas de una cápsula que envuelve al blanco. Son los rayos X generados en las paredes internas de la cápsula los que posteriormente comprimen y calientan el combustible. Estos blancos son menos eficientes energéticamente hablando pero están más desarrollados y sufren menos inestabilidades en la compresión del combustible.

La segunda diferencia estriba en el hecho de que la radiación emitida en un blanco indirecto tiene una distribución de energía diferente a los blancos directos. En ambos casos el 70% de la energía de fusión se emite en forma de neutrones energéticos, pero mientras que en los blancos indirectos el 30% restante es fundamentalmente radiación X, en los blancos directos ese 30% aparece en forma de iones rápidos. Tanto en un caso como en el otro ese 30% de la energía va a parar a las paredes  del reactor. Para contrarrestar el efecto de los rayos X, LIFE llenará la cámara de gas Xe que absorberá la energía y la depositará sobre las paredes de forma continua. En el caso de HiPER, la pared del reactor  contará con una cubierta interna de unos cientos de micras de wolframio que hará de escudo protector.