Mala suerte a los químicos británicos si arriesgan en sus proyectos de investigación

dibujo20090330cristinagarmendiadisfrutandoengenetixEres un químico británico y has solicitado financiación para un proyecto de investigación al EPSRC, pero te encuentras entre el 85% de los que han sido rechazados. Mala suerte. También lo fuiste el año pasado. Mala suerte por partida doble. Bueno, este año tu gobierno te regala mala suerte por partida triple. No te dejarán volver a pedir un proyecto al EPSRC el año que viene. Estas castigado por haber solicitado dos proyectos seguidos que han sido rechazados. ¡Cómo te gusta que se gasten fondos públicos en evaluar tus proyectos de investigación! Así es la nueva política científica británica. Con la crisis no está el horno para bollos y quieren ahorrarse dinero en evaluar proyectos. Se queja el editor de Nature, «A cut too far,» Editorial, Nature 458: 385-386, 26 March 2009 , y se lamenta Richard Van Noorden, «UK funding ban sparks protests. EPSRC slammed for excluding some grant applicants,» Nature 458: 391, 25 March 2009 . Esperemos que nuestra Sra. Garmendia no imite a los británicos y también tengamos que lamentarnos nosotros.

El gobierno británico lo anunció el 12 de marzo de 2009, justo antes de que se presenten los resultados de la evaluación de proyectos de este año en abril. El EPSRC (Engineering and Physical Sciences Research Council) (EPSRC) quiere hacer oídos sordos a los más de 1200 científicos que han protestado por la medida. Nadie quiere formar parte de la lista negra. Entre 200 y 250 científicos acabarán este año en ella. Bueno así lo estiman los propios científicos. Una tasa estimada de rechazo similar a la del año pasado, 24%, permite estimar que más del 5% del total de solicitantes acabarán en la lista negra.

La calidad, la gestión de la calidad, la cultura de la calidad, en aras de la eficacia, no siempre conlleva el beneficio de la mayoría. ¡Qué buenos son nuestros políticos «europedos»! Envueltos como estamos en España en el Proceso de Bolonia, ¿qué nuevas «movidas» se les ocurrirán a nuestros «politicuchos»? Preguntas, «Preguntas sobre Bolonia,» muchas son las que nos hacemos (el artículo en El País de Manuel Atienza, erróneamente firmado por Fernando Savater, merece una ojeada, aunque no estoy de acuerdo con todo lo que afirma). Un extracto para abrir boca. 

«La reforma de Bolonia va a producir (…) una degradación de los estudios y de las titulaciones; o sea, los graduados de mañana sabrán menos que los licenciados de hoy y tendrán un título que les abrirá menos oportunidades laborales. ¿O alguien cree que por arte de birlibirloque lo que antes se aprendía en cinco años va a poder ahora asimilarse en cuatro? (…) El gran avance en los métodos de enseñanza que, se supone, significa Bolonia no es otra cosa que una imitación del modelo estadounidense, (cuya) excelencia se debe a los medios de financiación con que cuentan y a otros factores «subjetivos» como la calidad de los estudiantes, la dedicación de los profesores y la «cultura institucional» ¿Cree el ministerio que todo ello se va a conseguir a golpe de Boletín Oficial del Estado y como simple efecto de «la sana competencia entre universidades»?»

Sorpresas en el universo oscuro: Cada día explicar la materia oscura es más complicado

dibujo20090328kaluzakleinartisticpaintingfromsymmetryjournalMientras otros disfrutaban de la noche del día de Navidad del año de 2007 descansando de la «bacanal» de la Nochebuena, un equipo de científicos e ingenieros trabajaba duramente en McMurdo en la Antártida. Muchos grados bajo cero y un viento gélido que parece que no quiere amainar. Un deseo que nadie quiere pronunciar en voz alta. Poder disfrutar del fin de año con la misión ya cumplida. Quizás sea posible, quizás no. Hay que esperar a que el viento amaine. La misión ATIC es lo más importante ahora, el resultado de muchos esfuerzos pasados. 

A las 3:30 de la madrugara del 26 de diciembre 2007 el viento amaina lo suficiente y el gran globo aerostático empieza su ascensión hacia la estratosfera de los cielos antárticos. Observar como mil millones de litros de Helio suben hacia la estratosfera es una visión maravillosa para quien lleva trabajando en ello durante años. El globo sonda circulará los cielos del Polo Sur sólo durante 19 días. Pocos son, quizás, pero han permitido que todo el equipo brinde con ilusión por la llegada del nuevo año. El trabajo duro empieza ahora, cuando todos los datos de rayos cósmicos de la misión ATIC han sido recopilados y requieren interpretación.

Casi un año más tarde, el 20 de noviembre de 2008, la mayor recompensa para todo el equipo es ver publicado el resultado de su trabajo en la prestigiosa revista internacional Nature («An excess of cosmic ray electrons at energies of 300-800 GeV«). Más importante aún es haber sido parte de uno de los grandes descubrimientos del año 2008. Hay más electrones de alta energía de los esperados. ¿De dóndo vienen? Lo más fácil es pensar que son una señal de la materia oscura en el universo que es el 85% de toda la materia (según los datos del WMAP). ¿La primera señal de la materia oscura? No, no les darán el Premio Nobel por ello. El experimento satelital PAMELA unos meses antes también observó dicho exceso de electrones (aunque también acompañado de un exceso de positones). El Espectrómetro Magnético Alfa (AMS) en el transbordador Discovery de la NASA también descubrió en 1998 un exceso de positones. El Telescopio de Antimateria de Alta Energía (HEAT) que se elevó en globos sonda en 1994, 1995 y 2000, también lo observó. Muchos experimentos que están ofreciendo señales cuyo posible origen es la materia oscura. Muchos datos a la falta de una explicación convincente.

El problema con toda esta abundancia de datos que apuntan hacia la materia oscura es que son mucho más complicados de explicar de lo esperado. Los candidatos que más gustaban a los físicos teóricos no pueden explicar todas las evidencias que nos ofrecen los experimentos. O la materia oscura es (una partícula elemental) mucho más exótica de lo razonable o hay «muchas (partículas elementales como) materias oscuras.» Los físicos teóricos preferían que la materia oscura fuera el neutralino, la partícula supersimétrica neutra menos pesada, como el mejor candidato. Pero el neutralino no puede explicar el exceso de electrones de alta energía observado en ATIC, más bien produciría un exceso de electrones de baja energía, que no ha sido observado. Más aún, también se observaría un exceso de antiprotones, que PAMELA no ha observado.

El equipo del ATIC prefiere como candidato una partícula de Kaluza-Klein, partículas que se mueven en más de 3+1 dimensiones, parcialmente en dimensiones superiores compactificadas. Por ejemplo, cuando un electrón que se propagara como una partícula de Kaluza-Klein también se propagaría en las dimensiones superiores compactificadas. Estos electrones de Kaluza-Klein explican mejor que los neutralinos los resultados de ATIC y PAMELA. Más aún, el satélite de rayos gamma INTEGRAL que la ESA lanzó en 2002 detectó una anomalía curiosa, una fuerte emisión de fotones con  511 kiloelectronvolts (la masa del electrón) en toda la Vía Láctea. Por supuesto, se han conjeturado otras respuestas más «estándares» para esta anomalía.

¿Cómo se puede resolver todo este desaguisado? Sólo el experimento puede resolverlo. Los datos del satélite Fermi, lanzado por la NASA el año pasado, confirmará y medirá con gran precisión el exceso de electrones de alta energía. Quizás nuestra gran baza es el tan «cacareado» LHC del CERN donde se podría descubrir a las partículas candidatas a materia oscura «una a una.» ¿Será un neutralino «raro»? ¿Será una partícula de Kaluza-Klein? ¿Será otra cosa? Por ahora todo son conjeturas.

Los experimentos más relevantes en relación a la materia oscura: ATIC (Advanced Thin Ionization Calorimeter), PAMELA (Payload for Antimatter/Matter Exploration and Light-nuclei Astrophysics), AMS (Alpha Magnetic Spectrometer), HEAT (High Energy Antimatter Telescope);  INTEGRAL (International Gamma-Ray Astrophysics Laboratory), DAMA (Dark Matter) y CDMS (Cryogenic Dark Matter Search).

(PS 9 abr 2009): Kanijo ha traducido la noticia original en «Un extraño universo puede estar merodeando en las sombras» 7 abril 2009 (visto en Menéame).

El misterio del remanente de la supernova SN 1987A: quizás es una estrella de quarks

dibujo20090328supernovasn1987amovieEl 23 de febrero de 1987 se observó a simple vista en el hemisferio sur la supernova SN 1987A, la más cercana en los últimos 400 años. La primera oportunidad para que los astrónomos modernos pudieran ver de cerca una supernova. Supernova de tipo II que emitió neutrinos (con una energía mayor de la esperada) que fueron detectados en la Tierra confirmando la predicción teórica de la formación de un remanente compacto, quizás una estrella de neutrones. ¿Pero dónde está dicha estrella de neutrones y el púlsar asociado? Quizás emite (como un faro) en una dirección en la que no podemos verlo. Quizás se ha convertido en un agujero negro que no podemos observar. Hay muchas propuestas alternativas. La última, quizás ha colapsado en una estrella de materia extraña (una estrella de quarks extraños, teóricamente la materia más estable que se conoce). ¿Cómo pudo surgir? Por una transición de fase en el colapso estelar de que iba a conducir a una estrella de neutrones, resultando en grandes oscilaciones del radio de la estrella, que permiten explicar el flujo de neutrinos (de energía mayor de 30 MeV) observado en la explosión. Esta hipótesis teórica nos la ofrecen T.C. Chan et al. «Could the compact remnant of SN 1987A be a quark star?,» ArXiv preprint, 4 Feb 2009 .

Las estrellas de quarks (de materia extraña), propuestas por Itoh y Bodmer en los primeros 1970s, se volvieron «populares» tras su la propuesta por el famosísimo Edward Witten en «Cosmic separation of phases,» Phys. Rev. D 30: 272-285, 1984 , de que el universo tras la Gran Explosión pasó por una fase en la Era Oscura (antes que se congelara el fondo de microondas) en la que toda la materia del universo era materia extraña. Witten propuso en dicho artículo que una estrella de neutrones en formación podía sufrir una transición de fase similar a ultraaltas densidades que la llevara a formar una estrella de quarks (extraños).

Me diréis, puras especulaciones teóricas que requieren confirmación experimental. Aún así, el misterio del remanente de la supernova más cercana que hemos podido ver explotar «casi» en directo requiere una explicación y no se pueden descartar todas las especulaciones teóricas.

¿Para qué sirve la nanotecnología? Libro gratis de divulgación científica para estudiantes

dibujo20090328joseangelmartingago1La Fundación Española para la Ciencia y la Tecnología (FECYT) está publicando una serie de libros de divulgación (unidades didácticas) la mar de interesantes y de descarga gratuita desde su página web. Hoy os recomendaré el último publicado «Unidad Didáctica Nanociencia y Nanotecnología. Entre la ciencia ficción del presente y la tecnología del futuro,» coordinada por José Ángel Martín Gago, incluyendo textos de Carlos Briones Llorente, Elena Casero Junquera, Pedro Amelio Serena Domingo y de él mismo. Para abrir boca quizás convenga extractar parte del Prólogo.

«Los científicos, en muchas ocasiones, proclamamos que un pequeño hallazgo es la base de un futuro medicamento contra el cáncer, o de un nuevo y revolucionario dispositivo electrónico. Esta información es traducida por los periodistas y asimilada por el lector de la prensa como que hemos acabado con el cáncer, o que un nuevo superordenador estará disponible en las tiendas este año. Estas expectativas crean una desilusión en la sociedad, que ve como después de tantos anuncios triunfalistas, el cáncer sigue sin curarse y nuestros ordenadores «colgándose» cuando más los necesitamos.

Julio Verne, en el siglo XIX, imaginó que el hombre llegaría a la Luna, y éste finalmente llegó, al igual que en algunos años llegará a Marte. También se imaginó al hombre paseando por el centro de la Tierra, y hoy sabemos que esto nunca podrá ocurrir.

Muchos amigos me preguntan «¿para cuando los nanorobots?» Imaginan el futuro lleno de aparatejos microscópicos que nos curan, nos cuidan, nos divierten… Esperan que esta nueva ciencia de lo pequeño revolucione nuestra sociedad y nos transporte al futuro de las películas de ciencia ficción.

La nanotecnología se nos muestra hoy como una potentísima herramienta capaz de volver a transformar la sociedad cómo ya lo hiciese la microelectrónica en la primera mitad del siglo XX. La potencialidad de estas nuevas tecnologías parece verdaderamente ilimitada. ¿Para cuando nanorobots? Seguramente nunca, pero sí existirán otras soluciones mucho más baratas, sencillas, imaginativas e igualmente potentes. Éstas son las que desarrollaremos en este libro.»

«¿Cómo llegar a ser nanotecnólog@? La apasionante carrera científica.»

«La nanotecnología es una disciplina interdisciplinar porque en ella convergen conocimientos de la química, la física, la biología, la ciencia de materiales y las ingenierías. Esta diversidad dificulta que se puedan adquirir tan variados conocimientos con una única licenciatura, por lo que no existe, como tal, la carrera universitaria de «nanotecnología». En realidad se puede llegar a trabajar en nanociencia y nanotecnología tras haber cursado estudios de química, física, biología o ingeniería, por lo que hay muchos caminos por los que llegar a ser nanotecnólog@.

Tras cursar una licenciatura (o «grado», como se denomina en los nuevos planes de estudio) científico-técnica se debe proseguir con estudios de maestría (master) y doctorado que orienten («ensanchen») la formación adquirida hacia la nanotecnología. En la actualidad, varias universidades españolas ofrecen interesantes programas de maestría y doctorado directamente relacionados con las nanociencias y nanotecnologías, algunos de ellos con títulos tan sugerentes como «nanociencia», «nanociencia y nanotecnología», «física de la materia condensada y nanotecnología», «materiales avanzados y nanotecnologías», «nanociencia y nanotecnología molecular», «ingeniería micro y nanoelectrónica», etcétera.»

dibujo20090328joseangelmartingagoetalii

Los computadores cuánticos son más fáciles de fabricar de lo que se pensaba

dibujo20090327meraquantumcomputingconcept

La gran dificultad a la hora de fabricar un ordenador cuántico práctico con un gran número de cubits es lograr que todos ellos permanezcan «entrelazados» durante la ejecución de un algoritmo. Sorpresa mayúscula, según el experto Richard Jozsa, se acaba de descubrir que «demasiado» entrelazamiento es malo si queremos que un computador cuántico sea más eficiente que uno clásico. Lo han demostrado David Gross, de la Technical University of Braunschweig, en Alemania, y sus colegas, utilizando el concepto de computación cuántica basada en la medida (measurement-based quantum computing), formalmente equivalente a la máquina de Turing cuántica. Si hay demasiado entrelazamiento entre muchos cubits el resultado de las medidas es esencialmente aleatorio (inútil en un algoritmo cuántico). Con objeto de evitar este problema un ordenador cuántico requerirá algoritmos cuyo grado de entrelazamiento sea limitado. Estos algoritmos facilitarán mucho su implementación física. Ahora queda que los informáticos cuánticos se pongan a trabajar duramente desarrollando este nuevo tipo de algoritmos. Nos lo cuenta Adrian Cho, «Oddly, Too Much Weirdness Slows a Quantum Computer Down,» Science 323: 1658-1659, 27 March 2009 , al respecto del artículo técnico de D. Gross, S. T. Flammia, J. Eisert, «Most quantum states are too entangled to be useful as computational resources,» Physical Review Letters, Accepted Wednesday Mar 11, 2009 [ArXiv preprint].

¿Cómo está relacionado el entrelazamiento y la eficiencia computacional de un algoritmo cuántico? Nadie lo sabe realmente. Lo que queda claro del nuevo resultado es que no están relacionados linealmente. El análisis teórico de estas cuestiones, labor de físicos y de informáticos cuánticos, promete ser apasionante.

Claro, alguien se preguntará, pero no será posible utilizar de forma práctica y útil estos «estados aleatorios» que son obtenidos al medir los resultados de algoritmos cuánticos con un gran número de cubits entrelazados. La respuesta ya ha sido obtenida : no, no es posible. Como demuestran, en 5 páginas, Michael J. Bremner, Caterina Mora, Andreas Winter, «Are random pure states useful for quantum computation?,» ArXiv preprint, Submitted on 16 Dec 2008 . Para los que sepan sobre complejidad computacional de algoritmos cuánticos el artículo demuestra que el conjunto de lenguajes que se pueden decidir mediante una elección aleatoria de estados puros como oráculo de un algoritmo clásico es el mismo (con alta probabilidad) que el conjunto de lenguajes que se pueden decidir con coste polinómico en un ordenador clásico no determinista.

«The computing power of a classical control device is not increased by a quantum one from P to BQP, but only to BPP. In other words, unless BQP = BPP, highly entangled states (i.e. random states) won’t yield universal quantum computation when used in any reasonable environment controlling the sequence of measurements.»

Las estrategias cognitivas de tu cerebro para resolver problemas están escritas en tus genes

dibujo20090327fmrirelativefrequencybrainactivationmaps 

Un equipo de investigadores europeos han observado que el cerebro de personas diferentes utiliza estrategias diferentes para resolver la misma tarea mental y que los genes son los que determinan la estrategia que nuestro cerebro utiliza. Literalmente, han observado gracias a la imagen por resonancia magnética funcional (fMRI) como diferentes partes del cerebro se activan en secuencias diferentes en individuos sometidos a las mismas tareas. Cuando son hermanos mellizos, las diferencias están claras, pero cuando son hermanos gemelos, estos patrones de activación neuronal son prácticamente idénticos. El alemán Jan Willem Koten Jr. de la RWTH Aachen University y sus colaboradores creen que han obtenido una prueba indiscutible de que el modo en el que el cerebro responde a los estímulos externos tiene una fuerte influencia genética. Nos lo cuenta Constance Holden, «Twins May Think Alike Too, MRI Brain Study Suggests,» Science 323: 1658, 27 March 2009 , haciéndose eco del artículo técnico de Jan Willem Koten, Jr. et al. «Genetic Contribution to Variation in Cognitive Function: An fMRI Study in Twins,» Science 323: 1737-1740, 27 March 2009 .

Parejas de hermanos gemelos y de hermanos mellizos han tenido que memorizar una ristra de números mientras se les distraía con operaciones aritméticas elementales (como 2 + 4 = 7, ¿verdadero o falso?) y otras preguntas de respuesta sencilla. Las imágenes fMRI para los gemelos muestran que se activan las mismas áreas del cerebro en prácticamente el mismo orden, lo que no ocurre con los mellizos. Los investigadores han interpretado que esto significa que los gemelos utilizan básicamente la misma estrategia cognitiva. La manera más sencilla de explicar este resultado es suponer que dicha estrategia depende fuertemente de las diferencias genéticas entre individuos. El trabajo no explica por qué ocurre lo observado, ni en qué genes están codificadas las estrategias cognitivas. Pero parece que deja claro que la influencia genética es indiscutible. Poco se sabe sobre la contribución genética en la función cognitiva de nuestros cerebros y este trabajo induce a pensar que dicho estudio será muy prometedor.

dibujo20090327fmrirelativefrequencybrainactivationmaps1

Cuando ser sólo un número es lo mejor para un científico o ingeniero

dibujo20090327madscientistBuscas los artículos de un investigador. Se llama «Wei Wang.»¿Pero qué «Wei Wang»? Hay ocho nombres chinos 王伟, 王薇, 王维, 王蔚, 汪卫, 汪玮, 汪威, y 汪巍 que se escriben en inglés como «Wei Wang.» ¿Y si se llama «James Smith» o «Mary Johnson»? Sólo en el ISI WOS hay 5428 artículos publicados por «Smith J» y 3705 por «Johnson M.» Más aún, hay investigadores (mujeres) que cambian de nombre al casarse o divorciarse (algo que puede ocurrir varias veces en una vida científica). ¿Cómo resolver estos problemas? Fácil si todos firmamos con un número o identificador único asociado a nuestro nombre. Un DNI científico. Cada científico, un número. ¿Quién gestionará estos números? Buena pregunta sin una respuesta fácil, según nos cuenta Martin Enserink, «Are You Ready to Become a Number? Life could be a lot easier if every scientist had a unique identification number. The question is: Who should provide them?,» Science 323: 1662-1664, 27 March 2009 .

A-1262-2007 y A-1270-2007 son dos científicos holandeses que también se llaman Jochen Cals y Daniel Kotz, respectivamente. En un artículo en The Lancet recomendaron a todos los investigadores que obtuvieran un ResearcherID del ISI de Thomson Reuters (lanzado oficialmente en enero de 2008). Es gratis. «It would make life a lot easier,» dice A-1262-2007. Por cierto, yo traté de obtener uno el año pasado, me enviaron un correo diciendo que tenía que esperar a que asignaran un ID y todavía estoy esperando. Quizás mi gestor de correo basura engulló dicho correo. Hay otras iniciativas en curso, como el sistema ContributorID, actualmente en desarrollo, que proveerá un DAI, algo similar al DOI para artículos, pero para cada autor, con el que podremos interactuar con editoriales, revistas, editores, etc.

¿Quién garantiza que nadie haga uso malintencionado del sistema? Yo pondría solicitar un ResearcherID afirmando que soy «Albert Einstein» y podría reclamar para mí todos sus artículos. ¿Y qué pasa con los investigadores ya fallecidos? ¿Nunca tendrán un ResearcherID? ¿Quién pagará para que millones de artículos cuyos autores no pueden realizar la tarea de desambigüación pueden aprovecharse de estos avances informáticos? Nadie tiene ni el tiempo ni el dinero para realizar esa tarea. Sólo herramientas informáticas (semi)automáticas podrán realizar esta tarea y por supuesto con un cierto porcentaje de error.

La wiki funciona bien. Más o menos bien. Autocorrige sus propios errores. ¿Por qué no un sistema de identificación y desambigüación de nombres al estilo de un red social? ¿Hay negocio? Lo hay: publicidad para científicos. ¿Quién se atreverá a aprovechar dicho negocio?

Video de como el virus del SIDA utiliza un caballo de Troya para infectar linfocitos T CD4+

El número de hoy de Science viene cargadito de buenos e interesantes artículos. Entre ellos, los primeros vídeos tridimensionales de la infección de linfocitos T CD4 por el virus del sida (VIH) que se esconde dentro de células de Jurkat (un tipo de linfocitos) de tal forma que los propios linfocitos no lo reconocen. El virus del sida, cual Ulises, utiliza un caballo de Troya para engañar a sus víctimas. Saber que lo hacía, se sabía, pero verlo en vídeo en vivo y en directo es espectacular. De hecho, el virus VIH también puede infectar linfocitos directamente sin necesidad de células de Jurkat pero es mil veces menos eficiente haciéndolo. El artículo técnico es Wolfgang Hübner et al. «Quantitative 3D Video Microscopy of HIV Transfer Across T Cell Virological Synapses,» Science 323: 1743-1747, 27 March 2009 . Los que tengáis acceso a la revista no podéis dejar de ver los 12 vídeos .mov de la información suplementaria del artículo, todos espectaculares.

La infección de un linfocito T CD4 por parte del virus del sida (VIH) es miles de veces más eficiente cuando el virus utiliza como caballo de Troya a otras células en cuya superficie se adhiere. Los investigadores han utilizado un clon del virus del SIDA que está marcado con proteínas fluorescentes (GFP, Premio Nobel de Química de 2008), llamado «HIV Gag-iGFP» y técnicas de microscopía electrónica tridimensional para estudiar los detalles de esta infección. En 4 horas, el 24% de los virus han logrado adherirse a células de Jurkat y entre ellas el 80% logra infectar a un linfocito T en una media de 82 minutos.

Desde el punto de vista práctico, para qué sirve todo esto. Permitirá nuevas estrategias para el desarrollo de vacunas para el sida y medicinas retrovirales basadas en inhibir o impedir la interacción sináptica del virus con las células de Jurkat y con el linfocito T CD4 durante el proceso de infección.

PS: El Mundo publica un artículo que os gustará (visto vía Menéame)  de Isabel F. Lantigua, «La invasión intercelular del VIH. Descubren que el virus utiliza una estructura, llamada sinapsis, para invadir las células. Por primera vez han grabado el proceso de infección en un vídeo en 3D.» Incluye un vídeo diferente de los mostrados aquí.

El grafeno, la panacea de la nanoelectrónica

 dibujo20090326graphenesciencepaper

¿Quieres trabajar en nanotecnología? ¿Quieres estar a la moda? Tienes que trabajar en grafeno. La ciencia básica tiene estas cosas. Ciertos descubrimientos que aparentemente no sirven para nada se convierten en una tecnología «estrella» en las manos adecuadas. La nanoelectrónica basada en nanotubos de carbono es muy complicada, sobre todo porque se integra mal con la microelectrónica convencional. Las hojas planas de grafeno, una curiosidad de laboratorio descubierta hace un lustro, se decantan como la mejor opción. Lo inútil convertido en imprescindible. Nos lo cuenta en Nature, Geoff Brumfiel, «Graphene gets ready for the big time. Physicists are talking about how to make practical use of a former laboratory curiosity,» Nature 458: 390-391, 25 Mar 2009 , y dos artículos técnicos en Science tratan el mismo tema: Xiaoting Jia et al., «Controlled Formation of Sharp Zigzag and Armchair Edges in Graphitic Nanoribbons,» Science 323: 1701-1705, 27 March 2009 , y Çaglar Ö. Girit et al., «Graphene at the Edge: Stability and Dynamics,» Science 323: 1705-1708, 27 March 2009 . En el último congreso (meeting) de la Sociedad de Física Americana, APS, hubo 16 sesiones sobre nanotubos y 28 sobre grafeno. La ciencia también «vive» de las modas.

Todo el mundo creía (sabía) que el uso en nanoelectrónica del grafeno, hojas planas de carbono ultrafinas descubiertas en 2004, era sólo una utopía. Por ejemplo, no presenta una banda electrónica prohibida (band gap) que permita fabricar fácilmente un transistor. Sin embargo, una amplia minoría coreaba sus ventajas. Manipular nanotubos de carbono (hojas de grafeno enrolladas cilíndricamente) es extremadamente difícil. Prácticamente hay que manipularlos uno a uno, algo que sólo unas pocas manos expertas en el mundo son capaces de lograr. Integrar nanotubos de carbono con microelectrónica estándar es muy difícil, sin embargo, la uniformidad del grafeno, perfectamente plano, logra que se combine fácilmente con la tecnología integrada de silicio. Más aún, los electrones en el grafeno se mueven a velocidades muy altas, hasta 4 veces mayores que en silicio. Algo muy prometedor en comunicaciones de banda ancha. Fácilmente se pueden conseguir dispositivos que operen en el régimen de terahercios (hasta 1012 Hz). Recuerda que el silicio sólo opera bien hasta pocos gigahercios.

Xiaoting Jia y colaboradores han mostrado en Science que una lámina alargada (nanoribbon) de grafeno puede volverse semiconductora si la estructura de su borde tiene la geometría adecuada (una estructura en zigzag), lo que permitirá desarrollar dispositivos de tipo transistor basados en grafeno. En la misma línea, Çalar Ö. Girit y colaboradores han mostrado también en Science que el movimiento de átomos individuales en los bordes de láminas de grafeno puede ser visualizado mediante microscopía electrónica de aberración corregida. En especial para bordes en forma de «zigzag» se obtienen resultados mucho más complicados de los esperados. El vídeo de abajo muestra lo espectacular de las imágenes obtenidas con esta tecnología. Prestad especial atención al movimiento de átomos de carbono en los bordes del agujero de arriba (cuyos bordes fluctúan como si estuvieran «vivos»). La tecnología, increíble. La ciencia, una pasada.

PS (1 abril 2009): Noticia relacionada en Menéame «Científicos graban en tiempo real átomos de carbono en movimiento (ING)«.

Entre la «tormenta» y la «calma» en el disco de acreción del agujero negro del microcuásar GRS 1915+105

dibujo20090326twoaccretionstatesinmicroquasar

Conocer los detalles de la acreción (el flujo) de materia hacia un agujero negro es clave para poder estar seguros de que hemos observado agujeros negros y no otros objetos compactos (como estrellas oscuras o casi-agujeros negros). En un agujero negro con un disco de acreción se observan dos chorros de materia diferentes. Por un lado un chorro lento de materia que es absorbido de la estrella para formar el propio disco de acreción y otro chorro rápido de materia transversal al propio disco de acreción. Muchos investigadores pensaban que la dinámica de ambos chorros estaba desacoplada. Neilsen y Lee estudiando el microcuásar GRS 1915 + 105 (un agujero negro de 14 masas solares que acreta materia de una estrella cercana) han descubierto que están fuertemente acoplados. La acreción de materia oscila entre dos estados, uno de alta luminosidad, baja tasa de acreción y un jet (chorro) de alta velocidad y otro de baja luminosidad, alta tasa de acreción y un jet mucho más lento. El chorro de materia transversal al disco de acreción compite con el chorro de materia que alimenta dicho disco, generando un comportamiento oscilatorio que nos muestra que la acreción es un fenómeno mucho más complejo de lo se pensaba. Nos lo cuenta Daniel Proga, «Astrophysics: Quiet is the new loud,» News and Views, Nature 458: 414-415, 26 March 2009 , haciéndose eco del artículo de Joseph Neilsen, Julia C. Lee, «Accretion disk winds as the jet suppression mechanism in the microquasar GRS 1915+105,» Nature 458: 481-484, 26 March 2009 .

GRS 1915+105 es un sistema binario formado por un agujero negro de 14 masas solares que acreta materia de una estrella de 0.8 masas solares que orbita al agujero negro cada 33.5 días. Es el primer microcuásar conocido de nuestra galaxia que presenta estados en los que aparecen chorros de materia transversales al disco de acreción superlumínicos. La curva de luz de este cuásar presenta al menos 14 clases distintas que representan diferentes estados del sistema binario. Neilsen y Lee han utilizado datos del Observador de Rayos X Chandra entre el 14 de abril de 2000 y el 14 de agosto de 2007. Este microcuásar presenta estados «tranquilos» (figura de la derecha), que presentan viento inonizado emitido por el propio disco de acreción sin un gran chorro que los acompañe y estados «fogosos» (figura de la izquierda), que presentan poco viento y un gran chorro transversal. Ambos fenómenos, según este estudio están fuertemente acoplados.

Se pensaba que todos los sistemas de agujeros negros que acretan materia eran similares, independientemente de su tamaño. En un extremo, los núcleos activos de galaxias, donde agujeros negros supermasivos acretan materia del núcleo de toda una galaxia formando los cuásares. En el otro extremo, los pequeños agujeros negros en estrellas binarias que se «tragan» la materia de una estrella binaria. Tanto los microcuásares como los grandesa cuásares se observan en diferentes estados en función del espector de rayos X que emiten. Los dos más importantes son un estado de alta energía, con rayos X «duros» y alta luminosidad y un estado de baja energía, con rayos X «blandos» y baja luminosidad. La mayoría de los cuásares se observan en uno de estos dos estados. Se cree que porque la escala de tiempo en la cambian entre estos estados es muy lento. Sin embargo, en los microcuásares esta escala de tiempo es mucho más corta (hasta 8 órdenes de magnitud más corta). De hecho, los microcuásares pasan por muchos estados «intermedios,» más de 14 estados en GRS 1915 + 105 .

La gran cuestión es entender la dinámica de la formación del disco de acreción y cómo se produce el gran chorro de materia transversal al agujero negro. Parece que la energía rotacional del disco se disipa y se convierte en calor que finalmente es radiado en forma del chorro. Pero los detalles no se conocen con precisión. Los chorros rápidos podrían ser producidos por la propia rotación del disco de acreción o por la rotación propia del agujero negro. En ambos casos este proceso implica grandes campos magnéticos. La sorpresa del trabajo de Neilsen y Lee es que la dinámica de GRS 1915 + 105 no requiere grandes campos magnéticos para ser comprendida. Basta con los «vientos» de materia del propio disco de acreción que tienen un papel mucho más importante de lo que se pensaba. ¿Son estos vientos los responsables de los grandes estados del microcuásar? No se sabe. ¿Son los responsables de que el gran chorro transversal esté muy colimado? Los autores de este artículo, contradeciendo ideas anteriores, creen que no. Han observado que tanto los vientos como el gran chorro compiten por el mismo material. Por lo que estos vientos no coliman el chorro sino más bien lo suprimen. Por ahora, la dinámica exacta de esta competencia es completamente desconocida. ¿Son los grandes campos magnéticos observados en muchos cuásares los causantes de estos vientes? Los autores creen que no, pero no están seguros.

En física la observación y el experimento son claves para que comprendamos la realidad que nos rodea. Las observaciones de Neilsen y Lee son desconcertantes para la mayoría de los expertos en discos de acreción. Se requerirán simulaciones numéricas en grandes ordenadores para poder entender la dinámica de los discos de acreción en detalle. Para validar estas simulaciones, las observaciones de Lee y Neilsen serán claves. La dinámica de los chorros más intensos de materia depende mucho de los vientos suaves en el propio disco de acreción.

PS: Noticia en Menéame Un errático agujero negro se regula a sí mismo (ING) y cómo no, la traducción al español del genial Kanijo.