El estado actual de la fusión aneutrónica, la tercera vía a la fusión nuclear

Hay una alternativa a la fusión nuclear, la panacea energética del siglo XXI, que no requiere gastar miles de millones de euros de los contribuyentes. Eric J. Lerner y su equipo de la empresa Lawrenceville Plasma Physics, Inc., están explorando una tercera vía para la fusión nuclear, la fusión aneutrónica basada en plasmoides, que pretende la fusión de protones e iones de boro-11, resultando helio-3 y energía a espuertas. La fusión aneutrónica no está libre de neutrones, pero requiere que la emisión de neutrones al producir cierta cantidad de energía sea inferior al 1% de la emisión correspondiente a la fusión convencional. El último artículo de Lerner se ha publicado en la revista Physics of Plasmas de la AIP y afirman que han logrado la fusión pulsada confinada en un plasmoide de iones de deuterio (sí, la fusión D+D con emisión de neutrones); durante unos 7-30 nanosegundos han logrado una producción de 0,15 billones de neutrones en el núcleo de un plasmoide de 0,3-0,5 mm de radio y una densidad de ∼3 × 1019 cm−3. Según Lerner y sus coautores se ha logrado dar un gran paso hacia la fusión aneutrónica (aunque en mi opinión de inexperto aún queda bastante lejana). El artículo técnico es Eric J. Lerner, S. Krupakar Murali, Derek Shannon, Aaron M. Blake, and Fred Van Roessel, “Fusion reactions from >150 keV ions in a dense plasma focus plasmoid,” Phys. Plasmas 19: 032704, 23 March 2012 [pdf gratis]. Para quien no lo sepa, Phys. Plasmas es la revista con mayor índice de impacto dedicada en exclusiva a la física de plasmas, como nos recuerda Derek Shannon, “Acceptance to Physics of Plasmas confirms LPP is hot!,” LPP Inc., Feb. 27, 2012. Un avance previo de Lerner fue objeto de una entrada de César @EDocet, “Una tercera vía a la fusión nuclear: la fusión aneutrónica,” Experientia Docet, 24 oct. 2009, que por cierto llegó a portada en Menéame.

Lo primero, Eric J. Lerner está considerado un crackpot, un científico cuyas ideas parecen locuras, desde que escribió en 1991 un libro de divulgación afirmando que el Big Bang nunca ocurrió (“The Big Bang Never Happened“). No sé si 20 años más tarde seguirá opinando lo mismo, tras la confirmación de la teoría del Big Bang obtenida por WMAP-7, pero muchos físicos al oir el nombre de Lerner piensan de forma automática en la palabra crackpot. Pero bueno, esto es solo prensa rosa.

Como nos contó César: “La máquina de Lerner se llama dispositivo de fusión por concentración de plasma denso. Funciona almacenando carga en condensadores y descargando después la electricidad acumulada rápidamente a través de electrodos introducidos en un gas que se mantiene a baja presión. Los electrodos están dispuestos como un ánodo (cargado positivamente) en el centro, rodeado de cátodos (cargados negativamente) más pequeños. Cuando los condensadores se descargan, los electrones fluyen a través del gas, “golpeando” los electrones de los átomos del gas y arrancándolos de éstos, transformando de esta manera el gas en un plasma. Comprimiendo este plasma usando campos electromagnéticos, Lerner y sus colegas han creado un plasmoide, que es una pequeña burbuja de plasma que se puede hacer que esté lo suficientemente caliente como para iniciar ciertas formas de fusión. Según la teoría, los núcleos en el plasmoide se moverían tan rápido que cuando chocan entre sí vencerían la repulsión electrostática mutua y se fusionarían. (…) Lerner [propone] golpear átomos de boro con protones (los núcleos de los átomos de hidrógeno) hasta romperlos en tres núcleos de helio (p + 11B -> 3 4He) liberando en el proceso una enorme cantidad de energía. Este proceso se conoce, perversamente, como fusión aneutrónica.”

En 2009, Lerner y su equipo aún no habían logrado demostrar la fusión aneutrónica (“sus plasmoides no eran lo suficientemente calientes como para sustentar una fusión aneutrónica”). En 2012 tampoco la han logrado, aunque según ellos han dado un paso importante hacia su objetivo. Sus estimaciones teóricas indican que la lograrán cuando logren descargar un corriente pico de más de 2 MA (millones de amperios) sobre un plasmoide adecuado; en su artículo en Physics of Plasmas afirman haber alcanzado corrientes pico entre 0,9-1,1 MA, aunque sobre un plasmoide de deuterio (que es menos pesado que el boro). La idea clave de Lerner y su equipo es confinar el plasma utilizando energía magnética en lugar de energía térmica; con 1 MA (mega-amperio) afirman haber alcanzado 80 MG (mega-gauss) y una densidad de energía magnética de 3×1014 erg/cm³, unas 15 veces mayor que la densidad de energía térmica alcanzada en su experimento, de solo 2×1013 erg/cm³. Como el plasmoide es muy pequeño, esta densidad de energía térmica implica una temperatura muy grande, de unos 1800 millones de grados (Eric J. Lerner, “Record confinement of 1.8 billion-degree plasma published in peer reviewed journal,” LPP Inc., March 23, 2012). En opinión de Lerner, esta densidad de energía magnética es suficiente para lograr la fusión aneutrónica, pero por ahora solo están estudiando la fusión D+D. En sus propias palabras “The conditions obtained in these experiments with deuterium are of interest for aneutronic fusion, such as pB11. Theoretical work has shown that there are effects at high magnetic fields that can reduce x-ray Bremsstrahlung with pB11 plasma. Simulation has also indicated promise that fusion power may at times exceed x-ray emission. We intend to test this soon.”

Habrá que esperar a ver cómo evoluciona este campo. Como ya sabéis los lectores habituales, yo soy bastante escéptico respecto a esta vía para la fusión. Espero equivocarme.

Atención, pregunta: ¿Son responsable Auterio y Ereditato del error de OPERA?

Auterio y Ereditato han dimitido. Aunque no hay comunicado oficial, parte de la prensa apunta a que algunos miembros de la colaboración OPERA les han pedido que dimitieran. La verdad es que, sin acritud, el problema de OPERA ha sido debido a una negligencia cuyo responsable último es Auterio, como coordinador científico de OPERA. En 2006, Auterio contó en una charla todos los chequeos que se iban a realizar para verificar la validez de las medidas de la velocidad de los neutrinos. Uno de estos chequeos utilizaba muones originados en los rayos cósmicos que atravesaran en secuencia los experimentos OPERA y LVD de Gran Sasso. Los datos de estos muones han sido recogidos desde 2007 hasta 2012. En 2007 y a principios de 2008 se verificó gracias a estos muones que el sistema de medida de tiempos de OPERA funcionaba bien. Sin embargo, tras el verano de 2008, en 2009, en 2010 y en 2011 no se ha vuelto a repetir esta verificación. Los datos han sido tomados, pero el análisis no ha sido realizado. ¿Por qué? ¿Quién es el responsable de esta negligencia? Obviamente, el responsable último tiene que ser el coordinador científico. Por alguna razón desconocida Auterio no exigió que estos análisis fueran realizados aunque se hubieran tomado los datos. Por alguna razón olvidó sus propias palabras de 2006. Visto lo visto, no hay otra opción, su cabeza tenía que caer bajo la guillotina de la dimisión. El análisis realizado en 2012 utilizando los datos recogidos entre 2008 y 2012 muestra claramente el error. Un error que podría haber sido detectado en septiembre de 2008, o en 2009, o en 2010, o en 2011, antes del anuncio de septiembre de 2011. Podría haber sido detectado si el análisis hubiera sido realizado con los datos disponibles. ¿Por qué no se realizó este análisis? ¿Por qué Auterio olvidó sus propias palabras de 2006? Lo siento por los que creen que Auterio y Ereditato han dado ejemplo dimitiendo, lo siento, pero al menos a Auterio, como coordinador científico de OPERA, había que exigirle responsabilidades pues su grave negligencia es la causa del error de OPERA. Mis palabras pueden resultar duras, pero así son las cosas, quien mete la pata hasta el fondo, a sabiendas, tiene que pagar por ello. Y lo digo en voz alta, a sabiendas. La dimisión no excusa responsabilidades mayores.

¿Qué opinas sobre este tema? Usa los comentarios si te apetece.

PS (2 abril 2012): Antonio Ereditato “confiesa sus pecados” en Le Scienze (edición italiana de Scientific American, equivalente a Investigación y Ciencia española): “OPERA: Ereditato’s Point of View. Antonio Ereditato sent us this message which we are happy to publish regarding his resignation as Chairman of the OPERA experiment,” Le Scienze, 30 marzo 2012. Llevar sobre los hombros el experimento OPERA después del revuelo mediático de septiembre de 2011 con los neutrinos superlumínicos ha sido una carga muy pesada. Aún así, ha realizado acuerdos con ICARUS y LVD, ha cedido ideas de la medida de tiempos de su experimento y ha hecho todo lo posible por esclarecer el asunto. Sus esfuerzos han tenido su fruto y gracias a ellos ya sabemos que hubo un error que fue responsable del resultado. Estos meses han sido muy duros y notado cierto descontento por parte de los miembros de OPERA, por ello ha decidido dimitir. Ahora podrá descansar un tiempo para recuperarse de toda la presión acumulada.

Se hacen eco Tushna Commissariat, “Have superluminal claims been put to rest? OPERA physics co-ordinator Dario Autiero resigned on Friday,” Blog, PhysicsWorld.com, Apr 2, 2012, y Eugenie Samuel Reich, “Embattled neutrino project leaders step down. No-confidence vote follows confirmation of faults in experiment’s cable and clock,” Nature News, 02 April 2012.

El experimento LVD de Gran Sasso confirma con muones de rayos cósmicos el error de 60 ns de OPERA sobre los neutrinos

¿Por qué han dimitido Auterio y Ereditato de OPERA? Nadie lo sabe con seguridad, pero los rumores apuntan a que la razón es la verificación realizada con rayos cósmicos por el experimento LVD (también en Gran Sasso) de la existencia de un error de 60 ns en la medida de tiempos de OPERA. Los muones de los rayos cósmicos a veces pasan por LVD y por OPERA, primero por uno y luego por el otro; se ha medido el momento en que pasan por cada uno para comprobar el sistema de medida de tiempos de OPERA. El resultado indica que la medida de tiempos en OPERA tiene un error sistemático de unos 60 ns (exactamente el adelanto de los neutrinos muónicos publicado en septiembre de 2011). En 2008, LVD y OPERA midieron el momento de llegada de los muones cósmicos y comprobaron que sus relojes estaban bien sincronizados, no había adelanto en OPERA. En algún momento durante 2008 ambos relojes dejaron de estar sincronizados y OPERA adquirió un error sistemático de unos 60 ns. LVD confirma de forma definitiva lo que muchos ya nos temíamos desde hace muchos meses; un error sistemático de 60 ns en OPERA es el causante de la anomalía observada con la velocidad de los neutrinos. Obviamente, ya no hay vuelta de hoja: errores “tontos” observados en OPERA, un desmentido por ICARUS y otro por LVD son ya demasiadas pruebas a favor del delito, la medida de OPERA era errónea fuera de toda duda. La cuestión que tendrás ahora mismo en tu cabeza es, ¿por qué no comprobaron en 2009, en 2010 y en 2011 la sincronización entre LVD y OPERA con muones cósmicos? Nadie lo sabe, por ahora, pero lo que está claro es que esta incompetencia exige que Auterio y Ereditato dimitan fuera de toda discusión (y la discusión de verdad no está en este blog sino en la propia colaboración OPERA). Más información en Matt Strassler, “OPERA’s Timing Issue Confirmed?,” Of Particular Significance, March 30, 2012; la fuente de esta entrada es (en italiano) Emanuela Gialli, “Neutrino, verso il verdetto finale,” RAI Televideo.

Un muón recorre los 160 m entre OPERA y LVD en unos 500 ns (a la velocidad de la luz).

Los rayos cósmicos son partículas de alta energía provenientes del espacio exterior que colisionan con átomos de la atmósfera terrestre creando chorros de piones, muones e incluso neutrinos (y sus antipartículas). Unos 300 muones (o antimuones) han logrado penetrar la roca de la montaña encima del laboratorio de Gran Sasso y atravesar los experimentos OPERA y LVD de forma casi simultánea (están separados unos 160 m, por lo que estos muones son detectados en LVD unos 0,5 μs después que en OPERA).

El análisis de los datos entre 2007 y 2012 muestrapasó algo en el verano de 2008 que introdujo un error sistemático en las medidas de tiempos de OPERA. Esta figura aparece en Maximiliano Sioli (Bologna University and INFN), “Updated results of the OPERA neutrino-velocity analysis on behalf of the OPERA Collaboration,” LNGS Workshop, March 28th 2012. La diferencia entre el tiempo de llegada de los muones a OPERA y a LVD cambió en un valor de 73 ± 9 nanosegundos en algún momento entre mayo y agosto de 2008, con respecto al valor medido con anterioridad. Tras descubrir el problema en OPERA con el conector de fibra óptica en enero, se ha arreglado dicho problema y las medidas de los tiempos han vuelto a su valor anterior a 2008 (el valor medido es para la diferencia es de −1,7 ± 3,7 ns, es decir, cero). El problema de la diferencia de tiempos de llegada para los muones entre OPERA y LVD se ha arreglado. Todo indica que los dos problemas detectados en enero en OPERA, el cable de fibra óptica mal conectado y el reloj mal sincronizado eran responsable íntegros del problema de OPERA. El cable de fibra óptica introducía un error de unos 73 ns y el reloj corregía esta valor hasta unos 60 ns. Misterio resuelto.

Esta fotografía nos muestra la tarjeta de circuito donde se detectó la conexión incorrecta del famoso cable de fibra óptica; he señalado en rojo el lugar donde estaba conectado incorrectamente el cable de fibra óptica que introducía un retraso de unos 73 ns. Esta fotografía de 2006 está extraída de una charla de D. Auterio, “Timing and data-exchange between CERN and LNGS,” [fichero PPT]. La vista de la conexión del cable aparece en la fotografía de abajo; el 6 de diciembre el cable estaba mal conectado y en la fotografía se ve perfectamente, comparada con su correcta conexión el 14 de diciembre. La fotografía está extraída de la charla de G. Sirri (INFN Bologna), “Measurements and cross checks on OPERA timing equipments,” [fichero PPTX].

Las medidas del tiempo necesario para que una señal del GPS llegue desde el reloj maestro en la superficie hasta el reloj esclavo en el experimento subterráneo OPERA no dejan lugar a dudas. El 20 de julio de 2006 y el 13 de diciembre de 2011, tras arreglar el problema del conector, el resultado coincide; sin embargo, el 6-8 de diciembre de 2011 se observaba un retraso de 73,2 ± 0,6 ns debido a la conexión incorrecta. La señal de este conector actúa sobre un fotodiodo ETX100 que activa un preamplificador de la señal. La conexión defectuosa actúa de forma efectiva como un cambio en la capacidad del fotodiodo lo que introduce un retraso en la recepción de la señal óptica.

Si lee esto algún experto en fibra óptica y/o comunicaciones ópticas, disfrutará de la figura de arriba , que muestra claramente el problema introducido por el conector defectuoso; ya expliqué este problema como conjetura en una entrada anterior de este blog, que fue muy criticada por algunos lectores; ahora se confirma que la explicación era correcta, lo siento por los críticos, pero a veces, muy pocas veces, acierto. Brevemente, la conexión incorrecta atenúa la intensidad de la luz que recibe un fotodiodo acoplado a un circuito analógico que debe producir un pulso como entrada a un circuito digital. El pulso se genera con un retraso debido a que la pendiente de la señal de entrada (curva azul) es menor de la esperada. Respecto a la medida de los tiempos de llegada de los neutrinos, este retraso corresponde a que los neutrinos parezca que llegan antes de tiempo (el pulso se utiliza para “estampar” el momento de llegada).

La gran pregunta es ¿por qué no se realizó este chequeo con muones de forma periódica durante los últimos tres años? O al menos antes de hacer públicos los resultados sobre los neutrinos superlumínicos. Como acaba Matt Strassler la entrada en su blog, como en las mejores óperas italianas, tras la resolución de la tragedia, algunas cabezas han tenido que rodar.

Los líderes de la colaboración OPERA dimiten por el asunto de los neutrinos superlumínicos

Dario Auterio (izq.) y Antonio Ereditato (der.) aparentemente felices.

Pilatos se lavó las manos (aunque nadie viera la sangre de los inocentes en ellas). En los grandes experimentos científicos siempre hay un jefe (coordinador) y un portavoz (quien da la cara y responde ante la prensa). Dario Auterio (coordinador de OPERA) y Antonio Ereditato (portavoz de OPERA) han dimitido. Son responsables de toda la “mierda” que le ha caído a la colaboración OPERA y deben “lavar” la imagen de la colaboración, que cual ave Fénix debe renacer limpia como el culito de un bebé recién nacido. ¿Han hecho bien Auterio y Ereditato? Todo depende de la declaración oficial de las razones por las que han dimitido. Por ahora, todo se ha quedado en un “sin comentarios.” No hay declaración oficial. Dimiten porque la colaboración OPERA está dividida entre quienes quieren sus cabezas bajo la guillotina y quienes creen que lo han hecho lo mejor que se podía hacer. Habrá que esperar para saber más detalles… la prensa rosa es parte intrínseca e indisoluble de toda actividad humana y la ciencia no está libre de ella. Más información en Eugenie Samuel Reich, “Leaders of faster-than-light neutrino team resign,” Nature News, 30 Mar. 2012; T. Dorigo, “Superluminal Neutrinos: Opera Spokesperson Resigns,” AQDS, March 30th 2012; L. Motl, “OPERA experiment spokesman resigned,” TRF, March 30, 2012; “Dimite el coordinador del fallido experimento que cuestionaba a Einstein,” El País, 30 Mar. 2012; “Dimite el científico italiano que dirigió el experimento fallido de los neutrinos,” El Mundo, 30 Mar. 2012; etc. en Noticias Google.

Ingenieros del MIT desarrollan una cámara capaz de ver objetos escondidos detrás de una esquina

Vemos un objeto porque nos llega la luz que refleja; si esta luz se refleja en una pared, aunque no veamos el objeto, podríamos reconstruir la imagen del objeto (algo parecido a lo que hace un periscopio, pero sin utilizar un espejo, solo gracias a la luz reflejada en una puerta o una pared). Ingenieros del MIT publican en la revista Nature Communications este sistema, que ilustra a la perfección el vídeo que abre esta entrada. El sistema requiere un complejo sistema de algoritmos de reconstrucción de la imagen en varias pasadas, que ilustra el vídeo de más abajo. Por supuesto, es mucho más fácil utilizar un espejo o un periscopio, pero me ha llamado la atención este nuevo sistema. El artículo técnico es Andreas Velten, Thomas Willwacher, Otkrist Gupta, Ashok Veeraraghavan, Moungi G. Bawendi & Ramesh Raskar, “Recovering three-dimensional shape around a corner using ultrafast time-of-flight imaging,” Nature Communications 3: 745, Published 20 March 2012 [pdf gratis]. Más información en español en “Una cámara que puede ver detrás de las esquinas,” Nanotecnología, 20 Mar. 2012, y en “La primera cámara que ve objetos ocultos,” Ciencia, ABC, 27 Mar. 2012.

La siguiente figura ilustra la idea del algoritmo de reconstrucción. El láser ilumina la superficie de forma indirecta y genera un frente de onda en el objeto que se refleja en la pared hacia la cámara. Los frentes de onda debidos a la luz láser (muy bien colimada) son esféricos y la superposición de múltiples frentes de onda esféricos “recuerda” la forma tridimensional del objeto ocultado tras la esquina. El método permite ver incluso objetos en movimiento, pero se requiere un complejo algoritmo de reconstrucción tridimensional que los autores presentan en detalle en su artículo.

 Estas figuras están extraídas del propio artículo de Nature Comm. y en mi opinión son bastante autoexplicativas. 

Vídeo en tiempo real del experimento cuántico de doble rendija con moléculas de ftalocianina

El experimento de interferencia cuántica de la doble rendija permite verificar la dualidad onda-partícula y ha sido realizado con electrones, neutrones, átomos y moléculas tan grandes como un buckybola. Se publica en Nature Nanotechnology este experimento con moléculas de ftalocinanina (514 Da, dalton o unidades de masa atómica) y de un derivado de la ftalocianina (1298 Da). El vídeo que abre esta entrada muestra la generación del patrón de interferencia cuántica en tiempo real. El artículo técnico es Thomas Juffmann, Adriana Milic, Michael Müllneritsch, Peter Asenbaum, Alexander Tsukernik, Jens Tüxen, Marcel Mayor, Ori Cheshnovsky, Markus Arndt, “Real-time single-molecule imaging of quantum interference,” Nature Nanotechnology, Published online 25 March 2012. Más información en español en José Luis Blanco, “Nuevo récord en el tamaño de objeto con comportamiento cuántico,” Ciencia Explicada, 26 marzo 2012 (visto en Menéame).

Retorno al pasado, Nature (2005): La fusión nuclear en la mesa de un laboratorio

Cada vez que hablo de fusión nuclear en este blog, algún lector me recuerda el experimento publicado en Nature en 2005 (antes de que naciera este blog). Investigadores de la Universidad de California en Los Ángeles (UCLA) publicaron pruebas inequívocas de haber logrado la fusión nuclear en un experimento sencillo a temperatura ambiente. Calentaron un cristal piroeléctrico (material que se carga eléctricamente cuando se calienta) dentro de un cavidad con gas de deuterio (D), provocando su ionización; los iones cercanos a un punta de wolframio, donde el campo eléctrico es muy intenso, se aceleraron hasta bombardear un blanco sólido que contenía deuterio; como resultado se midió un flujo de neutrones con un espectro de energía que correspondía a la reacción de fusión D+D. Una demostración que se vio premiada por una publicación en Nature. Obviamente, este procedimiento no sirve como fuente de energía (no permite la ignición controlada de la fusión con exceso de energía), pero puede tener aplicaciones como fuente de neutrones en radiología e imagen en medicina (aunque en 2005 el número de neutrones producido era tan pequeño que no tenía aplicación práctica razonable, los autores del estudio esperaban que en pocos años se pudiera incrementar dicho número en al menos un factor de mil). ¿Qué sabemos ahora de esta tecnología y de este experimento? En esta entrada recordaré el resultado logrado y bucearé en su estado actual. El artículo original es B. Naranjo, J.K. Gimzewski & S. Putterman, “Observation of nuclear fusion driven by a pyroelectric crystal,” Nature 434: 1115-1117, 28 April 2005 [pdf gratis], y también merece la pena leer Michael J. Saltmarsh, “Technology: Warm fusion,” News and Views, Nature 434: 1077-1080, 28 April 2005 [pdf gratis]. El investigador principal del artículo Seth Putterman es muy polémico y ha sabido buscarse gran número de enemigos entre el establishment, como nos contó Geoff Brumfiel, “Physics: Far from the frontier,” News Feature, Nature 437: 1224-1225, 27 October 2005; aún así, sus ideas son muy originales y siempre son objeto de noticias en los medios.

Naranjo, Gimzewski y Putterman lograron una fuente portátil de neutrones de alta energía (unos 2,5 MeV) basada en la reacción nuclear de fusión del deuterio D + D right arrow 3He (820 keV) + n (2,45 MeV). El dispositivo permite generar un haz de neutrones de baja intensidad, con un pico de unos 1000 por segundo. El funcionamiento del dispositivo es muy sencillo. Un cristal piroeléctrico de LiTaO3 colocado entre dos electrodos es calentado lentamente, lo que provoca que aparezca una diferencia de potencial de unos 100 kV entre dichos electrodos (ver figura de arriba). Este cristal se encuentra en una cavidad rellena de deuterio gaseoso con una presión muy baja de unos 0,7 pascales (recuerda que la presión atmosférica es de 100 000 pascales). El cristal piroeléctrico está conectado a un electrodo de wolframio en forma de aguja donde se produce un campo eléctrico enorme, de unos 10 gigavoltios por metro, que ioniza el gas de deuterio. Los iones de deuterio se ven acelerados por el campo eléctrico y se dirigen como proyectiles hacia un blanco sólido que contiene deuterio en forma de ErD3 (“deuteriuro” de erbio). Los iones colisionan con el blanco y producen neutrones con un espectro de energía centrado en 2,5 MeV que corresponde a la reacción de fusión D+D.

El calentamiento del cristal piroeléctrico es lento, su temperatura crece unos 12,4 °C por minuto, lo que induce una polarización espontánea y una diferencia de potencial que crece a un ritmo de unos 50 kV por minuto. Cuando esta diferencia de potencial crece, la punta de wolframio adquiere un campo eléctrico mayor de 25 gigavoltios por metro, capaz de ionizar el gas de deuterio. Estos iones se aceleran formando haz que incide sobre el blanco (como muestra la figura de arriba, obtenida mediante simulaciones numéricas). La corriente de estos iones es baja, unos 4 nanoamperios, lo que produce un pico máximo de unos 1000 neutrones por segundo. El haz se mantiene mientras se está calentando el cristal piroeléctrico, es decir, durantes unos pocos minutos.

¿Para qué se puede usar un haz de unos 1000 neutrones por segundo? La verdad es que es un haz con una intensidad demasiado débil para ser útil en aplicaciones prácticas (salvo para experimentos en laboratorios de física que requieran haces de neutrones débiles). Los autores del estudio afirmaban en su artículo que esperaban poder incrementar la intensidad del haz de neutrones en un factor de 1000 hasta alcanzar una intensidad de un millón de neutrones por segundo. Para ello proponían operar el sistema en condiciones criogénicas, para permitir que el calentamiento lento del cristal dure más tiempo, además utilizar una punta más delgada o un sistema de puntas. En un artículo posterior, V. Tang, G. Meyer, J. Morse, G. Schmid, C. Spadaccini, P. Kerr, B. Rusnak, S. Sampayan, B. Naranjo, S. Putterman, “Neutron production from feedback controlled thermal cycling of a pyroelectric crystal,” Rev. Sci. Instrum. 78: 123504 (2007), implementaron estas ideas. Calentando el cristal desde 10 ºC a 100 ºC, a un ritmo de  0,2 °C/s, lograron producir una corriente de iones de unos ∼10 nA y un número de neutrones de 190 000 (±30 000) por ciclo de calentamiento. El incremento no es tan grande como esperaban inicialmente (según predecían sus simulaciones numéricas). También han utilizado un blanco con tritio en lugar de deuterio en su artículo B. Naranjo, S. Putterman, T. Venhaus, “Pyroelectric fusion using a tritiated target,” Nuclear Instruments and Methods in Physics Research Section A 632: 43–46, 2011, lo que les permite obtener una fuente de neutrones con una energía de unos 14,1 MeV (obtuvieron un flujo mucho menor del esperado en teoría, unos 300 000 neutrones por segundo, que achacaron a impurezas en la punta de wolframio).

El trabajo de Naranjo et al. fue verificado de forma independiente por Jeffrey Geuther, Yaron Danon,  Frank Saglime, “Nuclear Reactions Induced by a Pyroelectric Accelerator,” Physical Review Letters 96: 054803, 2006 [pdf gratis], y por Don Gillich, Andrew Kovanen, Bryan Herman, Travis Fullem, Yaron Danon, “Pyroelectric crystal neutron production in a portable prototype vacuum system,” Nuclear Instruments and Methods in Physics Research A 602: 306–31 (2009); estos artículos obtuvieron un flujo de neutrones menor (quizás porque el cristal piroeléctrico utilizado era más pequeño), y tuvieron algunos problemas de reproducibilidad del experimento (el proceso de calentamiento es clave y su control es difícil). Algo típico en estos experimentos es obtener un flujo de neutrones menor que el predicho por los modelos teóricos, por ejemplo, Donald J. Gillich, Andrew Kovanen, Yaron Danon, “Deuterated target comparison for pyroelectric crystal D–D nuclear fusion experiments,” Journal of Nuclear Materials 405: 181–185, 2010.

La posibilidad de reducir el tamaño de la aguja de wolframio para lograr campos eléctricos más intensos también ha sido estudiada, aunque sin mucho éxito en Donald J. Gillich, Ranganath Teki, Travis Z. Fullema, Andrew Kovanen, Ezekiel Blain, Douglas B. Chrisey, Toh-Ming Lu, Yaron Danon, “Enhanced pyroelectric crystal D—D nuclear fusion using tungsten nanorods,” NanoToday 4: 227-234, 2009 [pdf gratis]; utilizaron nanoagujas (nanorods) de wolframio, pero obtuvieron un flujo de neutrones más pequeño que en el artículo de Nature (menos de 100 neutrones por segundo); estos autores no entienden por qué, pero creen que en el futuro podrá mejorarse este resultado. Estudios teóricos parece que lo reafirman (Birk Reichenbach, I. Solano, and P. R. Schwoebel, “A field evaporation deuterium ion source for neutron generators,” J. Appl. Phys. 103: 094912 (2008) [pdf gratis]). Algunos autores han propuesto substituir la aguja de wolframio por nanoagujas de carbono, como Arun Persaud et al, “Development of a compact neutron source based on field ionization processes,” J. Vac. Sci. Technol. B Microelectron. Nanometer Struct. 29: 02B107, 2011 [arXiv:1010.2252], pero por ahora los logros son parcos.

Me gustaría destacar que hay que tener cuidado a la hora de interpretar los resultados de algunos de estos artículos sobre emisores de neutrones por fusión D+D. Por ejemplo, en V. Tang et al, “Intense Pulsed Neutron Emission from a Compact Pyroelectric Driven Accelerator,” J. Appl. Phys. 105: 026103, 2009 [pdf gratis en LLNL], se afirma haber logrado una producción de diez mil millones de neutrones por segundo, pero hay que leer la letra pequeña, solo durante un tiempo de cientos de nanosegundos (en realidad son unos 40 neutrones por pulso). Como ocurre muchas veces, hay que leer la letra pequeña para descubrir que no es oro todo lo que reluce.

En resumen, los reactores de fusión piroeléctricos son fuentes de neutrones en miniatura que producen flujos débiles de neutrones de alta energía que pueden tener ciertos usos prácticos pero que requieren aún mucha investigación para optimizar su diseño y hacerse un hueco en el mercado.

El vino tinto, el ácido tartárico y la superconductividad en pnicturos basados en hierro

“El año pasado un grupo de físicos japoneses acaparó los titulares al anunciar que podían inducir conductividad en una muestra de teluro de hierro al sumergirlo en vino tinto. Funciona también con otras bebidas alcohólicas pero el mejor sin duda era el vino tinto. La pregunta, por supuesto, es ¿por qué? ¿qué tiene el vino tinto que hace que funcione mejor? Los investigadores al fin han encontrado la respuesta, al menos en parte. Keita Deguchi, del Instituto Nacional para la Investigación de los materiales en Tsukuba, Japon, junto con algunos compañeros, afirman que el ingrediente misterioso es el ácido tartárico y que tienen los datos que demuestran de que desempeña un papel muy importante en el proceso. De los vinos que han probado el mejor es un vino elaborado con uva Gamay. Para los entendidos en vino es un Beajoulais del 2009 de la bodega Paul Beaudet de Francia.” Traducción de mandelbr0t para Menéame de KFC, “Red Wine, Tartaric Acid, and the Secret of Superconductivity,” The Physics arXiv Blog, Mar. 22, 2012. El nuevo artículo es Keita Deguchi, Tohru Okuda, Yasuna Kawasaki, Hiroshi Hara, Satoshi Demura, Tohru Watanabe, Hiroyuki Okazaki, Toshinori Ozaki, Takahide Yamaguchi, Hiroyuki Takeya, Fumie Saito, Masashi Hisamoto, Yoshihiko Takano, “Tartaric acid in red wine as one of the key factors to induce superconductivity in FeTe0.8S0.2,” arXiv:1203.4503; y el artículo del año pasado era K Deguchi, Y Mizuguchi, Y Kawasaki, T Ozaki, S Tsuda, T Yamaguchi, Y Takano, “Alcoholic beverages induce superconductivity in FeTe1-xSx,” arXiv:1008.0666. Permíteme copiar aquí mi comentario en Menéame.

“Tras fabricar el material (FeTe0.8S0.2 tras un proceso de calentamiento a 600 ºC durante 10 horas) se sumerge una pequeña pastilla (pellet) en una botella de 20 ml rellena con el vino (o con otras bebidas alcohólicas), que calientan a 70 °C durante 24 horas. Después sacan la muestra (pellet) de la botella y estudian sus propiedades superconductoras cuando la enfrían a pocos grados sobre el cero absoluto (suben la temperatura desde 2 K hasta unos 10 K para determinar la temperatura crítica a la que deja de ser superconductora). El nuevo artículo ha observado que los vinos que tienen más ácido tartárico logran dotar a la muestra de FeTe0.8S0.2 de una temperatura crítica más grande. Para verificarlo, en lugar de vino han sumergido el material en ácido tartárico y han verificado su hipótesis, pero la temperatura crítica que se observa es menor que la observada con vino tinto, por lo que debe haber otros factores que influyen.”

El primer artículo fue muy popular en la web, por ejemplo, Maikelnai, “De vino y superconductores,” Amazings.es, 13 enero 2011; Miguel acaba magistralmente con un “¡Qué ironía! A algunos superconductores parece sentarles bien el vino, mientras que los conductores no deberían ni probarlo.”

En aquella ocasión, yo hice unas breves aclaraciones, que copio aquí.  “El material utilizado es FeTe0.8S0.2 policristalino, que no es superconductor sin impurezas. Hay que exponerlo a algún tipo de impureza. Basta exponerlo al aire o a agua para volverlo superconductor, pero lo mejor es calentarlo primero. La mejor manera de volver superconductor a este material es calentarlo en una atmósfera de oxígeno a 200 ºC. La temperatura de transición es de 8’5 K y se alcanza una fracción de volumen superconductor de casi el 100%.

Los japoneses (quizás buscando un IgNobel) han expuesto el material a bebidas alcohólicas calentadas a 70 ºC durante 24 horas. Y luego han medido la superconductividad, descubriendo que la temperatura de transición al estado superconductor es casi la misma en todos los casos (entre 7’1 K y 7’8 K), pero el porcentaje de material que logra ser superconductor (del que depende la conductividad eléctrica) es más alto con vino tinto (62’4%), seguido de vino blanco (46’8%), cerveza (37’8%), sake (35’8 %), whisky (34’4 %), shochu (23’1 %), y finalmente etanol mezclado en agua en diferentes proporciones (que solo logra hacer superconductor alrededor del 10 % del material).

Obviamente, el etanol no es el responsable del incremento de la superconductividad, sino otras substancias que se encuentran en las diferentes bebidas. ¿Cuál es la causa? Los autores del estudio creen que la causa es el contenido de oxígeno en la bebida… pero no están seguros. La verdad sea dicha, no creo que se molesten en averiguarlo…”

Por lo que parecen, sí se han molestado en averiguarlo. Y más aún, sin la respuesta definitiva, seguirán trabajando en ello.

“Habrá un nuevo artículo en los próximos meses sobre este mismo tema con una nueva substancia química “responsable” del efecto observado.”

“Las matemáticas de la vida (gracias a la química),” mi conferencia en la Universidad de Sevilla

Hace ya 3 meses impartí la conferencia “Las Matemáticas de la Vida (gracias a la Química)” en la Universidad de Sevilla (que se emitió en directo a través de Amazings, gracias a @Raven_Neo y @maculamorbida, que hicieron posible tanto la emisión como la grabación y edición de esta charla, con medios propios y de forma totalmente desinteresada). “Esta charla se enmarcó dentro del proyecto de innovación docente La divulgación como herramienta de aprendizaje, que los profesores de la asignatura Matemáticas del Grado en Química de la Universidad de Sevilla María del Carmen Calderón Moreno y José Antonio Prado Bassas han llevado a cabo. Este proyecto está financiado gracias al I Plan Propio de Docencia (en su edición 2011/2012) de la Universidad de Sevilla.Y se trata de la segunda conferencia de este ciclo de divulgación, tras la charla El universo matemático de los cuasicristales que el pasado 11 de noviembre nos dio César Tomé, autor del blog Experientia Docet y también colaborador de Amazings.” Más información en “Las matemáticas de la vida (gracias a la química): el vídeo de la charla,” Tito Eliatron Dixit, viernes 23 de marzo de 2012 (y en “Conferencia Amazings: Las Matemáticas de la Vida (gracias a la Química),” Tito Eliatron Dixit, viernes 18 de noviembre de 2011.

El ordenador “cuántico” canadiense de 128 cubits de D-Wave Systems

D-Wave Systems es una empresa que fabrica ordenadores “cuánticos” adiabáticos con 128 cubits y recibe financiación de empresas como Google. Scott Aaronson (profesor del MIT) es el crítico oficial de los logros de este empresa. D-Wave Systems ha publicado artículos en revistas internacionales tan prestigiosas como Nature, pero no ha logrado demostrar que sus ordenadores cuánticos logren el entrelazamiento entre sus cubits, la “prueba del algodón” para todo ordenador cuántico. Scott ha impartido una charla de la AAAS en la Universidad de Columbia Británica y ha aprovechado para visitar (junto a John Preskill, John Martinis y Michael Freedman) los cuarteles centrales de D-Wave Systems. Antes de la visita le invitaron a galletas, pero decidió no tomar ninguna no vaya a ser que estuvieran envenenadas. Ya se sabe que más vale prevenir… Nos relata en su blog su visita “My visit to D-Wave: Beyond the roast-beef sandwich,” Shtel-Optimized,  Feb. 21, 2012. Permíteme un resumen.

Punto #1: D-Wave One es una máquina con 128 (cu)bits que puede aproximar la solución de un problema de minimización NP-duro (el problema de minimizar la energía de un sistema de Ising con entre 90 y 100 espines con interacciones a pares según un grafo programable, la “entrada” de la máquina). Geordie Rose (junto a su máquina a la izquierda), que ganó el premio al Innovador Canadiense del Año 2011, y sus colegas afirman que el recocido cuántico de esta máquina es más rápido que el recocido estimulado clásico, lo que indica que la máquina es efectivamente un ordenador cuántico adiabático (en teoría solo sería más rápido si el ordenador “cuántico” logra entrelazar cubits durante la ejecución del algoritmo). Para Scott este resultado es interesante pero aún no está claro qué significa ya que no se puede asegurar que la coherencia cuántica juegue algún papel en el mismo.

Punto #2. Scott le ha preguntado a Mohammad Amin, líder del artículo de D-Wave del año pasado en Nature que demostraba el efecto túnel en un algoritmo de recocido cuántico con 8 cubits, si tenían algún tipo de prueba experimental de que hubiera entrelazamiento entre estos cubits. Amin le ha confesado que no la tienen (por ahora). La manera más fácil de demostrar el entrelazamiento es demostrar la violación de las desigualdades de Bell; otros grupos de investigación que también usan cubits superconductores lo han logrado, pero Amin confiesa que dicha verificación no es posible con el diseño actual de los ordenadores “cuánticos” que tiene D-Wave.

Punto #3: Este punto es el más interesante, en mi opinión. Scott confiesa que muchos expertos pensaba que D-Wave afirmaba que, aunque su ordenador “cuántico” no presente entrelazamiento entre cubits durante el cómputo (la decoherencia cuántica provoca que sus cubits de desentrelacen antes del inicio del algoritmo), su ordenador cuántico podía resolver problemas asintóticamente más rápido que un ordenador clásico. Sin embargo, Scott ha descubierto que esto no es lo que afirma D-Wave. Ellos creen que su sistema sistema pierde la decoherencia de forma casi inmediata en la base de autoestados de la energía, pero que ellos creen que no la pierde en la base “computacional” (se producen algunos entrelazamientos durante las etapas intermedias del algoritmo). Esta idea es la que subyace a la computación cuántica adabiática y la razón por la que desde D-Wave se cree que tienen un ordenador cuántico. Sin embargo, los expertos son escépticos respecto a que pueda haber decoherencia en la base de la energía sin que la haya en la base de autoestados computacionales (al menos esto nunca ha sido demostrado de forma experimental).

Mientras D-Wave no demuestre que existe entrelazamiento entre los cubits durante la ejecución de su algoritmo todos sus logros seguirán puestos en duda por los expertos. Nadie entiende por qué centra sus esfuerzos en incrementar el número de cubits en lugar de demostrar el entrelazamiento, aunque sea parcial, durante el cálculo. Scott recomienda a D-Wave que se centre en este asunto.

En la web y en la blogosfera mucha gente afirma que no importa si los sistemas de D-Wave funcionan de forma cuántica o no lo hacen, o si utilizan la coherencia cuántica o no, mientras resuelvan problemas prácticos más rápido que un ordenador clásico. La palabra “cuántica” la utilizan para atraer dinero, interés y a jóvenes investigadores. Quién le daría 10 millones de dólares a una empresa para implementar un algoritmo de recocido estimulado que permita simular un sistema de Ising con 90 bits. Según Scott, nadie. Más aún, cuando el ordenador con el que estás leyendo esto puede realizar esa tarea millones de veces más rápido que el ordenador “cuántico” D-Wave One.

En resumen, Scott no ha cambiado de opinión sobre D-Wave tras la visita. Mientras no demuestren que su ordenador es cuántico, su ordenador seguirá siendo “cuántico” y sus logros serán puestos en duda por los expertos (y por quien escribe esto en este blog).

Más información sobre D-Wave Systems en este blog: 26 enero 2008, “Computación cuántica adiabática (o el “primer” ordenador cuántico comercial),” 12 marzo 2008, “Conferencia en la Universidad de Málaga = Orión, el “primer” computador cuántico comercial – Una introducción a la computación cuántica adiabática,” 18 mayo 2009, “Tras Orion, Rainier, un ordenador cuántico adiabático de D-Wave Systems de 128 cubits,” 13 mayo 2011, “Inaudito, D-Wave Systems logra publicar un artículo en Nature,” 6 junio 2011, “Por primera vez en la historia se vende un ordenador cuántico “D-Wave One”.”