El comité STAC recomienda retrasar la inyección de combustible en el ITER hasta 2027

Dibujo20131015 nature news - iter tokamak reactor  - a fusion of ideas

En el año 2010 se esperaba que la inyección del primer combustible nuclear en el mayor tokamak del mundo, ITER, aún en construcción en Cadarache, Francia, sería en el año 2020, tras lo cual se ejecutaría un programa de investigación básica que nos llevaría a la producción neta de energía en 2027. Un comité de expertos ha recomendado que dicha fecha sea retrasada a 2027 y que se ejecute un programa ultrarrápido hacia la fusión que permita que en 2028 haya una producción neta de energía de 500 MW a partir de un consumo de sólo 50 MW, es decir, alcanzar un Q ≥ 10 durante unos pocos segundos en tan solo un año. El comité llamado STAC (ITER’s Science and Technology Advisory Committee) estima que se puede lograr todo ello con un gasto total de 15.000 millones de euros. En mi opinión el comité STAC es muy optimista (a la vista de los problemas financieros y técnicos que ha sufrido el ITER en el último lustro). Nos lo cuenta Declan Butler, «ITER keeps eye on prize. Construction delays force rethink of research programme, but fusion target still on track,» News, Nature, 15 Oct 2013.

En mi opinión, yo no soy experto ni mucho menos, en un solo año pasar del primer plasma tras la inyección de combustible (deuterio+tritio o DT) a la producción neta de energía me parece muy, pero que muy optimista. Pero no hay nada que sea imposible, si no está prohibido por las leyes de la física. El plasma de DT a 150 millones de grados Celsius aún oculta muchos secretos que requieren un programa de investigación básica ejecutado con rigor. No creo que acelerar la producción de energía a toda marcha, para posponer el programa de investigación básica a partir de 2028 sea una buena idea. Pero ojalá me equivoque y todo funcione a las mil maravillas (en fusión, hasta el día de hoy, nunca ha ocurrido).

Lo cierto es que un gran éxito, como sería lograr un Q ≥ 10 durantes unos segundos en 2028 tras la primera inyección de combustible en 2027, abriría un camino de rosas hacia el objetivo final de ITER, lograr un Q ≥ 10 durante entre 300 y 500 segundos, que sea repetible a un ritmo horario. Tras este gran éxito se podría ejecutar el programa de investigación básica que llevará a DEMO, el primer reactor de fusión «comercial» de demostración. Pero la física de los plasmas es muy complicada y el control de la turbulencia del plasma, evitando dañar las paredes de contención del reactor y garantizando la estabilidad necesaria para un producción sostenida de energía, todavía parece casi una utopía. Pero una utopía que los físicos haremos realidad durante la primera mitad del siglo XXI, pongo mi mano en el fuego.

Nuevo avance en la fusión aneutrónica protón-boro

Dibujo20131009 protons-boron nuclei - two laser facility - Nature Comms

La fusión aneutrónica produce neutrones de alta energía, pero muchos menos que la fusión convencional. La colisión de protones con núcleos de boro 11 produce sobre todo radiación alfa (núcleos de helio) de alta energía en lugar de neutrones. A veces se afirma que la fusión aneutrónica está «limpia» de radiación ionizante, pero en realidad lo que ocurre es que contener la radiación alfa requiere un blindaje más delgado. No todo son ventajas. La fusión p11B requiere alcanzar una temperatura del plasma mucho más alta que la fusión D-T (deuterio-tritio), lo que impide su uso en reactores de fusión por confinamiento magnético. Por fortuna, la fusión pulsada en reactores por confinamiento inercial no parece imposible, en principio, siempre que el plasma pB esté fuera del equilibrio. Christine Labaune (LULI, Ecole Polytechnique, CNRS, Francia) y sus colegas han publicado en Nature Communications un nuevo avance en esta tecnología basado en el uso de dos láseres diferentes. Un láser de picosegundos calienta el plasma de protones durante unos picosegundos y lo hace colisionar con un plasma de núcleos de boro previamente calentado por un láser de nanosegundos. Han observado la emisión de radiación alfa, sin presencia apreciable de neutrones de alta energía. Un gran éxito, aunque sólo un pequeño paso hacia la fusión aneutrónica como una realidad comercial. Sobre todo porque la escalabilidad del nuevo sistema es muy difícil y el breakeven puede tardar décadas en ser alcanzado. Nos lo cuenta Ron Cowen, «Two-laser boron fusion lights the way to radiation-free energy,» News, Nature, 8 Oct 2013; el artículo técnico es C. Labaune et al., «Fusion reactions initiated by laser-accelerated particle beams in a laser-produced plasma,» Nature Communications 4: 2506, 8 Oct 2013 (arXiv:1310.2002 [physics.plasm-ph]).

Sigue leyendo

Gran avance en la fusión por confinamiento inercial mediante láser en el NIF

Dibujo20131008 hohlraum - target - inertial conf fusion - nif - llnl - gov

Me enteré el 4 de octubre en San Sebastián/Donostia gracias a tres tuits de Sergio Palacios (@Pr3cog) «No sé cuántos entenderéis esta noticia, pero en la madrugada del pasado sábado el NIF logró por primera vez el scientific breakeven. Eso significa que por primera vez la energía obtenida de la fusión nuclear supera a la energía consumida para generarla. En conclusión: una noticia excelente para quienes aún creemos que los reactores nucleares de fusión serán una realidad en el futuro…» Pido perdón porque no me hice eco de esta gran noticia  ya que estaba liado en el evento Naukas Quantum 2013. Sergio trabaja en la simulación por ordenador de los materiales de contención en los reactores de fusión y tiene información privilegiada. Ahora ya no lo es. Paul Rincon se ha hecho eco de esta noticia en BBC News (tuit de Sergio), «Nuclear fusion milestone passed at US lab,» 7 oct 2013.

Sigue leyendo

El «timo de la margarita» y el catalizador de energía E-Cat HT2 de Rossi

Dibujo20130520 Thermal image of the November test device ECat HT

Se acaba de publicar en ArXiv un artículo que presenta los resultados de tres experimentos con el catalizador de energía E-cat HT de Andrea A. Rossi. El artículo proclama un COP (cociente entre la potencia de salida y la de entrada) de 2,6 ± 0,5 (E-cat HT2, experimento en marzo de 2013) y de 2,9 ± 0,3 (E-cat HT2, exp. en diciembre de 2012). Se trata de un timo. El COP real es menor que la unidad. Si no lo fuera, implicaría una ganancia en energía imposible de explicar mediante reacciones químicas. Ya expliqué en «El secreto está en la (toma de) masa,» Naukas.com, 30 julio 2012, cómo funcionaba E-cat, pero era sólo una hipótesis, pues no tenía pruebas ni posibilidad de realizar los experimentos oportunos. Los autores del nuevo artículo los han hecho por mí y confirman la hipótesis. Fuera de toda duda, se trata de un timo, el «timo de la margarita.» El nuevo artículo técnico es Giuseppe Levi et al., «Indication of anomalous heat energy production in a reactor device containing hydrogen loaded nickel powder,» arXiv:1305.3913, 16 May 2013.

Dibujo20130520 Chart showing emitted power -blue- and consumed power -red- vs time for the ECat HT2

«Me quiere, no me quiere, me quiere, no me quiere, …,» pronuncias en voz alta mientras le quitas los pétalos a una margarita; al final, acabas (casi siempre) con un «me quiere.» ¿Por qué? Porque la mayoría de las margaritas tienen un número impar de pétalos. Lo mismo pasa con el catalizador de energía E-Cat en su nueva versión HT y HT2. Se afirma que la potencia eléctrica es suministrada al reactor mediante pulsos rectangulares (los pulsos en color rojo en la figura). En los experimentos se mide con una cámara infrarroja la emisión de radiación térmica del reactor y se estima la cantidad de energía radiada por la ley de Stefan. El resultado para la potencia emitida es la curva azul. Obviamente, se produce más energía que la suministrada (COP > 1).

Ahora bien, si la hipótesis que yo presenté en Naukas.com es correcta, la potencia pulsada medida está puenteada y en realidad es una potencia continua, no pulsada. Si las curvas rojas fueran continuas, el COP sería menor que la unidad y muchas reacciones químicas podrían explicar la potencia emitida por el reactor. No hay que recurrir a ningún fenómeno físico exótico. Todo se reduce a un timo. El «timo de la margarita.»

Muchos lectores dirán que no tengo pruebas y que mi afirmación sólo indica mi ignorancia. Sin embargo, en el artículo pone que el sistema de la alimentación de potencia eléctrica al reactor es secreto y no fue mostrado a los autores («They were fed by a TRIAC power regulator device which interrupted each phase periodically, in order to modulate power input with an industrial trade secret waveform»). Por ello sólo les dejaron medir la potencia desde fuera, sin acceso a la conexión real que suministraba la potencia. ¿Por qué un generador de pulsos eléctricos cuadrados debe ser considerado un secreto industrial? Cualquiera de mis estudiantes de ingeniería es capaz de diseñar uno. La única explicación, en mi opinión escéptica, es que se utiliza un «truco» (el «puente» que comenté en mi entrada para Naukas.com). Si quienes han realizado las pruebas no han podido medir el suministro directo de potencia eléctrica y se han tenido que creer lo que dice Rossi (que es una inyección pulsada), en mi opinión, es porque no se trata de una inyección pulsada, sino una inyección continua. Más aún, si una inyección continua explica perfectamente el resultado obtenido sin recurrir a física exótica, como físico, no me queda otro remedio que considerar, repito, que estamos ante «el timo de la margarita.»

Por cierto, me apena el artículo de Tommaso Dorigo, «Is Cold Fusion For Real ?!,» A Quantum Diaries Survivor, May 20th 2013. Sugiere que el sistema E-cat HT de Rossi podría funcionar a la vista de los resultados de los experimentos. Siendo Dorigo un físico experimental (en física de partículas, trabaja en CMS, LHC) y siendo su blog muy visitado, me ha dolido que haga comentarios de este tipo. Para un físico debería ser obvio el «timo de la margarita.»

Coda final: En este blog también puedes leer «Mi opinión sobre la fusión fría alcanzada por los italianos Focardi y Rossi,» 19 enero 2011; y «Francis en Amazings.es: E-CAT, el secreto está en la (toma de) masa,» 30 julio 2012. También recomiendo Maikelnai y Francis, «Aunque la LENR se vista de seda, fusión fría se queda…,» Naukas.com, 7 noviembre 2012.

PS (24 mayo 2013): Por lo que parece, la «prueba independiente» del sistema de Rossi no es tal, ya que fue realizada por el propio Rossi, quien prefirió omitir su nombre entre los autores del artículo para que pareciera una «prueba independiente.» Más aún, uno de los firmantes del artículo en ArXiv, Hanno Essén, afirma que su nombre fue incluido en el artículo, pero que él no ha hecho nada en el experimento. Rossi le pagó el viaje para que fuera testigo del experimento. Nada más. Aparece como firmante porque cree que si él mismo hubiera hecho los experimentos habría obtenido los mismos resultados que Rossi y sus prosélitos. Por ello, no le importa aparecer como firmante aunque no haya hecho nada. Andrea Rossi es un timador, fuera de toda duda. Steven B. Krivit, «Rossi Manipulates Academics to Create Illusion of Independent Test,» New Energy Times, May 21, 2013. Otra opinión escéptica en Lubos Motl, «Tommaso Dorigo impressed by a cold fusion paper,» TRF, May 21, 2013.

Fabrican un cañón de anillos de plasma

Dibujo20130502 Open-air plasma device for US Navy weaponry

Imagina que fabricas un cañón que lanza anillos de plasma a través del aire. ¿Para qué piensas que puede servir? Como es obvio, no dirás que estás trabajando en un arma y que te financian los militares para desarrollar un incinerador de misiles en ataque. Piensa un poco, ¿para qué puede servir? ¡Has acertado! Como fuente de generación y almacenamiento de energía, la aplicación civil por excelencia de los plasmas (gracias a los futuros reactores de fusión). ¿Te has perdido? Lo siento. Has sido noticia que investigadores de la Universidad de Missouri han ideado un método de creación y lanzamiento de anillos de plasma a través del aire que afirman que tendrá  grandes repercusiones en la generación y almacenamiento de energía para la industria. Así nos lo cuentan en «Plasma device could revolutionize energy generation and storage (w/ video),» Phys.Org, Apr 16, 2013, y en «New Plasma Device Considered the ‘Holy Grail’ of Energy Generation and Storage,» Pure Energy Blog, April 26, 2013.

Sigue leyendo

Noticias breves de Nature

Dibujo20130220 Parameters of the Kepler-37 stellar system and planets

Dibujo20130220 The transit light curves for the planets orbiting Kepler-37

Hallado el exoplaneta más pequeño (su tamaño está entre el de la Luna y el de Mercurio). Gracias al telescopio espacial Kepler se ha descubierto el exoplaneta Kepler-37b que orbita la estrella Kepler-37, una estrella con un radio 0,770 ± 0,026 radios solares y una masa de 0,802 ± 0,068 masas solares. Los tres planetas Kepler-37b, Kepler-37c y Kepler-37d tienen radios 0,303 0,073 radios terrestres, 0,742 0,083 radios terrestres y 1,99 0,14 radios terrestres, resp., es decir, dos de los tres planetas que orbitan la estrella Kepler-37 son más pequeños que la Tierra, mientras que el tercero es el doble. En el estudio han intervenido investigadores españoles del Centro de Astrobiología (centro del INTA y el CSIC) y del Centro Astronómico Hispano-Alemán (CSIC e Instituto Max Planck). El artículo técnico es Thomas Barclay et al., «A sub-Mercury-sized exoplanet,» Nature AOP 20 Feb 2013. Recomiendo la lectura del artículo divulgativo «Encuentran el exoplaneta más pequeño que se conoce: es menor que Mercurio,» lainformacion.com, 20 Feb 2013, y de Daniel Marín, «Kepler-37b, un planeta más pequeño que Mercurio,» Eureka, Feb. 20, 2013.

Dibujo20130220 total installed capacity - gigawatts - wind-enery capacity

La energía eólica crece un 18% en 2012 respecto a 2011. Tanto EEUU como China han instalado unos 13 gigavatios (GW) de instalaciones de energía eólica, de acuerdo con el GWEC (Global Wind Energy Council). La capacidad total instalada alcanza los 282,4 GW, con China a la cabeza con 75,6 GW, más de un cuarto del total. Obviamente, hay que tomar estos números con cuidado, pues se trata de potencia instalada y muchas instalaciones recientes aún no están conectadas a la red. ore than one-quarter (although not all turbines are connected to the grid). Sólo 5,4 GW (el 2% de la capacidad total) son instalaciones eólicas en el mar (la mayoría en el norte de Europa). Nos lo han contado en «Seven days: 15–21 February 2013,» Nature, Feb 20, 2013.

Dibujo20130220 xenon dark matter detectors in the world

China instala PandaX, un detector de materia oscura a 2500 metros de profundidad. Otro nuevo detector subterráneo de partículas de materia oscura basado en xenón ha sido instalado en China; ya hay tres detectores de este tipo en Italia, EEUU y Japón, ¿realmente es necesario otro más? , PandaX (25 kg Xe) en JinPing (China) aún no ha empezado a tomar datos, pero XENON100 (62 kg Xe) en Gran Sasso (Italia), LUX (350 kg Xe) en Homestake (Dakota, EEUU), y XMASS (835 kg Xe) en el Observatorio Kamioka (Japón) ya los están tomando. Todos tienen planes para su ampliación (hasta toneladas de xenón) en los próximos años. La única ventaja de PandaX es que es el más profundo, luego el más aislado del ruido debido a los rayos cósmicos. ¿Logrará PandaX repetir la hazaña de Daya Bay adelantándose a los demás? Por ahora es pronto para saberlo, pero lo que está claro es que China está apostando fuerte por la investigación básica en física de partículas. Nos lo ha contado Eugenie Samuel Reich, «Dark-matter hunt gets deep. China launches world’s deepest particle-physics experiment — but it joins a crowded field,» Nature 494: 291–292, 21 February 2013.

Dibujo20130220 shale-gas basins in China

China es el país con mayores reservas de gas en esquistos bituminosos (shale-oil). Estados Unidos presumía de tener las mayores reservas del mundo de esquistos bituminosos, pero ahora resulta que China le supera (estimó en marzo de 2012 que sus reservas alcanzan los 25 billones de metros cúbicos). El gas está sustituyendo al carbón como combustible barato para producir energía en China, lo que reducirá sus emisiones de CO2. Julio Friedmann del LLNL (Lawrence Livermore National Laboratory), en California, recuerda que «en Estados Unidos costó 60 años y 200.000 pozos sentar las bases para la revolución de los esquistos bituminosos, sin embargo, China sólo ha perforado 100 pozos y su geología es diferente, por lo que la tecnología de EEUU no es aplicable.» Por ello, hay que ser cauto con estas noticias. Nos lo cuenta Jeff Tollefson, «Geology and infrastructure could impede development,» Nature 494: 294, 21 Feb 2013.

Dibujo20130220 five US fields produce 80 percenrt shale oil in three years

La «revolución del esquito» no es tan bonita como la pintan. Muchos críticos afirman que la producción de gas y petróleo de esquisto está sobrevalorada y que los costos están subestimados. Los estudios más recientes para indicar que los pozos se consumen muy rápido (más del 80% se consume en sólo tres años), luego cualquier estimación de vida útil mayor de varias décadas peca de muy optimista. Para mantener la oferta habrá que perforar nuevos pozos y la tasa de retorno energética caerá de forma estrepitosa (el coste de mantener la producción no se cubre con los beneficios). Según las estimaciones de J. David Hughes (Post arbon Institute, Santa Rosa, California) el pico del petróleo de esquistos se alcanzará alrededor de de 2017 (el del petróleo convencional se supone que se alcanzó en 2005, aunque algunas fuentes aún dudan si se ha superado). Nos lo cuenta J. David Hughes, «Energy: A reality check on the shale revolution,» Nature 494: 307–308, 21 Feb 2013.

El futuro de la fusión nuclear en Corea del Sur

Dibujo20130215 schematic sketch of the proposed K-DEMO fusion facility - South Korea National Fusion Research Institute

Corea del Sur ha aprobado una inversión de mil millones de dólares para el diseño de aquí a 2021 de un reactor nuclear de fusión tipo tokamak, llamado K-DEMO (Korean Demonstration Fusion Power Plant), cuya construcción se debería iniciar en 2022 y debería lograr la fusión por confinamiento magnético en 2036. ¿Por qué tan tarde? Porque el objetivo es aprovechar la experiencia que se adquiera en los primeros años de funcionamiento de ITER (Corea del Sur es miembro del consorcio). El gobierno espera que el proyecto K-DEMO R&D emplee a unas 2400 personas en su primera fase, que durará hasta 2016. En este proyecto colabora el Laboratorio de Física de Plasmas de Princeton (PPPL), Nueva Jersey, del Departamento de Energía de EEUU. Su antiguo director, Robert Goldston, considera que K-DEMO es un proyecto factible (pero la opinión de Goldston está sesgada pues ayudó al diseño inicial del pequeño tokamak experimental que tiene Corea del Sur, llamado K-STAR, por Korea Superconducting Tokamak Advanced Research). Nos lo ha contó Soo Bin Park, «South Korea makes billion-dollar bet on fusion power. Reactor to be built in 2030s represents a step towards commercial use,» Nature News, 21 Jan 2013. Más información sobre K-DEMO en Hyuck Jong Kim et al., «An exploratory study on the gaps and pathways to the Korean fusion DEMO,» Fusion Engineering and Design 87: 757–763, Aug 2012.

La producción fotocatalítica de hidrógeno y las hojas artificiales

El petróleo fue la fuente de energía y el vector energético del siglo XX. Todo apunta a que el hidrógeno será el vector energético del siglo XXI gracias a la energía solar como fuente de energía. Para ello se tendrán que desarrollar sistemas de producción de hidrógeno a gran escala basados en materiales electrocatalíticos y fotoelectrocatalíticos. A partir de haluros de hidrógeno, compuestos HX, se puede generar hidrógeno (H2) por división fotocatalítica; normalmente, X=Cl (cloro) o X=Br (bromo). La reacción química (global) utilizada es 2 HX → H2 + X2, una reacción endotérmica (que necesita de un aporte de energía); para el cloro (X=Cl) se necesita un incremento en la energía libre de Gibbs de ΔG° = 131 kJ/mol y para el bromo (X=Br) ΔG° = 103 kJ/mol. Gracias un fotocatalizador oxidativo [Cat] apropiado se puede utilizar la energía solar como fuente de energía; la producción autosostenida de hidrógeno requiere desarrollar un ciclo cerrado de reacciones químicas. Los avances recientes en este campo han sido muy importantes, destacando los del grupo de investigación del Dr. Nocera en el MIT (Instituto de Tecnología de Massachusetts, Cambridge, EE.UU.). Sin embargo, aún estamos lejos para que estos avances se puedan introducir en la industria de la producción masiva de hidrógeno gracias a la energía solar. Los interesados en más detalles disfrutarán del breve artículo de Thomas S. Teets y Daniel G. Nocera, «Photocatalytic hydrogen production,» Chemical Communications 47: 9268-9274, 06 Jun 2011.

Otra de las líneas más interesantes de trabajo del grupo de Daniel Nocera es el desarrollo de hojas artificiales, reacciones químicas que imitan la fotosíntesis que utilizan las plantas para obtener energía directamente del sol. Lla electrólisis (romper una molécula de agua en hidrógeno y oxígeno) no se puede realizar con células solares fotovoltaicas porque requiere un voltaje más alto del que éstas son capaces de producir. Las hojas artificiales son unos materiales catalíticos que combinan ambas funciones, las de una célula solar y las de un sistema de electrólisis. Las primeras hojas artificiales se desarrollaron en 1998 por John Turner (Laboratorio Nacional de Energías Renovables, Boulder, Colorado), pero utilizaban materiales muy caros y su química era tan compleja que era difícil obtener sistemas estables para producción industrial. El Dr. Nocera y su grupo ha tratado de imitar a las plantas utilizando «ingeniería inversa» y han logrado las primeras hojas artificiales prácticas (baratas y fáciles de fabricar). Una especie de lámina de silicio que introducida en un vaso de agua expuesto al sol empieza a producir burbujas de hidrógenos y oxígeno; no se necesita agua ultrapura lo que permite usar fuentes naturales de agua y pone este dispositivo al alcance de muchas partes del tercer mundo. Nos lo contó Richard A. Lovett, «MIT scientist announces first «practical» artificial leaf,» Nature News Blog, March 28, 2011.

La luz solar es la fuente más abundante y sostenible de energía que dispone la humanidad. La Tierra recibe de la energía solar unos 120 000 TW (terawattios o billones de wattios), de los que unos 170 W por metro cuadrado llegan al año a la superficie de la Tierra (el número varía dependiendo de la ubicación geográfica). Aprovechar toda esta energía requiere el desarrollo de dispositivos de alta eficiencia similares a los utilizados por los organismos vivos fotosintéticos, que gracias a la mecánica cuántica alcanzan un porcentaje de fotones absorbidos de casi el 100% en condiciones óptimas, pero esto no implica que su eficiencia total sea del 100%. Se estima que las leyes de la termodinámica implican una reducción de la eficiencia a ~ 50%. Para un sistema fotovoltaico artificial se aplica el llamado límite de Shockley-Queisser de ~ 24% (en lugar del 100%),  lo que reduce la eficiencia de producción teórica a solo un ~ 12%.

Comparar la eficiencia de un sistema fotosintético con uno fotovoltaico no es fácil. Ambos procesos recogen la energía de la luz solar, pero funcionan de forma diferente y producen diferentes tipos de productos: fotosíntesis natural produce biomasa y productos químicos, mientras que un sistema fotovoltaico produce una corriente eléctrica. Una posibilidad para comparar ambos sistemas es la generación de hidrógeno (en el caso fotovoltaico mediante electrólisis del agua). El resultado muestra que la fotosíntesis es entre 2 y 3 veces más eficientes que los sistemas fotovoltaicos. Por ello, en la actualidad hay un gran interés en la investigación en la fotosíntesis artificial y en el diseño mediante biología sintética de hojas artificiales. Nos lo contó Robert E. Blankenship et al, «Comparing Photosynthetic and Photovoltaic Efficiencies and Recognizing the Potential for Improvement,» Science 332: 805-809, 13 May 2011.

Repsol YPF, Vaca Muerta y el segundo principio de la termodinámica

Producción de petróleo en Argentina, 1911-2011. Fuente Instituto Argentino del Petróleo y Gas.

«Toda actividad económica depende de que haya energía disponible. Existe una conocida relación entre crecimiento económico y consumo de energía: son curvas calcadas. La curva de Hubbert (1957) nos recuerda que el petróleo no se acaba nunca, sino que cada vez se hace más difícil de extraer: como un tubo de dentífrico vaciándose, siempre le queda algo más, pero al final el esfuerzo por extraer una ínfima cantidad de pasta, ya no vale el intento. Hubbert predijo el pico mundial de producción de petróleo para 1995. Pasado ese año la producción seguía en aumento y muchos afirmaron que la teoría del pico de Hubbert o peak oil no podía aplicarse a escala mundial. Pero en 2010, la Agencia Internacional de Energía reconoció que en 2006 se produjo un pico en la producción mundial y desde entonces se ha producido un declive suave. Nuestra época es adicta y dependiente de la energía. Con el petróleo, nos hemos acostumbrado a obtenerla demasiado fácilmente.» Nos lo recuerda desde Argentina NDH, «YPF: es la termodinámica, estúpido,» Derecho a leer, 26 abril 2012. Recomiendo la lectura de su extenso artículo del que me permito extraer unos retazos.

«Una economía que crece a un 3% anual, se duplica al cabo de 23 años y medio, es decir, si hoy consume 100 unidades de energía por año, en dos décadas consumirá 200 y en otras dos, 400. Mientras estemos dentro de la fase ascendente de la curva de Hubbert, el incremento de la producción del petróleo puede acompañar la demanda y no hay problemas de escasez. Pero pasado el cenit, la curva de producción no sólo se desacopla bruscamente de la de crecimiento, sino que pronto cae en picada. Por más inversiones que se hagan, no se puede revertir la tendencia decreciente. Llegado este punto, el problema más urgente es el ritmo de producción, la mitad que aún sigue disponible en los yacimientos no se puede extraer al ritmo que necesita la economía. Es el problema del tubo dentífrico, cada vez cuesta más sacar menos. Argentina llegó a su cenit en 1999, sólo que su propia demanda de energía era tan inferior a su capacidad de producción, que podía exportar alrededor de la mitad de lo que producía. Durante la primera década del nuevo milenio Argentina fue exportando cada vez menos, hasta, que en 2011 ya era importador neto de gas natural.»

«El salvavidas enérgetico ahora se llama «hidrocarburos no convencionales». Imagine una piedra sólida, pero con algunas burbujas microscópicas de gas atrapado en su interior, en la profundidad de la tierra. En comparación con el crudo que brotaba espontáneamente, los no convencionales son como la técnica avanzada para sacar lo último del tubo de dentífrico que creíamos vacío. El petróleo no se ha agotado y está lejos de hacerlo —quedan enormes reservas ¡el 50% o más!— pero todos los pozos extrayendo a todo ritmo no alcanzan para cubrir la demanda. Se empieza a tratar de sacar hidrocarburos desde donde no hay. La única solución que la tecnología presente ha podido brindar en forma efectiva. Sin embargo, no puede pasarse por encima de los límites de la termodinámica y aparece la pardoja: Obtener energía implica un consumo de energía, la tasa de retorno energético. A principios de siglo el petróleo era tan fácil de extraer que sólo con la energía de un barril se extaían otros 100. A finales de siglo pasado, se obtenían solamente 10. Esta disminución refleja la mayor dificultad para extraer el crudo a medida que las reservas disminuyen. Una baja tasa de retorno energético indica la inviabilidad del recurso como solución. En el caso de los no convencionales, por cada unidad de energía utilizada para la extracción, tan sólo se extraen entre 2 y 5. ¿Realmente la energía necesaria para partir una piedra en mil pedazos, es menor que la que proporcionarán las burbujas microscópicas de gas en su interior?»

«Vaca Muerta es el sugerente nombre del yacimiento descubierto por Repsol/YPF en 2011. Gran promesa energética para Argentina, es una de las causas centrales que llevaron al gobierno a decidirse por la nacionalización de las acciones de Repsol. Se calcula que su valor potencial asciende a más de 100.000 millones de dólares. Sin embargo, Repsol ha dejado trascender una pretensión de apenas 10.000 millones. ¿Por qué tan poco interés ante una perspectiva tan prometedora? Vaca Muerta es un yacimiento no convencional o sea, como tratar de sacar gas de las piedras. La explotación se justifica mientras los precios sean estratosféricos. Su explotación es viable sólo por los altos precios del petróleo actuales. El agotamiento de los combustibles fósiles y el impacto que implica para el sistema actual, a saber, la ausencia de una fuente de energía barata, abundante y fácil de obtener, es un desafío inédito que no tendrán que enfrentar nuestros nietos o hijos, lo tendremos que enfrentar nosotros mismos dentro de muy poco tiempo —excepto que ocurra algún milagro en el medio. Nuestros gobernantes y especialistas en temas energéticos, más al tanto de las implicancias de la escasez, aún siguen en la etapa negación

Georgescu-Roegen realizó el siguiente símil. Considera un reloj de arena, un sistema cerrado en el que no entra ni sale arena. La cantidad de arena en el reloj es constante; la arena ni se crea ni se destruye en ese reloj. Esta es la analogía de la primera ley de la termodinámica: no hay creación ni destrucción de la materia-energía. Aunque la cantidad de arena en el reloj es constante, su distribución cualitativa está constantemente cambiando: la cavidad inferior se va llenando, mientras la cavidad superior se vacía. Esta es la analogía de la segunda ley de la termodinámica, en la que la entropía (que es la arena de la cavidad inferior) aumenta constantemente. La arena de la cavidad superior (la baja entropía) es capaz de hacer un trabajo mientras cae, como el agua en la parte superior de una catarata. La arena en la cavidad inferior (alta entropía) ha agotado su capacidad de realizar un trabajo. El reloj de arena no puede darse la vuelta: la energía gastada no puede reciclarse, a menos que se emplee más energía en ese reciclaje que la que será desarrollada por la cantidad reciclada. Como se ha explicado antes, tenemos dos fuentes del recurso esencial natural, el solar y el terrestre, y nuestra dependencia ha cambiado de la primera a la segunda. En «For the Greater Common Good» Herman Daly y John Cobb Jr. Beacon Press, 1989. Fuente. Recomiendo también este cuento de Asimov sobre la entropía

El estado actual de la fusión aneutrónica, la tercera vía a la fusión nuclear

Hay una alternativa a la fusión nuclear, la panacea energética del siglo XXI, que no requiere gastar miles de millones de euros de los contribuyentes. Eric J. Lerner y su equipo de la empresa Lawrenceville Plasma Physics, Inc., están explorando una tercera vía para la fusión nuclear, la fusión aneutrónica basada en plasmoides, que pretende la fusión de protones e iones de boro-11, resultando helio-3 y energía a espuertas. La fusión aneutrónica no está libre de neutrones, pero requiere que la emisión de neutrones al producir cierta cantidad de energía sea inferior al 1% de la emisión correspondiente a la fusión convencional. El último artículo de Lerner se ha publicado en la revista Physics of Plasmas de la AIP y afirman que han logrado la fusión pulsada confinada en un plasmoide de iones de deuterio (sí, la fusión D+D con emisión de neutrones); durante unos 7-30 nanosegundos han logrado una producción de 0,15 billones de neutrones en el núcleo de un plasmoide de 0,3-0,5 mm de radio y una densidad de ∼3 × 1019 cm−3. Según Lerner y sus coautores se ha logrado dar un gran paso hacia la fusión aneutrónica (aunque en mi opinión de inexperto aún queda bastante lejana). El artículo técnico es Eric J. Lerner, S. Krupakar Murali, Derek Shannon, Aaron M. Blake, and Fred Van Roessel, «Fusion reactions from >150 keV ions in a dense plasma focus plasmoid,» Phys. Plasmas 19: 032704, 23 March 2012 [pdf gratis]. Para quien no lo sepa, Phys. Plasmas es la revista con mayor índice de impacto dedicada en exclusiva a la física de plasmas, como nos recuerda Derek Shannon, «Acceptance to Physics of Plasmas confirms LPP is hot!,» LPP Inc., Feb. 27, 2012. Un avance previo de Lerner fue objeto de una entrada de César @EDocet, «Una tercera vía a la fusión nuclear: la fusión aneutrónica,» Experientia Docet, 24 oct. 2009, que por cierto llegó a portada en Menéame.

Lo primero, Eric J. Lerner está considerado un crackpot, un científico cuyas ideas parecen locuras, desde que escribió en 1991 un libro de divulgación afirmando que el Big Bang nunca ocurrió («The Big Bang Never Happened«). No sé si 20 años más tarde seguirá opinando lo mismo, tras la confirmación de la teoría del Big Bang obtenida por WMAP-7, pero muchos físicos al oir el nombre de Lerner piensan de forma automática en la palabra crackpot. Pero bueno, esto es solo prensa rosa.

Como nos contó César: «La máquina de Lerner se llama dispositivo de fusión por concentración de plasma denso. Funciona almacenando carga en condensadores y descargando después la electricidad acumulada rápidamente a través de electrodos introducidos en un gas que se mantiene a baja presión. Los electrodos están dispuestos como un ánodo (cargado positivamente) en el centro, rodeado de cátodos (cargados negativamente) más pequeños. Cuando los condensadores se descargan, los electrones fluyen a través del gas, “golpeando” los electrones de los átomos del gas y arrancándolos de éstos, transformando de esta manera el gas en un plasma. Comprimiendo este plasma usando campos electromagnéticos, Lerner y sus colegas han creado un plasmoide, que es una pequeña burbuja de plasma que se puede hacer que esté lo suficientemente caliente como para iniciar ciertas formas de fusión. Según la teoría, los núcleos en el plasmoide se moverían tan rápido que cuando chocan entre sí vencerían la repulsión electrostática mutua y se fusionarían. (…) Lerner [propone] golpear átomos de boro con protones (los núcleos de los átomos de hidrógeno) hasta romperlos en tres núcleos de helio (p + 11B -> 3 4He) liberando en el proceso una enorme cantidad de energía. Este proceso se conoce, perversamente, como fusión aneutrónica.»

En 2009, Lerner y su equipo aún no habían logrado demostrar la fusión aneutrónica («sus plasmoides no eran lo suficientemente calientes como para sustentar una fusión aneutrónica»). En 2012 tampoco la han logrado, aunque según ellos han dado un paso importante hacia su objetivo. Sus estimaciones teóricas indican que la lograrán cuando logren descargar un corriente pico de más de 2 MA (millones de amperios) sobre un plasmoide adecuado; en su artículo en Physics of Plasmas afirman haber alcanzado corrientes pico entre 0,9-1,1 MA, aunque sobre un plasmoide de deuterio (que es menos pesado que el boro). La idea clave de Lerner y su equipo es confinar el plasma utilizando energía magnética en lugar de energía térmica; con 1 MA (mega-amperio) afirman haber alcanzado 80 MG (mega-gauss) y una densidad de energía magnética de 3×1014 erg/cm³, unas 15 veces mayor que la densidad de energía térmica alcanzada en su experimento, de solo 2×1013 erg/cm³. Como el plasmoide es muy pequeño, esta densidad de energía térmica implica una temperatura muy grande, de unos 1800 millones de grados (Eric J. Lerner, «Record confinement of 1.8 billion-degree plasma published in peer reviewed journal,» LPP Inc., March 23, 2012). En opinión de Lerner, esta densidad de energía magnética es suficiente para lograr la fusión aneutrónica, pero por ahora solo están estudiando la fusión D+D. En sus propias palabras «The conditions obtained in these experiments with deuterium are of interest for aneutronic fusion, such as pB11. Theoretical work has shown that there are effects at high magnetic fields that can reduce x-ray Bremsstrahlung with pB11 plasma. Simulation has also indicated promise that fusion power may at times exceed x-ray emission. We intend to test this soon.»

Habrá que esperar a ver cómo evoluciona este campo. Como ya sabéis los lectores habituales, yo soy bastante escéptico respecto a esta vía para la fusión. Espero equivocarme.