Nueva técnica de fabricación de nanopartículas de composición variable

Dibujo20130523 Multicomposition nanostructures - mechanism change composition oxide nanocrystals

María Ibáñez y Andreu Cabot, del Departament d’Electrònica, Univ. Barcelona, ​​España, nos cuentan en Science que se ha desarrollado una nueva técnica para fabricar nanopartículas utilizando nanocristales como molde que permite cambiar la composición de una manera controlado hasta extremos que hace poco parecían imposibles. La nueva técnica de fabricación tiene muchas aplicaciones potenciales, desde en electrónica hasta en catálisis química o en biotecnología. En su artículo Maria Ibáñez, Andreu Cabot, “All Change for Nanocrystals,” Science 340: 935-936, 24 May 2013, se hacen eco de Myoung Hwan Oh et al., “Galvanic Replacement Reactions in Metal Oxide Nanocrystals,” Science 340: 964-968, 24 May 2013.

Sigue leyendo

Por qué las medidas cuánticas débiles no son medidas

Una medida débil de un sistema cuántico, ¿ofrece información física sobre dicho sistema cuántico? Una (función de) distribución de probabilidad de una magnitud física debe ser una función que tenga un valor entre cero y uno. Las medidas débiles equivalen a utilizar “distribuciones de probabilidad” de magnitudes físicas cuyos valores son números complejos, cuyo módulo, ni siquiera, tiene que estar entre cero y uno. Por tanto, se obtienen resultados sin sentido cuya interpretación física es casi imposible. Imagina que mides el espín de un electrón y el valor débil que obtienes es 100, ¿qué significado tiene un valor del espín igual a 100 para un electrón cuyo espín sólo puede tomar los valores +1/2 y −1/2? Otro ejemplo, una magnitud cuyo valor está entre 1 y 2 puede tener un valor débil de −100, ¿qué significado tiene un valor negativo para una magnitud que siempre es positiva? Las medidas débiles, ahora muy de moda en mecánica cuántica, no son medidas y la interpretación física de los valores que se obtienen con ellas no es nada fácil. Me ha gustado el artículo de D. Sokolovski, “Are the ‘weak measurements’ really measurements?,” Quanta 2: 50-57 (2013) [arXiv:1305.4809], que retoma la escabrosa cuestión que ya se publicó en el famoso artículo de Yakir Aharonov, David Z. Albert, and Lev Vaidman, “How the result of a measurement of a component of the spin of a spin-1/2 particle can turn out to be 100,” Phys. Rev. Lett. 60: 1351-1354 (1988)Por cierto, ya hablé de este asunto en mi blog en “Las medidas cuánticas débiles y las probabilidades cuánticas negativas,” 5 agosto 2011.

¿Qué es una medida cuántica? El valor medio de la medida de un observable A en un sistema cuántico que está en el estado |ψ> es igual a <A>=<ψ|A|ψ>/<ψ|ψ>. Este valor medio se calcula promediando los resultados de muchas medidas independientes en sistemas preparados de forma idéntica, pues en cada medida se obtiene un autovalor An con una probabilidad <ψnn>, donde A|ψn>=Ann>, y el estado del sistema cambia de |ψ> a |ψn>. Este proyección del estado es imposible de evitar en una medida cuántica.

¿Qué es una medida cuántica débil? En una medida débil se consideran dos estados del sistema cuántico, sean |ψ> y |φ>, antes y después de la medida. El valor medio débil se obtiene como <<A>>=<φ|A|ψ>/<φ|ψ>. Una medida cuántica siempre proyecta el estado del sistema desde |ψ> a |ψn>, sin embargo, una medida cuántica débil se puede realizar sin proyectar el estado del sistema, con lo que el estado antes de la medida débil y después de ella puede ser casi exactamente el mismo. El problema con el valor <<A>>, a diferencia del valor <A>, es que está poco restringido y puede tomar valores sin sentido físico.

¿Qué ventaja tienen las medidas cuánticas débiles? Que permiten “medir” cosas que son imposibles de medir con medidas cuánticas, como, por ejemplo, la función de onda de un sistema cuántico, o controlar detalles del sistema cuántico más allá de lo posible, como retrasar el efecto de la decoherencia cuántica. Las medidas débiles reabren debates metafísicos como si es real la función de onda cuántica (en el sentido más filosófico del término “real”).

Nuevo evento Naukas en Bilbao: “El universo en un día”

Dibujo20130524 universo en un dia - naukas - 25 mayo 2013 - bilbao

El cartel creado por Alejandro Polanco (@Alpoma) es espectacular, pero más lo van a ser todas las charlas de 25 minutos que mañana 25 de mayo podrás disfrutar en el Paraninfo de la Universidad del País Vasco en Bilbao. Un viaje apasionante desde los primeros instantes del universo hasta sus posibles finales, que disfrutarás sin lugar a dudas.

La entrada, como de costumbre, será gratuita hasta completar el aforo.

SÁBADO 25 DE MAYO 2013

10:00 – El Big Bang – Miguel Santander (Astrofísico y escritor de ciencia ficción)

10:30 – Las primeras galaxias – Javier Armentia (Astrofísico y director del Pamplonetario)

11:00 – La vida de las estrellas – Natalia Ruiz (Divulgadora científica)

12:00 – Formación del sistema solar – Ricardo Hueso (Profesor en la ETS de Ingeniería y miembro del Grupo de Ciencias Planetarias de la UPV/EHU)

12:30 – El nacimiento de la Tierra – César Tomé (Divulgador científico)

El origen de la vida – Carlos Briones (Científico del CSIC en el Laboratorio de Evolución Molecular del Centro de Astrobiología CAB-INTA)

17:00 – La evolución – Antonio Osuna “Biotay” (Divulgador científico)

17:30 – Vida y diversidad – Carlos Chordá (Divulgador científico)

18:00 – Los inicios del hombre – Pepe Cervera (Paleontólogo y divulgador científico)

19:00 – Cultura y evolución humana – Juan Ignacio Pérez (Catedrático de Cultura científica UPV/EHU)

19:30 – El futuro de la Humanidad, de figurante a guionista del universo – Gouki (Divulgador científico y transhumanista)

20:00 – El final del Universo – Aitor Bergara (Profesor de Física de la Universidad del País Vasco y miembro del Centro de Física de Materiales – CSIC-UPV)

Habrá streaming en directo del evento en EITB.com. Sigue este enlace.

En Twitter el hastag para mañana será #Naukas24h (todos esperamos que sea TT).

El telescopio Hubble pierde, la teoría de discos de acreción gana

Science Magazine

Hay experimentos que contradicen las teorías en boga. Descubrir un error en dichos experimentos reafirma dichas teorías y permite que muchos físicos respiren con alivio. El telescopio espacial Hubble midió la distancia a la estrella binaria SS Cygni y resultó ser mucho más grande de lo esperado. O bien la teoría de los discos de acreción era incorrecta, o bien Hubble había medido mal la distancia. Miller-Jones et al. publican en Science una nueva medida de la distancia a SS Cygni utilizando radiotelescopios que contradice a Hubble y confirma las predicciones de las teorías de los discos de acreción en binarias. ¡Menos mal! Se han utilizado VLBA (Very Long Baseline Array) y EVN (European VLBI Network) entre abril de 2010 y octubre de 2012. Nos lo cuenta M. R. Schreiber, “One Good Measure,” Science 340: 932-933, 24 May 2013, que se hace eco del artículo técnico de J. C. A. Miller-Jones et al., “An Accurate Geometric Distance to the Compact Binary SS Cygni Vindicates Accretion Disc Theory,” Science 340: 950-952, 24 May 2013.

Sigue leyendo

El artículo físico más corto de la historia

Dibujo20130522 the ratio proton electron masses - paper physical review 1951

Hasta donde yo sé, el artículo de física más corto de la historia es Friedrich Lenz, “The Ratio of Proton and Electron Masses,” Phys. Rev. 82, 554–554 (1951). Para ver mejor lo corto que es, hay que contemplar la página entera en la que apareció.

Dibujo20130522 complete page - the ratio proton electron masses - paper physical review 1951

Por cierto, por si alguien se lo pregunta. El valor actual (Particle Data Group) de la masa del protón es 1,00727646681 u, el de la masa del electrón es 0,00054857990946 u, con lo que el cociente entre ambos es 1836,153 que difiere de 6*pi^5 = 1836,118.

Carnaval Matemáticas: El artículo matemático más corto de la historia

Dibujo20130521 counterexample to euler s conjecture on sums of like powers

Este artículo matemático con un solo párrafo, una sola referencia bibliográfica, título, autores y afiliaciones, podría ser el artículo matemático más corto (L. J. Lander and T. R. Parkin, “Counterexample to Euler’s conjecture on sums of like powers,” Bull. Amer. Math. Soc. 72: 1079, 1966), pero existen otros aún más cortos (dependiendo de la definición de longitud que decidamos tomar). El más parco en palabras (sólo dos palabras) es el siguiente.

Dibujo20130521 can n2plus1 unit equilateral triangles cover an equilateral triangle

Dicen que decía Paul Erdös que “un matemático es una máquina de convertir café en teoremas” (en realidad lo decía su amigo Alfred Rényi; gracias @ClaraGrima por recordarlo). Alexander Soifer decidió retar a sus colegas en Princeton, durante la hora del café, a resolver el siguiente problema: ¿cuál es el mínimo número de triángulos equiláteros necesarios para recubrir un triángulo equilátero de lado n+ε? John H. Conway tenía que volar en avión a una conferencia y durante el trayecto descubrió una solución con n²+2 triángulos. Tras retornar, a la hora del café, Conway compartió su descubrimiento con Soifer. Mientras viajaba en avión a otra conferencia, Soifer logró construir una demostración gráfica a partir de la solución de Conway. A su regreso decidieron escribir un artículo conjunto. Conway quiso que su artículo fuera el récord absoluto en el número mínimo de palabras. Por ello, su artículo sólo tendría dos palabras “n²+2 can” y dos figuras (con la demostración gráfica). Nada más y nada menos. Lo enviaron el 28 de abril de 2004 a la revista American Mathematical Monthly, exactamente como aparece en la figura de arriba.

El 30 de abril, la asistente del editor, Mrs. Margaret Combs, les indicó que, por favor, añadieran alguna frase al texto explicando su artículo.

The Monthly publishes exposition of mathematics at many levels, and it contains articles both long and short. Your article, however, is a bit too short to be a good Monthly article. . . A line or two of explanation would really help.

Conway envió una carta el editor principal protestando y preguntando si “¿existe alguna relación entre la cantidad y calidad?”

I respectfully disagree that a short paper in general—and this paper in particular—merely due to its size must be “a bit too short to be a good Monthly article.” Is there a connection between quantity and quality?. . . We have posed a fine (in our opinion) open problem and reported two distinct “behold-style” proofs of our advance on this problem. What else is there to explain?

Conway era muy famoso y quizás por ello Bruce Palka, el editor principal, decidió proponerle lo siguiente el 4 de mayo de 2004:

The Monthly publishes two types of papers: “articles,” (…) from about six to twenty-five pages, and “notes,” which are shorter, (…) typically in the one-to-five page range. (…) The standard way in which we use such short papers these days is as “boxed filler” on pages that would otherwise contain a lot of the blank space that publishers abhor. . . If you’d allow us to use your paper in that way, I’d be happy to publish it.

Conway respondió que aceptaba que su artículo apareciera rellenado una de las páginas blancas entre artículos. El artículo apareció en el número de enero de 2005 de dicha revista, aunque el editor les cambió el título (J.H. Conway, A. Soifer, “Covering a triangle with triangles,” American Mathematical Monthly 112: 78-78, Jan. 2005).

Nos cuenta la historia con más detalles el propio Alexander Soifer, “Building a Bridge III: from Problems of Mathematical Olympiads to Open Problems of Mathematics,” Mathematics Competitions 23: 27-38, 2010.

Coda final: Esta entrada participa en la Edición 4.1231 del Carnaval de Matemáticas cuyo anfitrión es Matemáticas Interactivas y Manipulativas.

El “timo de la margarita” y el catalizador de energía E-Cat HT2 de Rossi

Dibujo20130520 Thermal image of the November test device ECat HT

Se acaba de publicar en ArXiv un artículo que presenta los resultados de tres experimentos con el catalizador de energía E-cat HT de Andrea A. Rossi. El artículo proclama un COP (cociente entre la potencia de salida y la de entrada) de 2,6 ± 0,5 (E-cat HT2, experimento en marzo de 2013) y de 2,9 ± 0,3 (E-cat HT2, exp. en diciembre de 2012). Se trata de un timo. El COP real es menor que la unidad. Si no lo fuera, implicaría una ganancia en energía imposible de explicar mediante reacciones químicas. Ya expliqué en “El secreto está en la (toma de) masa,” Naukas.com, 30 julio 2012, cómo funcionaba E-cat, pero era sólo una hipótesis, pues no tenía pruebas ni posibilidad de realizar los experimentos oportunos. Los autores del nuevo artículo los han hecho por mí y confirman la hipótesis. Fuera de toda duda, se trata de un timo, el “timo de la margarita.” El nuevo artículo técnico es Giuseppe Levi et al., “Indication of anomalous heat energy production in a reactor device containing hydrogen loaded nickel powder,” arXiv:1305.3913, 16 May 2013.

Dibujo20130520 Chart showing emitted power -blue- and consumed power -red- vs time for the ECat HT2

“Me quiere, no me quiere, me quiere, no me quiere, …,” pronuncias en voz alta mientras le quitas los pétalos a una margarita; al final, acabas (casi siempre) con un “me quiere.” ¿Por qué? Porque la mayoría de las margaritas tienen un número impar de pétalos. Lo mismo pasa con el catalizador de energía E-Cat en su nueva versión HT y HT2. Se afirma que la potencia eléctrica es suministrada al reactor mediante pulsos rectangulares (los pulsos en color rojo en la figura). En los experimentos se mide con una cámara infrarroja la emisión de radiación térmica del reactor y se estima la cantidad de energía radiada por la ley de Stefan. El resultado para la potencia emitida es la curva azul. Obviamente, se produce más energía que la suministrada (COP > 1).

Ahora bien, si la hipótesis que yo presenté en Naukas.com es correcta, la potencia pulsada medida está puenteada y en realidad es una potencia continua, no pulsada. Si las curvas rojas fueran continuas, el COP sería menor que la unidad y muchas reacciones químicas podrían explicar la potencia emitida por el reactor. No hay que recurrir a ningún fenómeno físico exótico. Todo se reduce a un timo. El “timo de la margarita.”

Muchos lectores dirán que no tengo pruebas y que mi afirmación sólo indica mi ignorancia. Sin embargo, en el artículo pone que el sistema de la alimentación de potencia eléctrica al reactor es secreto y no fue mostrado a los autores (“They were fed by a TRIAC power regulator device which interrupted each phase periodically, in order to modulate power input with an industrial trade secret waveform”). Por ello sólo les dejaron medir la potencia desde fuera, sin acceso a la conexión real que suministraba la potencia. ¿Por qué un generador de pulsos eléctricos cuadrados debe ser considerado un secreto industrial? Cualquiera de mis estudiantes de ingeniería es capaz de diseñar uno. La única explicación, en mi opinión escéptica, es que se utiliza un “truco” (el “puente” que comenté en mi entrada para Naukas.com). Si quienes han realizado las pruebas no han podido medir el suministro directo de potencia eléctrica y se han tenido que creer lo que dice Rossi (que es una inyección pulsada), en mi opinión, es porque no se trata de una inyección pulsada, sino una inyección continua. Más aún, si una inyección continua explica perfectamente el resultado obtenido sin recurrir a física exótica, como físico, no me queda otro remedio que considerar, repito, que estamos ante “el timo de la margarita.”

Por cierto, me apena el artículo de Tommaso Dorigo, “Is Cold Fusion For Real ?!,” A Quantum Diaries Survivor, May 20th 2013. Sugiere que el sistema E-cat HT de Rossi podría funcionar a la vista de los resultados de los experimentos. Siendo Dorigo un físico experimental (en física de partículas, trabaja en CMS, LHC) y siendo su blog muy visitado, me ha dolido que haga comentarios de este tipo. Para un físico debería ser obvio el “timo de la margarita.”

Coda final: En este blog también puedes leer “Mi opinión sobre la fusión fría alcanzada por los italianos Focardi y Rossi,” 19 enero 2011; y “Francis en Amazings.es: E-CAT, el secreto está en la (toma de) masa,” 30 julio 2012. También recomiendo Maikelnai y Francis, “Aunque la LENR se vista de seda, fusión fría se queda…,” Naukas.com, 7 noviembre 2012.

PS (24 mayo 2013): Por lo que parece, la “prueba independiente” del sistema de Rossi no es tal, ya que fue realizada por el propio Rossi, quien prefirió omitir su nombre entre los autores del artículo para que pareciera una “prueba independiente.” Más aún, uno de los firmantes del artículo en ArXiv, Hanno Essén, afirma que su nombre fue incluido en el artículo, pero que él no ha hecho nada en el experimento. Rossi le pagó el viaje para que fuera testigo del experimento. Nada más. Aparece como firmante porque cree que si él mismo hubiera hecho los experimentos habría obtenido los mismos resultados que Rossi y sus prosélitos. Por ello, no le importa aparecer como firmante aunque no haya hecho nada. Andrea Rossi es un timador, fuera de toda duda. Steven B. Krivit, “Rossi Manipulates Academics to Create Illusion of Independent Test,” New Energy Times, May 21, 2013. Otra opinión escéptica en Lubos Motl, “Tommaso Dorigo impressed by a cold fusion paper,” TRF, May 21, 2013.

Francis en Trending Ciencia: La física cuántica de la fotosíntesis

Dibujo20130519 Quantum Secrets of Photosynthesis Revealed

Sigue este enlace si quieres escuchar mi nuevo podcast en Trending Ciencia, que contesta una pregunta/petición formulada por Ces. Como siempre una transcripción del audio.

He elegido como tema para mi nuevo podcast sobre física la respuesta a una pregunta que me ha hecho uno de los lectores de mi blog, Ces, sobre la fotosíntesis y la física cuántica. Ces ha leído que la tasa de conversión de fotones en electrones en la clorofila alcanza el 90% gracias a la física cuántica. En realidad se trata de un mito. Igual que es falso que sólo usemos el 10% de nuestro cerebro, también es falso que la fotosíntesis tenga una eficiencia de más del 90%. La eficiencia máxima de la fotosíntesis como proceso bioquímico que produce biomasa a partir de radiación solar tiene una eficiencia máxima que ronda el 10%. Si sólo tenemos en cuenta los procesos que ocurren en las moléculas de clorofila, la eficiencia de la conversión de la energía de los fotones incidentes en el proceso de transferencia de electrones tiene una eficiencia que ronda el 50%. La eficiencia de más del 90% se refiere al proceso llamado “hopping” por el cual el fotón incidente en una molécula de clorofila produce una onda de tipo excitón que se mueve de forma sucesiva por varias moléculas de clorofila hasta alcanzar la molécula de clorofila “P” que realiza la transferencia de un electrón entre dos moléculas, una dadora de electrones y otra aceptora de electrones. Permíteme que explique todo esto en más detalle.

Dibujo20130519 The distributions of energy density of solar spectrum

La luz del Sol que es activa para la fotosíntesis es la que se encuentra en la banda entre 400 y 700 nm; recuerda que la luz con 400 nm tiene color azul y que la luz con 700 nm tiene color rojo. Como la clorofila absorbe mal en el centro de esta banda, los colores verdes, las hojas de los árboles son verdes (en lugar de negras). Se estima que como mínimos el 5% (y en muchos casos hasta el 10%) de la luz solar en la banda de 400 a 700 nm que incide sobre las hojas de las plantas se refleja y por tanto no es útil para la fotosíntesis.

Los fotones que inciden sobre la molécula de clorofila provocan su transición energética a un estado excitado, cuya relajación posterior se utiliza para producir energía. Los fotones en la banda activa para la fotosíntesis, entre 400 y 700 nm, tienen una energía media por mol de fotones de 205 kJ (kilojulios). La energía necesaria para activar el sistema fotosintético fotosistema II (PSII) es la de un fotón con una longitud de onda de 680 nm, es decir, de unos 176 kJ/mol. Por otro lado, para el sistema fotosintético fotosistema I (PSI) es la energía de un fotón de 700 nm, es decir, 171 kJ/mol. Por tanto, en promedio, el 6,6% de la energía solar incidente se pierde en forma de calor durante la relajación de los estados excitados de la clorofila.

También se pierde energía en el ciclo de Calvin que sintetiza los carbohidratos a partir de CO2 y la energía capturada. En la fotosíntesis C3, el ciclo de Calvin consume tres moléculas de ATP (adenosín trifosfato) y dos de NADPH (nicotinamida-adenina-dinucleótido-fosfato) para asimilar una molécula de CO2 (dióxido de carbono) en un carbohidrato (glucosa) y generar la molécula necesaria para cerrar el ciclo. La síntesis de las tres moléculas de ATP requiere 12 protones (4 cada una) y las dos  moléculas de NADPH requiere absorber 8 fotones.  Todo esto por cada molécula de CO2 asimilada, proceso que requiere una energía de 1388 kJ por mol. Un sexto de un mol de glucosa, es decir, el carbono que le aporta la molécula de CO2, contiene unos 477 kJ. Por ello, en el ciclo de Calvin para la fotosíntesis C3 se pierde el 24,6% de la energía solar incidente. Sumando todos los efectos, en la fotosíntesis C3 la máxima cantidad de energía solar que se transforma en carbohidratos es del 12,6%.

Algo parecido ocurre en el caso de la fotosíntesis C4. Hay tres subtipos para el ciclo de Calvin en este caso. Sin entrar en detalles, se pierde el 28,7%  de la energía contenida en la radiación solar incidente. Por tanto la eficiencia máxima de conversión de energía en la fotosíntesis C4 se estima en un 8,5%. Pero no queda todo ahí, también hay pérdidas adicionales en la respiración que se produce en la mitocondria. Estas pérdidas dependen de varios factores. De nuevo sin entrar en detalles, se estima que entre el 30% y el 60% del a energía se pierde.

Dibujo20130519 Minimum energy losses calculated for 1000 kJ of incident solar radiation at each discrete step of the plant photosynthetic process

En resumen, tomando el porcentaje mínimo para todas las pérdidas de energía que hemos indicado, la eficiencia máxima de conversión de energía del Sol en biomasa en la fotosíntesis C3 es del 4,6% (de cada 1000 kJ de energía incidente sólo se transforma en biomasa 46 kJ) y en la fotosíntesis C4 es del 6,0% (de cada 1000 kJ de energía solar incidente sólo se transforma en biomasa 60 kJ).

Artículo técnico para los interesados en los detalles de estos cálculos: X.G. Zhu, S.P. Long, D.R. Ort, “What is the maximum efficiency with which photosynthesis can convert solar energy into biomass?,” Curr. Opin. Biotechnol. 19: 153-159, 2008.

Por supuesto, los oyentes me dirán que he tenido en cuenta demasiados efectos y que Ces en mi blog sólo estaba interesado en la eficiencia de la conversión de fotones en electrones en la clorofila. Permíteme considerar este proceso en detalle.

Dibujo20130519 Three representative pigment protein complexes involved in natural photosynthesis

Un fotón incide sobre una “antena” molecular, un complejo proteíco formado por varias proteínas que contiene los pigmentos fotosintéticos (pongamos que sean moléculas de clorofila) y es absorbido excitando una molécula de clorofila, es decir, un electrón pasa desde un estado HOMO (siglas de orbital molecular ocupado de mayor energía) hasta un estado excitado no ocupado de mayor energía. Pocos picosegundos más tarde, esta molécula excitada decae, es decir, el electrón pasa desde el estado excitado a un estado LUMO (siglas de orbital molecular desocupado de menor energía) emitiendo un nuevo fotón. En este proceso la molécula vibra y pierde energía disipando calor. Obviando esta disipación térmica, la diferencia de energía entre los estados HOMO y LUMO debe corresponder a la energía del fotón absorbido por la molécula y a la energía del fotón emitido.

En las antenas moleculares fotosintéticas hay varias moléculas de clorofila que se excitan en secuencia a saltos (en inglés se habla de “hops” y al proceso se le llama “hopping” [también se utiliza el término “transferencian del excitón”]. Estos saltos acaban en una molécula de clorofila especial llamada clorofila “P” cuyo papel es la conversión del fotón en un electrón. La clorofila P está cerca de dos moléculas, una aceptora de electrones y otra dadora de electrones (DPA). Cuando la clorofila P se excita con un fotón (DP*A), decae en un proceso con dos etapas separadas: en la primera etapa transfiere un electrón a la molécula aceptora de electrones (DP+A-) y en la segunda etapa recibe un electrón de la molécula dadora de electrones (D+PA-), quedando en un estado no excitado tras este proceso.

La eficiencia energética de este proceso de conversión de energía la de un fotón en la transferencia de un electrón se puede calcular usando las leyes de la termodinámica. Podemos suponer que se trata de un ciclo de Carnot con un foco caliente, la energía de la molécula excitada, y un foco frío, la energía de la molécula en su estado fundamental. Asumiendo que la molécula de clorofila se comporta como una molécula en un gas, el cálculo resulta en una eficiencia máxima del 75%. Sin embargo, la clorofila in vivo no está en un gas y se encuentra acoplada a proteínas, lo que reduce la eficiencia a un valor entre el 57% y el 67%. Y en estos cálculos se ha omitido el trabajo requerido en las transiciones en las moléculas aceptora y dadora de electrones, lo que reduce la eficiencia de este ciclo de Carnot en como mínimo un 7% adicional.

En resumen, la eficiencia de la conversión de energía de un fotón a la de un electrón ronda el 60% en el mejor caso, siendo lo habitual que no supere el 50%. Pero entonces, ¿por qué comenta Ces en mi blog que ha leído que la eficiencia cuántica de la conversión de un fotón en un electrón en la fotosíntesis supera el 90%?

Más información sobre estos cálculos en Jérôme Lavergne, Pierre Joliot, “Thermodynamics of the Excited States of Photosynthesis,” BTOL-Bioenergetics, 2000 [pdf gratis].

La razón es sutil, pero sencilla. La eficiencia superior al 95% en la transferencia de energía en la fotosíntesis que mucha gente escribe en artículos de divulgación (yo mismo lo he escrito en mi blog en 2009) se refiere a la transferencia de los fotones entre moléculas de clorofila cercanas. El proceso que lleva los fotones desde la molécula de clorofila que ha capturado el fotón de la luz solar y la molécula de clorofila “P” que realiza la transferencia del electrón. El proceso de “hopping” tiene una eficiencia cercana al 95% gracias a la física cuántica, como se publicó en la revista Nature en el año 2007. Podemos decir que en este proceso de “hopping” se ejecuta un algoritmo cuántico de búsqueda que canaliza el fotón hasta la clorofila “P”.

En mi blog puedes leer “La conexión entre la fotosíntesis y los algoritmos cuánticos,” 2009, y “Publicado en Nature: Biología cuántica y computación cuántica adiabática en la fotosíntesis a temperatura ambiente,” 2010.

En 2007, Gregory S. Engel (de la Universidad de California en Berkeley) y sus colegas estudiaron la fotosíntesis en la bacteria fototrópica verde del azufre (Chlorobium tepidum). Según su estudio experimental mediante espectroscopia bidimensional utilizando la transformada de Fourier, el proceso de “hopping” corresponde a la propagación coherente de una onda cuántica de tipo excitón que transfiere la energía del fotón capturado hasta el centro químico activo donde se realiza la transferencia del electrón [por eso al “hopping” también se le llama transferencian del excitón]. La onda cuántica se propaga por las moléculas de clorofila durante cientos de femtosegundos y se comporta como si “visitara” de forma simultánea varios caminos posibles y eligiera el óptimo para llegar al centro activo. Engel y sus colegas afirmaron en su artículo de 2007 que el proceso es análogo al algoritmo cuántico de Grover, capaz de buscar un elemento dado en un vector de n componentes desordenadas en un número de pasos igual a la raíz cuadrada de n (cuando un algoritmo clásico requiere mirar al menos todos los elementos, es decir, un tiempo proporcional a n). Aunque el estudio experimental publicado en el año 2007 se realizó con a baja temperatura, unos 77 Kelvin, los autores afirmaron que el mismo mecanismo debe ocurrir a temperatura ambiente.

Recomiendo leer a Roseanne J. Sension, “Biophysics: Quantum path to photosynthesis,” News and Views, Nature 446: 740-741, 12 April 2007. El artículo técnico original es Gregory S. Engel et al. “Evidence for wavelike energy transfer through quantum coherence in photosynthetic systems,” Nature 446: 782-786, 12 April 2007.

De hecho, en el año 2010, se publicó en Nature otro artículo que comprobó dicho hipótesis, demostrando que el que dicho mecanismo también se da a temperatura ambiente. Elisabetta Collini (de la Universidad de Padua, Italia, aunque realizó la investigación trabajando en la Universidad de Toronto, Canadá) y sus colegas demostraron en un alga fotosintética que el mecanismo de “hopping” utiliza la coherencia cuántica incluso a temperatura ambiente. Pero repito, estos estudios, no implican que la eficiencia de la conversión de los fotones en electrones sea superior al 90%, como me preguntaba Ces en mi blog.

Recomiendo leer a Rienk van Grondelle, Vladimir I. Novoderezhkin, “Photosynthesis: Quantum design for a light trap,” Nature 463: 614-615, 4 Feb 2010. El artículo técnico es Elisabetta Collini et al., “Coherently wired light-harvesting in photosynthetic marine algae at ambient temperature,” Nature 463: 644-647, 4 Feb 2010.

En resumen, espero haber contestado la pregunta de Ces de forma satisfactoria, aunque haya omitido muchos detalles técnicos. La fotosíntesis como proceso de conversión de energía solar en biomasa tiene una eficiencia máxima alrededor del 10%. El proceso fundamental que ocurre en la clorofila que permite la conversión de la energía de un fotón en la transferencia de un electrón tiene una eficiencia del orden del 50%. Y el proceso cuántico que tiene una eficiencia superior al 90% es el proceso de “hopping” por el que el fotón capturado en una molécula de clorofila recorre varias moléculas hasta llegar a la molécula de clorofila “P” que realiza la transferencia del electrón como tal.

Y esto es todo por hoy. Si te ha gustado la trancripción y quieres oír el podcast, sigue este enlace en Trending Ciencia.

Francis en ¡Eureka!: La clonación de células troncales pluripotentes humanas

Dibujo20130518 Human Embryonic Stem Cells Derived by Somatic Cell Nuclear Transfer

Ya está disponible el audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero. Sigue este enlace para disfrutarlo. Como siempre una transcripción libre.

La noticia de la semana ha sido la clonación de células madre humanas. Desde que se clonó la oveja Dolly en 1996 muchos investigadores han tratado de clonar células humanas por sus aplicaciones en medicina regenerativa. ¿Por qué ha costado tanto tiempo clonar células humanas? La oveja Dolly fue clonada a partir de una célula adulta mediante una técnica llamada transferencia nuclear somática. Se tomó el núcleo de una célula de la glándula mamaria de una oveja y se introdujo en un óvulo no fecundado y sin núcleo. Fueron necesarios 277 embriones fallidos para producir un nacimiento y en 2003, la oveja Dolly murió de vejez prematura (vivió la mitad que una oveja normal).

Todas las células tienen el mismo ADN en su núcleo, pero son muy diferentes entre sí (basta comparar una neurona y una célula de la piel). Pero todas las células pueden nacer a partir de células troncales pluripontentes, las llamadas células madre, capaces de diferenciarse en cualquier otra célula del cuerpo. Shoukhrat Mitalipov (del Centro Nacional de Investigación en Primates de Oregón, en EEUU) y sus colegas, entre ellos la embrióloga española Nuria Martí, emigrada a EEUU por los recortes en ciencia en España, han logrado aplicar la técnica utilizada con la oveja Dolly a células humanas.

Algunos oyentes recordarán que un científico surcoreano, el Dr. Hwang, experto en células madre, afirmó haberlo logrado en marzo de 2004, pero en diciembre de 2005 se descubrió había falsificado los datos de sus experimentos sobre la clonación de embriones humanos. Se levantó un gran escándalo y fue condenado a dos años de cárcel por un tribunal de Seúl. Ha costado casi 10 años de intenso trabajo lograr la clonación humana y lo más curioso es que la clave ha sido utilizar la cafeína.

Recomiendo leer a Gretchen Vogel, “Human Stem Cells From Cloning, Finally,” News & Analysis, Science 340: 795, 17 May 2013, y a David Cyranoski, “Human stem cells created by cloning. Breakthrough sets up showdown with induced adult lines,” Nature 497: 295–296, 16 May 2013. El artículo técnico es Masahito Tachibana et al., “Human Embryonic Stem Cells Derived by Somatic Cell Nuclear Transfer,” Cell, AOP, 15 May 2013. La cafeína se introdujo en la clonación de monos en S.M. Mitalipov, “Reprogramming following somatic cell nuclear transfer in primates is dependent upon nuclear remodeling,” Human Reproduction 22: 2232-2242, 2007.

En español recomiendo leer a Nuño Domínguez, “La clonación humana, cuestión de cafeína,” esMateria, 17 mayo 2013, y a Alfredo Pascual, “Nuestra generación no verá un órgano clonado, y mucho menos un ser humano,” El Confidencial, 17 mayo 2013.

Sigue leyendo

Nota dominical: Einstein nunca dijo que su “mayor error” fue la constante cosmológica

Dibujoa20130517 albert einstein smiling

Mucha gente cree que Einstein dijo que introducir la constante cosmológica fue el “mayor error de su vida.” Pero se trata de un mito. Einstein nunca lo dijo. O si lo dijo en privado no existe ningún documento que lo acredite. La frase “el mayor error” o “la mayor metedura de pata” (en inglés “the biggest blunder“), en relación a la constante cosmológica y Einstein, fue escrita por primera vez por el físico George Gamow en un artículo publicado en septiembre de 1956 en la revista Scientific American (recuerda que Einstein murió en abril de 1955). Gamow repitió esta frase varias veces en otros textos y gracias a ello se popularizó esta cita apócrifa como si fuera del propio Einstein.

Por supuesto, el mito no quita que Einstein se sintiera descontento con haber introducido la constante cosmológica y que en una carta al cosmólogo Georges Lemaître le dijera que “soy incapaz de creer que una cosa tan fea pueda ser real en la Naturaleza” (“I was unable to believe that such an ugly thing should be realized in Nature”). Pero, la frase en inglés “the biggest blunder” fue acuñada por Gamow a modo de hipérbole y atribuida a Einstein por otros. Hay muchos mitos alrededor de la figura de Einstein que se propagan con el tiempo, nadie sabe muy bien el porqué. Me ha recordado este hecho, bien conocido por los que hemos leído biografías rigurosas de Einstein, el artículo de Mario Livio, “Lab life: Don’t bristle at blunders,” Nature 497, 309–310, 16 May 2013.

En su artículo, Livio nos recuerda también que en julio de 1991 se publicó en la revista Nature un artículo de los astrónomos Andrew Lyne, Matthew Bailes y S.L. Shemar que anunciaba el descubrimiento del primer planeta extrasolar; yo recuerdo este artículo porque entonces yo estaba suscrito a Nature en papel y la recibía con placer todas las semanas. Para sorpresa de todo el mundo no estaba orbitando una estrella similar al Sol, sino un pulsar (una estrella de neutrones residuo de la explosión de una supernova). Pocos meses más tarde, en enero de 1992, los autores tuvieron que retractarse de este artículo, pues su error era debido a que no habían corregido de forma adecuada el movimiento de la Tierra alrededor del Sol. Yo recuerdo haber leído dicha retracción con cierta inquietud, pues entonces pensaba que los artículos publicados en Nature eran muy fiables gracias a su rigurosa revisión por pares. Y además, la semana anterior se había publicado otro descubrimiento similar, un sistema planetario con dos exoplanetas.

Livio nos recuerda, yo no lo sabía, que Lyne reveló su error en una reunión de la Sociedad Astronómica Americana, donde recibió una clamorosa ovación por ello. Justo después de su charla, el astrónomo Aleksander Wolszczan anunció que había descubierto otros dos planetas extrasolares orbitando otro púlsar. Su artículo en Nature, junto a D.A. Frail, titulado “un sistema planetario alrededor del púlsar PSR 1257+12,” corrió mucha mejor suerte, pues fue confirmado con un artículo en Science en 1994, titulado “confirmación de planetas de masa terrestres alrededor del púlsar PSR 1257+12.” Gracias a ello, Wolszczan y Frail están en la carrera hacia el Premio Nobel (de hecho, mucha gente afirma que el primer planeta extrasolar se descubrió en 1994, olvidando el descubrimiento de 1992).

Wolszczan siempre ha dicho que el artículo de Lyne fue la “inyección de confianza” que le convenció de que las señales en sus datos sobre el púlsar PSR 1257+12 eran señales reales de exoplanetas. Si su artículo a Nature no hubiera sido enviado antes de la retracción de Lyne, quizás, Wolszczan hubiera descartado dichas señales y no sería uno de los candidatos más firmes al Premio Nobel de Física en los próximos años.

Los errores son una parte esencial del proceso científico. Si te ha picado la curiosidad esta entrada, y tienes acceso a una suscripción a Nature, te recomiendo leer el artículo de Livio en Nature. No te arrepentirás.