Antonio Acín (ICFO/ICREA, Barcelona, España) y varios colegas responden a esta pregunta en un artículo en Nature Communications que presenta un protocolo cuántico para amplificar la aleatoriedad de los eventos naturales que sean aleatorios para hacerlos completamente aleatorios. El artículo no demuestra que estos eventos existan en la Naturaleza, pero introduce la siguiente dicotomía: o bien nuestro universo es completamente determinista, o bien existen eventos naturales que son totalmente aleatorios. Todo el mundo sabe que la física clásica es totalmente determinista (aunque el caos determinista limita su predictibilidad) y que la física cuántica permite lo aleatorio, aunque ello no implica la existencia de cualquier forma de aleatoriedad en la Naturaleza. El problema de distinguir entre (pseudo)aleatoriedad y aleatoriedad completa puede parecer de interés sólo para los filósofos, pero también es importante desde un punto de vista práctico, pues los bits aleatorios son útiles en muchas aplicaciones (protocolos criptográficos, juegos de azar o simulación numérica de sistemas físicos y biológicos). El artículo técnico es Rodrigo Gallego et al., «Full randomness from arbitrarily deterministic events,» Nature Communications 4: 2654, 30 Oct 2013 (arXiv:1210.6514 [quant-ph]).
Archivo de la categoría: Mecánica Cuántica
El tiempo es lo que miden los relojes
Parece obvio, pero el tiempo es lo que miden los relojes; si no hay ningún reloj, no se puede medir el tiempo. La ecuación de Wheeler–De Witt para la función de onda cuántica del universo no depende del tiempo, pues no existe ningún reloj «fuera» del universo. Don N. Page y William K. Wootters en 1983 propusieron un modelo análogo a esta ecuación, el estado estacionario de un sistema cuántico que está formado por el entrelazamiento de dos subsistemas que evolucionan en el tiempo. Uno de los subsistemas se puede interpretar como «reloj» que permite definir una «flecha de tiempo» para medir la evolución en dicho «tiempo» del otro subsistema; sin embargo, el sistema completo es estacionario y no evoluciona en el tiempo. Ekaterina Moreva (INRIM, Turín, Italia) y sus colegas acaban de publicar en ArXiv una realización experimental de esta idea utilizando como sistema dos fotones entrelazados (la implementación más simple posible de la idea de Page y Wootters). El artículo técnico es Ekaterina Moreva, Giorgio Brida, Marco Gramegna, Vittorio Giovannetti, Lorenzo Maccone, Marco Genovese, «Time from quantum entanglement: an experimental illustration,» arXiv:1310.4691 [quant-ph], 17 Oct 2013, que implementa la idea de Don N. Page, William K. Wootters, «Evolution without evolution: Dynamics described by stationary observables,» Phys. Rev. D 27: 2885–2892, 1983.
Algunos medios han afirmado que se ha demostrado que el tiempo es emergente, pero en realidad sólo se ha confirmado que para medir el tiempo es necesario un reloj. Repito, parece algo obvio, pero mucha gente no lo tiene claro. El tema de los relojes en mecánica cuántica es muy interesante y el nuevo artículo aporta poco a lo ya conocido, lo que no quita que sea curioso y merezca aparecer reseñado en este blog. ¿Transcurre el tiempo cuando no hay ningún reloj que lo mida? Esta cuestión es filosófica, la física sólo estudia lo que se puede medir. A los interesados en más detalles les recomiendo leer alguno de los muchos artículos sobre la naturaleza del tiempo y su relación con los relojes, por ejemplo, Iñigo L. Egusquiza, Luis J. Garay, José M. Raya, «Quantum evolution according to real clocks,» Phys. Rev. A 59: 3236–3240, 1999.
Francis en Trending Ciencia: El problema del colapso de la función de onda
Ya puedes disfrutar de mi nuevo podcast sobre física para Trending Ciencia. Sigue este enlace y como siempre, disfruta de la transcripción del audio, algunas imágenes y enlaces a los artículos técnicos.
Este año se cumplen 100 años del modelo cuántico de Bohr para el átomo. Por ello hoy hablo de mecánica cuántica y de uno de los debates más importantes sobre la interpretación de la mecánica cuántica. El problema de la medida en mecánica cuántica y la elegante solución que han ofrecido Armen E. Allahverdyan, Roger Balian, Theo M. Nieuwenhuizen, «Understanding quantum measurement from the solution of dynamical models,» Physics Reports 525: 1-166, April 2013 [arXiv:1107.2138]. Según estos investigadores la evolución unitaria conjunta del sistema medido y del aparato de medida gracias a la ecuación de Schrödinger explica el supuesto colapso de la función de onda gracias a que el aparato de medida tiene suficientes grados de libertad como para evolucionar de forma irreversible hacia el registro del resultado de la medida. La solución más sencilla a un problema suele ser demostrar que no existe tal problema.
Francis en Trending Ciencia: El principio de incertidumbre de Heisenberg
Ya puedes disfrutar de mi nuevo Podcast sobre Física para Trending Ciencia siguiendo este enlace. Como siempre una transcripción del audio, figuras y referencias a artículos y fuentes para profundizar.
Ha llegado a portada en el portal de noticias Menéame una cuyo titular es «Científicos vieneses demuestran empíricamente la violación del Principio de Indeterminación de Heisenberg.» La noticia enlaza un artículo técnico aparecido en ArXiv el 30 de mayo, arXiv:1305.7251, titulado «Violation of Heisenberg’s error-disturbance uncertainty relation in neutron spin measurements,» [Violación de la relación de incertidumbre de Heisenberg tipo error-perturbación usando medidas del espín del neutrón], firmado por Georg Sulyok, de la Universidad Técnica de Viena, y varios colegas. La entradilla en Menéame traduce la última frase del artículo, en la sección de conclusiones: «Conclusión: Así pues, nuestros resultados dan una demostración experimental de que la forma generalizada de la relación error-perturbación de Heisenberg tiene que ser abandonada.» Esta noticia en portada de Menéame ha generado mucho revuelo en Twitter y en varias ocasiones he tenido que aclarar que no se ha demostrado que el sacrosanto principio de indeterminación de Heisenberg es falso, más bien todo lo contrario, se ha reforzado su validez. El titular se puede tachar de sensacionalista y la entradilla parece indicar que el meneante de la noticia no se ha leído en detalle la introducción del artículo técnico. Permíteme una aclaración en este podcast para Trending Ciencia.
Antes de nada, en mi misma línea, quiero destacar que también ha sido portada en Menéame una entrada mi amigo cordobés Enrique F. Borja, físico responsable del blog Cuentos Cuánticos, quien ha aclarado esta cuestión en su nuevo blog «Es Extraño…» en el portal de blogs de la revista Investigación y Ciencia. Su artículo titulando «Heisenberg todavía está tranquilo,» aclara lo que significa el principio de indeterminación de Heisenberg, en qué consiste el nuevo resultado y cómo no viola dicho principio, sino todo lo contrario, lo apoya de forma irrefutable.
Yo ya lo dije en Twitter «La formulación original del principio de incertidumbre de Heisenberg sólo es válida para pulsos gaussianos. Verificar que [dicha formulación] es violada para pulsos generales no es [ninguna] novedad. Y no afecta a la validez general del principio. Lo que se estudia [en el nuevo artículo] es la validez de la formulación original de Heisenberg de 1927, que no es la viene en los libros de texto, y que se sabe desde pocos meses después de ser publicada que debe ser modificada ligeramente.» Permíteme aclare estos puntos, porque quizás muchos de los oyentes no me siguen en Twitter y no se enteraron de mis comentarios.
Werner Heisenberg (1901-1976) fue uno de los padres de la mecánica cuántica y formuló en 1925 lo que ahora se conoce como mecánica cuántica matricial, en la que las magnitudes físicas, como la posición y la velocidad (o el momento lineal), se describen mediante matrices que no conmutan entre sí. En 1927, Heisenberg escribe el artículo en el que enuncia su famoso principio de indeterminación que afirma que «hay parejas de magnitudes físicas que no están determinadas con total precisión de forma simultánea.» Estas parejas de magnitudes físicas son las representadas por operadores o matrices que no conmutan entre sí. Sin embargo, en la formulación matemático original, Heisenberg formuló su principio utilizando un ejemplo particular, la medida de la posición y el momento lineal de un electrón en el estado fundamental de un átomo utilizando fotones. Heisenberg presenta su famosa desigualdad para la influencia del error cuadrático medio en las medidas experimentales de la posición en la incertidumbre del momento lineal, también medida como error cuadrático medio. Dicha formulación original del principio que le llevó a recibir el Premio Nobel de Física en 1932, no corresponde a lo que todos los estudiantes de física estudian durante la carrera ya que asume que el error en las medidas experimentales está equidistribuido (es decir, sigue una distribución gaussiana o campana de Gauss). Muy pocos libros de texto de física cuántica, salvo los que presentan la historia original de esta teoría, describe la formulación del principio de Heisenberg utilizando el error cuadrático medio en las medidas de posición y momento lineal, pues dicha expresión matemática tiene una validez limitada, ya que en el caso general la función de onda no es un paquete gaussiano, es decir, no implica una distribución de probabilidad de tipo campana de Gauss.
W. Heisenberg, «Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik,» Zeitschrift für Physik 43: 172-198, 1927 [traducción al inglés «The actual content of quantum theoretical kinematics and dynamics,» NASA TM-77379, 1983].
La formulación del principio de incertidumbre de Heisenberg que todos los físicos estudiamos en los libros de texto es la que presentó el físico norteamericano Earl H. Kennard en 1927, pocos meses después de la publicación del artículo original de Heisenberg. Esta formulación está basada en la dispersión típica de los operadores de posición y momento lineal. De hecho, en la mayoría de los libros de texto de mecánica cuántica el principio de Heisenberg se presenta en su formulación general publicada en 1929 por el físico norteamericano Howard P. Robertson, que relaciona la dispersión típica de dos observables que no conmutan con su conmutador. Ni Kennard ni Robertson tienen su nombre asociado al de Heisenberg, aunque sus formulaciones matemáticas son más correctas que la de Heisenberg pues son válidas para una función de onda general; pero ello no quita que la formulación física del principio de incertidumbre de Heisenberg sea la correcta. Esto algo muy habitual en los trabajos pioneros de física; las ideas físicas son correctas pero la formulación matemática original tiene una validez limitada.
E. H. Kennard, «Zur Quantenmechanik einfacher Bewegungstypen,» Zeitschrift für Physik 44: 326-352, 1927; H. P. Robertson, «The Uncertainty Principle,» Phys. Rev. 34: 163-164, 1929.
¿Se puede corregir la formulación original de Heisenberg para paquetes gaussianos y obtener una formulación completamente general siguiendo su línea de razonamiento? Por supuesto, aunque quizás sorprenda a muchos oyentes que esta cuestión ha sido poco estudiada. Aunque desde pocos meses después de la formulación original de Heisenberg en 1927 se sabe que su formulación original basada en el error cuadrático medio no es válida en el caso general y ha de ser corregida, se considera que el valor de esta corrección tiene interés sólo para los físicos aficionados a la historia de la física. A mi pesar, la mayoría de los físicos no están interesados en la historia de la mecánica cuántica e ignoran este tipo de cuestiones de importancia menor, por no decir de importancia nula. Sólo a los físicos que somos apasionados a la historia de nuestra ciencia nos interesan este tipo de detalles históricos.
El físico japonés Masanao Ozawa, de la Universidad de Tohoku, reformuló en el año 2002 las ideas originales de Heisenberg y descubrió cómo corregir su formulación original utilizando errores cuadráticos medios para que sea aplicable a funciones de onda generales. Por supuesto, su formulación incluye dos términos adicionales que dan cuenta de la contribución de la desviación típica de los operadores involucrados. Sin entrar en detalles técnicos, la formulación de Ozawa del principio de incertidumbre de Heisenberg pasó sin pena ni gloria, hasta que ahora el propio Masanao Ozawa ha visitado Viena para solicitar a sus colegas de la Universidad Técnica de Viena que verifiquen de forma experimental su formulación del principio de incertidumbre. De hecho, el artículo técnico cuyo primer autor es Georg Sulyok incluye a Ozawa como quinto autor.
Masanao Ozawa, «Physical content of Heisenberg’s uncertainty relation: Limitation and reformulation,» Phys. Lett. A 318: 21-29, 2003 [arXiv:quant-ph/0210044].
No quiero entrar en los detalles técnicos del experimento realizado por Sulyok y sus colegas, que utiliza dos componentes del espín de un neutrón en lugar de la posición y el momento lineal de un electrón en un átomo. Lo más importante en dicho experimento es que se han medido de forma separada los errores cuadráticos medios de ambas componentes del espín y las desviaciones típicas de los correspondientes operadores cuánticos, demostrándose que el principio de incertidumbre de Heisenberg en su formulación convencional, con desviaciones típicas se cumple, pero que también se cumple en la formulación de Ozawa. Como la contribución de los términos introducidos por Ozawa en la formulación original de Heinsenberg ha sido demostrada con precisión, el artículo técnico proclama que se ha demostrado por primera vez de forma empírica que la formulación original de Heisenberg para los errores cuadráticos medios es incorrecta. Ninguna novedad para los físicos, que ya lo sabían desde que en 1927 se publicó el artículo de Kennard.
Georg Sulyok, Stephan Sponar, Jacqueline Erhart, Gerald Badurek, Masanao Ozawa, Yuji Hasegawa, «Violation of Heisenberg’s error-disturbance uncertainty relation in neutron spin measurements,» arXiv:1305.7251, 30 May 2013. También recomiendo consultar Jacqueline Erhart, Stephan Sponar, Georg Sulyok, Gerald Badurek, Masanao Ozawa, Yuji Hasegawa, «Experimental demonstration of a universally valid error-disturbance uncertainty relation in spin-measurements,» arXiv:1201.1833, 9 Jan 2012.
El físico japonés Ozawa ya tiene su pequeño momento de gloria, que será olvidado rápidamente por todo el mundo. Pues ya se sabe que no es noticia que un perro muerda a una persona, sino que una persona muerda a un perro. Y tampoco es noticia verificar de forma experimental que está mal lo que todo el mundo sabía que está mal. Eso sí, para mí es un artículo técnico muy interesante que recomiendo a todos los profesores de física cuántica. Pues recordar la historia de nuestra ciencia es una de las grandes asignaturas pendientes de la educación en la actualidad.
Coda final. Si no lo has hecho ya, puedes disfrutar de mi nuevo Podcast sobre Física para Trending Ciencia siguiendo este enlace.
PS: Por cierto, acaba de aparecer en ArXiv una nueva reformulación de la versión original de la relación de incertidumbre de Heisenberg de 1927 en Paul Busch, Pekka Lahti, Reinhard F. Werner, «Proof of Heisenberg’s error-disturbance relation,» arXiv:1306.1565, 6 Jun 2013. Esta nueva reformulación se diferencia de la de Osawa en que no utiliza la desviación típica de forma explícita y, por tanto, sigue de forma más fiel el espíritu de la formulación original de Heisenberg.
PS (28 jun 2013): Recomiendo leer el artículo de Ron Cowen, «Proof mooted for quantum uncertainty. Study confirms principle’s limits on measurement accuracy,» Nature 498: 419–420, 27 Jun 2013.
Francis en Trending Ciencia: Visualizan el entrelazamiento cuántico entre dos fotones
Ya puedes disfrutar de mi nuevo podcast para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción del audio.
Anton Zeilinger, el famoso físico austriaco que es eterno candidato al Premio Nobel de Física, y sus colegas en la Universidad de Viena, ha preparado un vídeo de youtube en el que visualiza el entrelazamiento cuántico en polarización entre dos fotones. El vídeo es espectacular y no te lo deberías perder. En mi blog tienes el enlace. Dicho vídeo se ha preparado como información suplementaria a su artículo de acceso gratuito «Real-Time Imaging of Quantum Entanglement» («imagen en tiempo real del entrelazamiento cuántico»), cuyos autores son Robert Fickler, Mario Krenn, Radek Lapkiewicz, Sven Ramelow y Anton Zeilinger, publicado en la revista del grupo Nature Scientific Reports el pasado 29 de Mayo de 2013.
Robert Fickler, Mario Krenn, Radek Lapkiewicz, Sven Ramelow & Anton Zeilinger, «Real-Time Imaging of Quantum Entanglement,» Scientific Reports 3: 1914, 29 May 2013. Más información en «Sean Carroll, «The Universe on a StratocasterNew Video Project,» S = k log W, May 29, 2013.
La polarización es una propiedad de la luz cuyo origen cuántico es el hecho de que el campo electromagnético es un campo con dos campos componentes independientes. Un sólo fotón tiene una polarización bien definida que está definida por un ángulo. En un laboratorio de óptica cuántica podemos generar un fotón con una polarización dada; por ejemplo, a cero grados o polarización horizontal |H>, a 90 grados o polarización vertical |V>, o incluso a cualquier ángulo intermedio; en este último caso, si escribimos el estado del fotón como coseno de alfa por el estado horizontal más seno de alfa por el estado vertical (cos(α) |H> + sin(α) |V>) encontramos que al medir la polarización del fotón será horizontal |H> con una probabilidad de cos²(α) y será vertical |V> con una probabilidad de sin²(α). En un laboratorio de óptica cuántica disponemos de detectores de polarización que podemos ajustar para medir polarización horizontal, vertical o en cualquier otro ángulo. Si un fotón en polarización horizontal incide en un detector ajustado a polarización vertical, la probabilida de de detectarlo será cero, si incide uno con polarización vertical será del 100% y si incide uno a 45 grados será del 50%.
En los laboratorios de óptica cuántica se dispone de generadores de pares fotones entrelazados en polarización, dispositivos capaces de generar dos fotones indistinguibles entre sí en los que uno está polarizado en horizontal y el otro en vertical. Como no sabemos cuál es el cuál es estado cuántico de los dos fotones es un estado de superposición de las dos posibilidades, que el primer fotón esté en horizontal y el segundo en vertical, y que el primer fotón esté en vertical y el segundo en horizontal, sea un estado entrelzadado |HV> + |VH>. No sabemos cuál es la polarización de cada uno de los fotones, lo único que sabemos es que ambas polarizaciones son complementarias entre sí. Al detectar uno de los fotones y obtener como resultado una polarización horizontal sabemos de inmediato que la polarización del otro fotón será vertical, incluso si dicho fotón se encuentra muy lejos.
Para visualizar el entrelazamiento cuántico, el físico austríaco Zeilinger y sus colegas en la Universidad de Viena han decidido grabar en vídeo los dos detectores de fotones, un detector de polarización diagonal, cuyo ángulo α se puede variar, sobre el que incide el primer fotón y un detector en polarización vertical sobre el que incide el segundo fotón. Estos detectores son pantallas CCD ultrarrápidas de alta sensibilidad. Cada vez que un fotón es detectado en una de estas pantallas CCD se observa un destello de luz. Cuando se graban en vídeo de forma continua los destellos de luz en ambos detectores lo que se observa es que los fotones inciden de forma aleatoria en cada detector y no hay ningún patrón visible. A veces hay un destello en un detector, a veces en el otro, y a veces en ambos. El resultado parece completamente aleatorio. Nada indica que la fuente de los fotones los hubiera entrelazado entre sí.
Para visualizar el entrelazamiento cuántico hay que hacer el siguiente truco. Grabar la imagen de vídeo con ambos detectores sólo cuando uno de ellos detecta un fotón. Zeilinger y sus colegas han elegido el detector diagonal a un cierto ángulo en la parte izquierda de la imagen del vídeo y un detector horizontal en la parte derecha de la imagen. Cuando un fotón incide sobre el detector diagonal colocado a 45 grados, si dicho fotón es horizontal o vertical puede producirse un destello con un 50% de probabilidades. Si de la grabación del vídeo anterior quitamos los fotogramas en los que sólo uno de los detectores produce destello y dejamos sólo los fotogramas en los que ambos detectores producen destellos, en lugar de una imagen aleatoria se observa un patrón muy curioso en ambos lados de la imagen. En el detector diagonal se observan dos franjas verticales separadas por una región vacía y en el detector horizontal un aro circular con el centro vacío. Más aún, variando el ángulo del detector diagonal (o el ángulo de polarización de los fotones entrelazados) se observa como el patrón de dos franjas verticales se pone a rotar acompañado del otro patrón. El vídeo es realmente espectacular.
El entrelazamiento cuántico es una de las consecuencias más importantes de la física cuántica y tiene múltiples aplicaciones. Yo destacaría su aplicación en la computación cuántica: el paralelismo cuántico consiste en aplicar un operador cuántico a un registro de bits cuánticos entrelazados; cada cubit puede tener dos estados posibles y el registro de n cubits puede tener 2 elevado a n estados posibles. Aplicar una operación cuántica a dicho registro de n cubits es equivalente a aplicar dicha operación a cada uno de los 2 elevado a n estados posibles, por lo que si se quisiera simular dicha operación con un ordenador clásico habría que utilizar 2 elevado a n operaciones clásicas. El entrelazamiento cuántico es el secreto del paralelismo cuántico y de la eficiencia de los ordenadores cuánticos a la hora de resolver ciertos problemas.
El nuevo vídeo de Zeilinger y sus colegas seguro que acabará formando parte de las ilustraciones multimedia de todos los cursos de física cuántica, como ya forma parte de ella el vídeo Akira Tonomura y sus colaboradores de Hitachi en 1989 sobre el experimento de doble rendija.
Más información en «El experimento de la doble rendija de Hitachi o el experimento más bello de toda la física.»
Si no has escuchado aún el audio de mi podcast, sigue este enlace.
Microscopia de fotoionización para observar orbitales átomicos
La microscopia de fotoionización permite observar de forma directa la estructura orbital de un átomo de hidrógeno excitado. La técnica, propuesta hace 30 años, permite visualizar la distribución de carga electrónica en el átomo, incluyendo la estructura nodal de los orbitales excitados (los microscopios de efecto túnel y similares no permiten ver la estructura nodal, sólo la distribución de carga exterior). Aneta S. Stodolna (Instituto de Física Atómica y Molecular, Países Bajos), Marc Vrakking (Max-Born-Institute, Berlín, Alemania) y sus colegas han demostrado la microscopía de fotoionización en un átomo de hidrógeno colocado en un campo electrostático. El átomo es excitado por pulsos láser y los electrones que escapan del átomo producen patrones de interferencia que son amplificados por un factor de más de 20.000 usando una lente electrostática. El patrón de interferencia refleja la estructura nodal del orbital electrónico (que refleja la forma de la función de onda cuántica). Nos lo cuentan en «‘Quantum microscope’ peers into the hydrogen atom,» PhysicsWorld.com, May 23, 2013, en Christopher T. L. Smeenk, «Viewpoint: A New Look at the Hydrogen Wave Function,» Physics 6: 58, 20 May 2013, donde se hacen eco del artículo técnico A. S. Stodolna et al., «Hydrogen Atoms under Magnification: Direct Observation of the Nodal Structure of Stark States,» Phys. Rev. Lett. 110: 213001, 20 May 2013.
Por qué las medidas cuánticas débiles no son medidas
Una medida débil de un sistema cuántico, ¿ofrece información física sobre dicho sistema cuántico? Una (función de) distribución de probabilidad de una magnitud física debe ser una función que tenga un valor entre cero y uno. Las medidas débiles equivalen a utilizar «distribuciones de probabilidad» de magnitudes físicas cuyos valores son números complejos, cuyo módulo, ni siquiera, tiene que estar entre cero y uno. Por tanto, se obtienen resultados sin sentido cuya interpretación física es casi imposible. Imagina que mides el espín de un electrón y el valor débil que obtienes es 100, ¿qué significado tiene un valor del espín igual a 100 para un electrón cuyo espín sólo puede tomar los valores +1/2 y −1/2? Otro ejemplo, una magnitud cuyo valor está entre 1 y 2 puede tener un valor débil de −100, ¿qué significado tiene un valor negativo para una magnitud que siempre es positiva? Las medidas débiles, ahora muy de moda en mecánica cuántica, no son medidas y la interpretación física de los valores que se obtienen con ellas no es nada fácil. Me ha gustado el artículo de D. Sokolovski, «Are the ‘weak measurements’ really measurements?,» Quanta 2: 50-57 (2013) [arXiv:1305.4809], que retoma la escabrosa cuestión que ya se publicó en el famoso artículo de Yakir Aharonov, David Z. Albert, and Lev Vaidman, «How the result of a measurement of a component of the spin of a spin-1/2 particle can turn out to be 100,» Phys. Rev. Lett. 60: 1351-1354 (1988). Por cierto, ya hablé de este asunto en mi blog en «Las medidas cuánticas débiles y las probabilidades cuánticas negativas,» 5 agosto 2011.
¿Qué es una medida cuántica? El valor medio de la medida de un observable A en un sistema cuántico que está en el estado |ψ> es igual a <A>=<ψ|A|ψ>/<ψ|ψ>. Este valor medio se calcula promediando los resultados de muchas medidas independientes en sistemas preparados de forma idéntica, pues en cada medida se obtiene un autovalor An con una probabilidad <ψn|ψn>, donde A|ψn>=An|ψn>, y el estado del sistema cambia de |ψ> a |ψn>. Este proyección del estado es imposible de evitar en una medida cuántica.
¿Qué es una medida cuántica débil? En una medida débil se consideran dos estados del sistema cuántico, sean |ψ> y |φ>, antes y después de la medida. El valor medio débil se obtiene como <<A>>=<φ|A|ψ>/<φ|ψ>. Una medida cuántica siempre proyecta el estado del sistema desde |ψ> a |ψn>, sin embargo, una medida cuántica débil se puede realizar sin proyectar el estado del sistema, con lo que el estado antes de la medida débil y después de ella puede ser casi exactamente el mismo. El problema con el valor <<A>>, a diferencia del valor <A>, es que está poco restringido y puede tomar valores sin sentido físico.
¿Qué ventaja tienen las medidas cuánticas débiles? Que permiten «medir» cosas que son imposibles de medir con medidas cuánticas, como, por ejemplo, la función de onda de un sistema cuántico, o controlar detalles del sistema cuántico más allá de lo posible, como retrasar el efecto de la decoherencia cuántica. Las medidas débiles reabren debates metafísicos como si es real la función de onda cuántica (en el sentido más filosófico del término «real»).
Francis en Trending Ciencia: La física cuántica de la fotosíntesis
Sigue este enlace si quieres escuchar mi nuevo podcast en Trending Ciencia, que contesta una pregunta/petición formulada por Ces. Como siempre una transcripción del audio.
He elegido como tema para mi nuevo podcast sobre física la respuesta a una pregunta que me ha hecho uno de los lectores de mi blog, Ces, sobre la fotosíntesis y la física cuántica. Ces ha leído que la tasa de conversión de fotones en electrones en la clorofila alcanza el 90% gracias a la física cuántica. En realidad se trata de un mito. Igual que es falso que sólo usemos el 10% de nuestro cerebro, también es falso que la fotosíntesis tenga una eficiencia de más del 90%. La eficiencia máxima de la fotosíntesis como proceso bioquímico que produce biomasa a partir de radiación solar tiene una eficiencia máxima que ronda el 10%. Si sólo tenemos en cuenta los procesos que ocurren en las moléculas de clorofila, la eficiencia de la conversión de la energía de los fotones incidentes en el proceso de transferencia de electrones tiene una eficiencia que ronda el 50%. La eficiencia de más del 90% se refiere al proceso llamado «hopping» por el cual el fotón incidente en una molécula de clorofila produce una onda de tipo excitón que se mueve de forma sucesiva por varias moléculas de clorofila hasta alcanzar la molécula de clorofila «P» que realiza la transferencia de un electrón entre dos moléculas, una dadora de electrones y otra aceptora de electrones. Permíteme que explique todo esto en más detalle.
La luz del Sol que es activa para la fotosíntesis es la que se encuentra en la banda entre 400 y 700 nm; recuerda que la luz con 400 nm tiene color azul y que la luz con 700 nm tiene color rojo. Como la clorofila absorbe mal en el centro de esta banda, los colores verdes, las hojas de los árboles son verdes (en lugar de negras). Se estima que como mínimos el 5% (y en muchos casos hasta el 10%) de la luz solar en la banda de 400 a 700 nm que incide sobre las hojas de las plantas se refleja y por tanto no es útil para la fotosíntesis.
Los fotones que inciden sobre la molécula de clorofila provocan su transición energética a un estado excitado, cuya relajación posterior se utiliza para producir energía. Los fotones en la banda activa para la fotosíntesis, entre 400 y 700 nm, tienen una energía media por mol de fotones de 205 kJ (kilojulios). La energía necesaria para activar el sistema fotosintético fotosistema II (PSII) es la de un fotón con una longitud de onda de 680 nm, es decir, de unos 176 kJ/mol. Por otro lado, para el sistema fotosintético fotosistema I (PSI) es la energía de un fotón de 700 nm, es decir, 171 kJ/mol. Por tanto, en promedio, el 6,6% de la energía solar incidente se pierde en forma de calor durante la relajación de los estados excitados de la clorofila.
También se pierde energía en el ciclo de Calvin que sintetiza los carbohidratos a partir de CO2 y la energía capturada. En la fotosíntesis C3, el ciclo de Calvin consume tres moléculas de ATP (adenosín trifosfato) y dos de NADPH (nicotinamida-adenina-dinucleótido-fosfato) para asimilar una molécula de CO2 (dióxido de carbono) en un carbohidrato (glucosa) y generar la molécula necesaria para cerrar el ciclo. La síntesis de las tres moléculas de ATP requiere 12 protones (4 cada una) y las dos moléculas de NADPH requiere absorber 8 fotones. Todo esto por cada molécula de CO2 asimilada, proceso que requiere una energía de 1388 kJ por mol. Un sexto de un mol de glucosa, es decir, el carbono que le aporta la molécula de CO2, contiene unos 477 kJ. Por ello, en el ciclo de Calvin para la fotosíntesis C3 se pierde el 24,6% de la energía solar incidente. Sumando todos los efectos, en la fotosíntesis C3 la máxima cantidad de energía solar que se transforma en carbohidratos es del 12,6%.
Algo parecido ocurre en el caso de la fotosíntesis C4. Hay tres subtipos para el ciclo de Calvin en este caso. Sin entrar en detalles, se pierde el 28,7% de la energía contenida en la radiación solar incidente. Por tanto la eficiencia máxima de conversión de energía en la fotosíntesis C4 se estima en un 8,5%. Pero no queda todo ahí, también hay pérdidas adicionales en la respiración que se produce en la mitocondria. Estas pérdidas dependen de varios factores. De nuevo sin entrar en detalles, se estima que entre el 30% y el 60% del a energía se pierde.
En resumen, tomando el porcentaje mínimo para todas las pérdidas de energía que hemos indicado, la eficiencia máxima de conversión de energía del Sol en biomasa en la fotosíntesis C3 es del 4,6% (de cada 1000 kJ de energía incidente sólo se transforma en biomasa 46 kJ) y en la fotosíntesis C4 es del 6,0% (de cada 1000 kJ de energía solar incidente sólo se transforma en biomasa 60 kJ).
Artículo técnico para los interesados en los detalles de estos cálculos: X.G. Zhu, S.P. Long, D.R. Ort, «What is the maximum efficiency with which photosynthesis can convert solar energy into biomass?,» Curr. Opin. Biotechnol. 19: 153-159, 2008.
Por supuesto, los oyentes me dirán que he tenido en cuenta demasiados efectos y que Ces en mi blog sólo estaba interesado en la eficiencia de la conversión de fotones en electrones en la clorofila. Permíteme considerar este proceso en detalle.
Un fotón incide sobre una «antena» molecular, un complejo proteíco formado por varias proteínas que contiene los pigmentos fotosintéticos (pongamos que sean moléculas de clorofila) y es absorbido excitando una molécula de clorofila, es decir, un electrón pasa desde un estado HOMO (siglas de orbital molecular ocupado de mayor energía) hasta un estado excitado no ocupado de mayor energía. Pocos picosegundos más tarde, esta molécula excitada decae, es decir, el electrón pasa desde el estado excitado a un estado LUMO (siglas de orbital molecular desocupado de menor energía) emitiendo un nuevo fotón. En este proceso la molécula vibra y pierde energía disipando calor. Obviando esta disipación térmica, la diferencia de energía entre los estados HOMO y LUMO debe corresponder a la energía del fotón absorbido por la molécula y a la energía del fotón emitido.
En las antenas moleculares fotosintéticas hay varias moléculas de clorofila que se excitan en secuencia a saltos (en inglés se habla de «hops» y al proceso se le llama «hopping» [también se utiliza el término «transferencian del excitón»]. Estos saltos acaban en una molécula de clorofila especial llamada clorofila «P» cuyo papel es la conversión del fotón en un electrón. La clorofila P está cerca de dos moléculas, una aceptora de electrones y otra dadora de electrones (DPA). Cuando la clorofila P se excita con un fotón (DP*A), decae en un proceso con dos etapas separadas: en la primera etapa transfiere un electrón a la molécula aceptora de electrones (DP+A-) y en la segunda etapa recibe un electrón de la molécula dadora de electrones (D+PA-), quedando en un estado no excitado tras este proceso.
La eficiencia energética de este proceso de conversión de energía la de un fotón en la transferencia de un electrón se puede calcular usando las leyes de la termodinámica. Podemos suponer que se trata de un ciclo de Carnot con un foco caliente, la energía de la molécula excitada, y un foco frío, la energía de la molécula en su estado fundamental. Asumiendo que la molécula de clorofila se comporta como una molécula en un gas, el cálculo resulta en una eficiencia máxima del 75%. Sin embargo, la clorofila in vivo no está en un gas y se encuentra acoplada a proteínas, lo que reduce la eficiencia a un valor entre el 57% y el 67%. Y en estos cálculos se ha omitido el trabajo requerido en las transiciones en las moléculas aceptora y dadora de electrones, lo que reduce la eficiencia de este ciclo de Carnot en como mínimo un 7% adicional.
En resumen, la eficiencia de la conversión de energía de un fotón a la de un electrón ronda el 60% en el mejor caso, siendo lo habitual que no supere el 50%. Pero entonces, ¿por qué comenta Ces en mi blog que ha leído que la eficiencia cuántica de la conversión de un fotón en un electrón en la fotosíntesis supera el 90%?
Más información sobre estos cálculos en Jérôme Lavergne, Pierre Joliot, «Thermodynamics of the Excited States of Photosynthesis,» BTOL-Bioenergetics, 2000 [pdf gratis].
La razón es sutil, pero sencilla. La eficiencia superior al 95% en la transferencia de energía en la fotosíntesis que mucha gente escribe en artículos de divulgación (yo mismo lo he escrito en mi blog en 2009) se refiere a la transferencia de los fotones entre moléculas de clorofila cercanas. El proceso que lleva los fotones desde la molécula de clorofila que ha capturado el fotón de la luz solar y la molécula de clorofila «P» que realiza la transferencia del electrón. El proceso de «hopping» tiene una eficiencia cercana al 95% gracias a la física cuántica, como se publicó en la revista Nature en el año 2007. Podemos decir que en este proceso de «hopping» se ejecuta un algoritmo cuántico de búsqueda que canaliza el fotón hasta la clorofila «P».
En mi blog puedes leer «La conexión entre la fotosíntesis y los algoritmos cuánticos,» 2009, y «Publicado en Nature: Biología cuántica y computación cuántica adiabática en la fotosíntesis a temperatura ambiente,» 2010.
En 2007, Gregory S. Engel (de la Universidad de California en Berkeley) y sus colegas estudiaron la fotosíntesis en la bacteria fototrópica verde del azufre (Chlorobium tepidum). Según su estudio experimental mediante espectroscopia bidimensional utilizando la transformada de Fourier, el proceso de «hopping» corresponde a la propagación coherente de una onda cuántica de tipo excitón que transfiere la energía del fotón capturado hasta el centro químico activo donde se realiza la transferencia del electrón [por eso al «hopping» también se le llama transferencian del excitón]. La onda cuántica se propaga por las moléculas de clorofila durante cientos de femtosegundos y se comporta como si “visitara” de forma simultánea varios caminos posibles y eligiera el óptimo para llegar al centro activo. Engel y sus colegas afirmaron en su artículo de 2007 que el proceso es análogo al algoritmo cuántico de Grover, capaz de buscar un elemento dado en un vector de n componentes desordenadas en un número de pasos igual a la raíz cuadrada de n (cuando un algoritmo clásico requiere mirar al menos todos los elementos, es decir, un tiempo proporcional a n). Aunque el estudio experimental publicado en el año 2007 se realizó con a baja temperatura, unos 77 Kelvin, los autores afirmaron que el mismo mecanismo debe ocurrir a temperatura ambiente.
Recomiendo leer a Roseanne J. Sension, “Biophysics: Quantum path to photosynthesis,” News and Views, Nature 446: 740-741, 12 April 2007. El artículo técnico original es Gregory S. Engel et al. “Evidence for wavelike energy transfer through quantum coherence in photosynthetic systems,” Nature 446: 782-786, 12 April 2007.
De hecho, en el año 2010, se publicó en Nature otro artículo que comprobó dicho hipótesis, demostrando que el que dicho mecanismo también se da a temperatura ambiente. Elisabetta Collini (de la Universidad de Padua, Italia, aunque realizó la investigación trabajando en la Universidad de Toronto, Canadá) y sus colegas demostraron en un alga fotosintética que el mecanismo de «hopping» utiliza la coherencia cuántica incluso a temperatura ambiente. Pero repito, estos estudios, no implican que la eficiencia de la conversión de los fotones en electrones sea superior al 90%, como me preguntaba Ces en mi blog.
Recomiendo leer a Rienk van Grondelle, Vladimir I. Novoderezhkin, «Photosynthesis: Quantum design for a light trap,» Nature 463: 614-615, 4 Feb 2010. El artículo técnico es Elisabetta Collini et al., «Coherently wired light-harvesting in photosynthetic marine algae at ambient temperature,» Nature 463: 644-647, 4 Feb 2010.
En resumen, espero haber contestado la pregunta de Ces de forma satisfactoria, aunque haya omitido muchos detalles técnicos. La fotosíntesis como proceso de conversión de energía solar en biomasa tiene una eficiencia máxima alrededor del 10%. El proceso fundamental que ocurre en la clorofila que permite la conversión de la energía de un fotón en la transferencia de un electrón tiene una eficiencia del orden del 50%. Y el proceso cuántico que tiene una eficiencia superior al 90% es el proceso de «hopping» por el que el fotón capturado en una molécula de clorofila recorre varias moléculas hasta llegar a la molécula de clorofila «P» que realiza la transferencia del electrón como tal.
Y esto es todo por hoy. Si te ha gustado la trancripción y quieres oír el podcast, sigue este enlace en Trending Ciencia.
Francis en Trending Ciencia: El entrelazamiento entre cubits de diamante
Disfruta de mi nuevo podcast para Trending Ciencia siguiendo este enlace. He elegido como tema para mi nuevo podcast sobre física una noticia sobre mecánica cuántica, en concreto, un nuevo récord de distancia en el entrelazamiento de dos cubits de estado sólido implementados mediante cristales de diamante (ya hablé de ello en este blog). El grupo de investigación del Prof. Ronald Hanson, de la Universidad Técnica de Delft, Países Bajos, ha publicado online en Nature el pasado 24 de abril un artículo cuyo primer autor es su estudiante de doctorado Hannes Bernien, que ya apareció en el servidor de preprints arxiv el 26 de diciembre del año pasado, en concreto, el artículo arxiv:1212.6136.
El artículo técnico es H. Bernien et al., “Heralded entanglement between solid-state qubits separated by three metres,” Nature, AOP 24 April 2013 [arXiv:1212.6136]. Recomiendo leer también a Richard Van Noorden, «Diamond shows promise for a quantum Internet. Crystal could be used to connect distant quantum networks,» Nature News, 24 Apr 2103.
Entrelazar cubits de estado sólido en distancias grandes es muy difícil pues se requiere un protocolo con una partícula que actúa como mediadora que recorra dicha distancia. Entrelazar dos cubits implementados con diamante en una distancia de 3 metros parece poco, pues esta distancia es muy pequeña comparada con los casi 200 km que se logran con cubits implementados con fotones, pero trabajar con cubits implementados con diamante es mucho más difícil.
Pero antes de discutir más sobre este logro, permíteme recordar qué es el entrelazamiento cuántico, qué son los cubits implementados en celdas de diamante y por qué son tan interesantes.
Entrelazan dos cubits de estado sólido en una distancia de tres metros
Entrelazar cubits de estado sólido en distancias grandes es difícil pues se requiere un protocolo con un mediador que recorra dicha distancia. H. Bernien (Universidad Técnica de Delft, Holanda) y sus colegas han logrado entrelazar dos cubits codificados en el espín de electrones en dos celdas de diamante utilizando fotones como mediadores. La gran ventaja de la implementación de cubits en estado sólido es la posibilidad de utilizar técnicas de nanotecnología (nanofabricación), lo que facilita la escalabilidad del diseño. Este logro allana el camino hacia el uso de cubits de estado sólido en la futura red de internet cuántica, routers cuánticos y protocolos de teletransporte cuántico. El artículo técnico es H. Bernien et al., «Heralded entanglement between solid-state qubits separated by three metres,» Nature, AOP 24 April 2013.
Un cubit se puede almacenar en el espín electrónico de un átomo de nitrógeno que actúe como defecto en una red cristalina de carbono (diamante). El espín electrónico permite representar los dos estados del cubit como |↑> y |↓> en los estados S=0 y S=1, resp., que pueden ser controlados de forma individual con pulsos de microondas. El uso de fotones como mediadores en el protocolo tiene el problema de que la eficiencia no es perfecta, hay pérdida de fotones y los detectores pueden fallar. Para reducir estos efectos Bernien y sus colegas han utilizado un sistema redundante de doble vuelta, utilizando dos fotones como mediadores que van y vienen entre los dos cubits en sendas rondas. El resultado es un protocolo robusto contra la pérdida de fotones.
Por cierto, un título más chic para esta entrada sería «La internet cuántica del futuro gracias a los chips de diamante,» en la línea de Richard Van Noorden, «Diamond shows promise for a quantum Internet. Crystal could be used to connect distant quantum networks,» Nature News, 24 Apr 2013, pero me ha parecido demasiado chic. Quizás los futuros ordenadores cuánticos utilicen cubits de estado sólido en cristales de diamante, es decir, sean «chips cuánticos de diamante,» pero, la verdad, me parece un poco sensacionalista decirlo.
Ya lo conté en «Un diamante, el mejor amigo de una mujer, especialmente si es ingeniera en ordenadores cuánticos.» Los cubits de diamante son muy prometedores desde que el año pasado se demostró que podían superar la decoherencia durante decenas de milisegundos y que podían permitir el desarrollo de memorias cuánticas capaces de retener un cubit durante un segundo («Gran avance en memorias cuánticas para almacenar cubits con el espín nuclear«). Pero, por supuesto, como siempre, sólo el tiempo dirá cuál es la tecnología ganadora que nos llevará hacia la internet cuántica del futuro y hacia los ordenadores cuánticas (ambas tecnologías no tienen por qué ser la misma).