Publicado en Nature: Una pena, pero el fraude salpica a investigadores del CSIC en un artículo publicado en Science

Ya lo contamos en este blog “el CSIC estaba investigando un posible fraude científico entre sus investigadores a petición de Science,” 7 enero 2010. El resultado de la investigación se publica hoy en Nature: el artículo no debería haber sido ni enviado ni publicado ya que los experimentos reportados en el artículo no fueron controlados adecuadamente. Todos los científicos firmantes del artículo deben compartir la responsabilidad por sus contenidos. Además, el comité del CSIC afirma que el proceso de revisión por pares que sufrió el artículo no fue adecuado (ya que se calificó el artículo como interdisciplinar y eso pudo influir en la decisión de su aceptación en la revista). El CSIC realizará una investigación disciplinaria de todos los científicos involucrados en el caso. El artículo fue firmado también por investigadores alemanes del centro Helmholtz. Ronald Frank, coordinador de dicho grupo, tomará medidas en una reunión que se celebrará el 11 de agosto. La revista Science todavía no ha tomado una decisión sobre si retractar o no el artículo. Pronto lo sabremos. Una pena que el fraude salpique a investigadores del CSIC y más aún en un artículo publicado en la prestigiosa Science. Nos lo ha contado Alison Abbott, “Retraction recommended for enzyme-chip paper. Reactome array study should not have been published, says ethics committee,” News, Nature 466: 540-541, 28 July 2010.

Os recuerdo brevemente el affair. Tras la publicación de un artículo en la revista Science liderado por bioquímicos españoles del CSIC y financiado por un proyecto europeo, algunos competidores expresaron serias dudas sobre las conclusiones del estudio y sobre posibles errores en la metodología utilizada. El artículo presentaba una nueva técnica para determinar el reactoma (las reacciones metabólicas de una célula) utilizando chips de ARN. El 17 de diciembre de 2009 el editor en jefe de la revista Science pidió al CSIC que investigara el caso. El CSIC constituyó un comité para estudiarlo. El comité ha concluido que hubo fraude.

La revista Nature ha tratado de contactar con los autores a cargo de la correspondencia relacionada con el artículo (los corresponding authors), Manuel Ferrer y Peter Golyshin, pero no ha logrado localizar a ninguno de los dos (o no se han dignado a realizar comentarios). Otros científicos involucrados en el trabajo han afirmado a Nature que creen que la metodología utilizada en el artículo es correcta y que podría funcionar. El presidente del comité ético del CSIC, Pere Puigdomènech, afirma que “solo pueden criticar la metodología científica del trabajo, les alegraría mucho que otros científicos de forma independiente pudieran validar las conclusiones de dicho trabajo.”

Me apena mucho que España y una institución tan importante como el CSIC sean salpicados por un caso de fraude como éste. Pero la ciencia hoy en día es muy competitiva y el fraude es algo con lo que han de lidiar todas las grandes instituciones científicas. Afortunadamente, el CSIC constituyó un comité y el comité ha cumplido su labor con excelencia. Me apena el resultado final, pero el CSIC lo ha hecho muy bien. Algo bueno hay que ver en todo esto…

El universo estacionario de Wun-Yi Shu

Tras mi largo comentario en la entrada de Kanijo, “Se abandona el Big Bang en un nuevo modelo del universo,” Ciencia Kanija, 28 Jul 2010, traducción del artículo de KentuckyFC, “Big Bang Abandoned in New Model of the Universe,” The Physics arXiv Blog, July 27, 2010, creo que debo añadir algo al respecto en mi propio blog, que para algo lo tengo, digo yo. Mi entrada será algo más técnica que mi comentario en el blog de Kanijo, así que a todos los que no sean físicos y buenos aficionados a la física les recomiendo que lean a Kanijo o si se atreven con el inglés a KentuckyFC. Por supuesto a los físicos les recomiendo que recurran directamente a las 33 páginas del preprint de Wun-Yi Shu, “Cosmological Models with No Big Bang,” ArXiv, Submitted on 11 Jul 2010.

Antes de nada y para no engañar a nadie hay que hacerse varias preguntas. ¿Cómo puede explicar una teoría de universo estacionario la existencia del fondo cósmico de microondas? ¿Cómo puede explicar la existencia de la era oscura antes de la formación de las primeras galaxias? ¿Puede un universo sin gran explosión oscilar eternamente e imitar todos los detalles de una gran explosión sin sufrir ninguna? Preguntas que Shu no responde y que seguramente los revisores de su artículo, si lo envía a alguna revista internacional, le harán (entre muchas otras). En mi opinión, el artículo está muy verde, pero todas las ideas empiezan estando muy verdes. Habrá que estar al tanto de como madura esta idea… si es que llega a madurar. Ahora os copiaré mi comentario en Ciencia Kanija aderezado de algunas fórmulas y algún que otro comentario. Espero no aburrir demasiado… no explicaré en detalle los símbolos, solo quiero que los lectores físicos de este blog vean lo que ofrece Shu para incentivarles a leer su artículo o a descartarlo directamente sin más. Cada uno que haga lo que estime oportuno.

El autor (Wun-Yi Shu) toma una métrica cosmológica estándar para el universo (Friedmann-Robertson-Walker o FRW) y sustituye la velocidad de la luz (c) por una función del tiempo cósmico, c(t). No discute las condiciones e hipótesis bajo las que dicha aproximación para la métrica del universo en su conjunto es obtenida, pero considera las tres posibilidades para el espacio: plano (curvatura nula), esférico (curvatura constante positiva) e hiperbólico (curvatura constante negativa).

Toma una distribución de materia y energía estándar como tensor de materia-energía-momento (usual para considerar que el contenido del universo es materia más radiación, dominadas por una de ellas según la época del universo considerada). Y las sustituye en las ecuaciones de Einstein para el universo. Para que todo funcione bien toma el cociente G/c², que es una constante en la teoría, como un cociente G(t)/c²(t), es decir, hacer variar la constante de gravitación universal de tal forma que compense cualquier variación posible de la luz y que dicha corrección no afecta a las ecuaciones de Einstein (que por cierto fueron derivadas suponiendo c constante y que por tanto con c=c(t) deberán presentar correcciones no relativistas que no han sido incorporadas en el modelo de Shu). Nótese que en las ecuaciones de Einstein aparece el cociente  G/(c²)², por lo que hacer el cociente G(t)/c²(t)=1 no impide que la teoría resultante tenga cierta dependencia respecto a c(t).

Seguidamente resuelve las ecuaciones de Einstein y obtiene dos ecuaciones diferenciales ordinarias para la evolución del radio del universo a(t) en función del tiempo cósmico y para la evolución de la velocidad de la luz c(t), que da automáticamente la variación de G(t). El problema es que estas ecuaciones no son de primer orden, como le gustaría (no es solo un problema de carácter estético ya que afecta mucho a las condiciones iniciales y a la causalidad en la teoría). Una de las ecuaciones es de segundo orden (la otra es de primer orden como es lo habitual). En estas ecuaciones la notación es la habitual en cosmología, por ejemplo, k es la curvatura constante del espacio (+1 para un universo esférico, -1 para uno hiperbólico y 0 para uno plano), etc.

¿Cómo resuelve este problemilla Shu? Muy fácil. Sin pensarlo dos veces se quita el problema de encima directamente. Impone una relación arbitraria y ad hoc entre la velocidad de la luz y el radio del universo. Esta relación, en mi opinión, es muy discutible. Shu la justifica aludiendo a reglas de medida de longitudes y a medidas de relojes pero sus argumentos son muy flojos y fácilmente rebatibles. Obviamente, ello da pie a que investigadores posteriores ofrezcan otro tipo de relaciones posibles. Volvamos a Shu.

Gracias a esta relación, resuelve la ecuación para el evolución del radio del universo a(t) y obtiene la ecuación para la evolución de la velocidad de la luz c(t). La velocidad de la luz se vuelve infinita para un universo plano o hiperbólico, luego el universo debe ser hiperbólico. Además, para t=0, la velocidad de la luz también se vuelve infinita, lo que según Shu. Pero él mismo se da cuenta que variar la velocidad de la luz es un gran problema, un resultado incompatible con nuestro conocimiento sobre la física de la luz a escala cósmica. Así que introduce un nuevo efecto, la constante de Planck h también varía con el tiempo h(t), de tal forma que compense el efecto de la variación de la velocidad de la luz sobre la energía de los fotones y la relación de Einstein entre energía y frecuencia de la luz. El resultado es que el universo se expande (su radio a(t) es función del tiempo cósmico) y que la velocidad de la luz c(t), la constante de gravitación universal G(t) y la constante de Planck h(t) deberían tener unos valores adecuados.

¿Adecuados para qué? Para explicar el comportamiento de la luz que proviene de las supernovas Ia que ha sido incorrectamente predicho como que corresponde a que el universo se expande de forma acelerada. Según Shu, su variación adecuada de las 3 constantes fundamentales permite explicar las curvas de luminosidad de las supernovas Ia sin necesidad de recurrir a una expansión acelerada y por tanto sin necesidad de energía oscura. Esta gráfica ilustra su buen ajuste de los datos de estas supernovas.

¿Se expande el universo en su teoría? Sí y no, es cuestión de gustos. El radio del universo podría ser constante (toda la expansión observada del universo se absorbe con las variaciones de c(t), h(t) y G(t)). O el universo podría estar expandiéndose (y las variaciones de c(t),… solo afectan a la actual aceleración de la expansión). O incluso el universo podría estar contrayéndose. Basta tomar valores adecuados de los grados de libertad de la teoría para considerar todas estas posibilidades.

¿Qué pasa con el origen del tiempo y con la Gran Explosión? Para el tiempo t=0 la velocidad de la luz es infinita y decae conforme pasa el tiempo hasta el valor actual. Pero según Shu esta singularidad es ficticia, puramente matemática, y no corresponde a la Gran Explosión (la curvatura del universo no es infinita en t=0). El momento t=0 puede ser elegido arbitrariamente (el universo es eterno). El origen de tiempo, según él, es arbitrario por lo que contradice la teoría de la Gran Explosión y su universo es un universo estacionario y eterno. Eso sí, no hay problema si quiere tener en cuenta parte de la expansión del universo ya que su universo puede tener un radio constante o puede tener un radio oscilatorio con fases de expansión y contracción (lo que más gusta a Shu para no meterse en camisa de once varas), pero siempre con curvatura acotada del espaciotiempo (sin singularidad u origen del universo). Además, el espacio debe ser esférico, curvatura positiva, ya que si es hiperbólico (curvatura negativa) o plano (como indican los datos cosmológicos) resulta que el radio a(t) explota (blow up) y se vuelve infinito (en un tiempo finito), es decir, sufre una expansión acelerada continua.

En resumen. Ideas muy especulativas. Curiosas, quizás, pero que difícilmente pasarán el corte de los experimentos. Variar c(t), h(t) y G(t) y pretender que no se ve afectada en nada la física del universo salvo el corrimiento de la luz que proviene de las supervonas Ia es olvidar demasiados hechos experimentales.

Entrelazar una partícula con una memoria cuántica permite medir su posición y velocidad con mayor precisión de la permitida por el principio de incertidumbre de Heisenberg

El principio de incertidumbre de Heisenberg afirma que la medida simultánea de dos propiedades complementarias (como la posición y la velocidad) está sujeta a un error imposible de mejorar (Δx·Δp≥h/(4π)). Conocer muy bien  una de ellas es conocer muy mal la otra. Si  entrelazamos la partícula con una memoria cuántica podemos medir ambas propiedades complementarias con una precisión mayor que la permitida por el principio de incertidumbre, limitada ahora solo por el grado de entrelazamiento. La memoria cuántica incrementa su entropía permitiendo que la incertidumbre en ambas magnitudes complementarias se reduzca sin límite. Este resultado fue conjeturado en un artículo publicado en PRL en 2009 y ahora se demuestra en un artículo teórico publicado en Nature Physics. Los autores creen que en unos años se podrá verificar su predicción de forma experimental gracias a los avances en memorias cuánticas. La teoría de la información cuántica revoluciona nuestra comprensión íntima de la mecánica cuántica y el entrelazamiento (entanglement) se nos revele más sutil cada día que pasa. El nuevo trabajo teórico de físicos de la Universidad de Ludwig-Maximilians, Munich, Alemania, y del ETH de Zürich, Suiza, podría tener aplicaciones en criptografía cuántica para el cifrado seguro de mensajes. El artículo técnico es Mario Berta, Matthias Christand, Roger Colbeck, Joseph M. Renes, Renato Renner, “The uncertainty principle in the presence of quantum memory,” Nature Physics, Published online: 25 July 2010 (la demostración del teorema aparece en la información suplementaria) y el artículo está disponible gratis en ArXiv. La conjetura se presentó en Joseph M. Renes, Jean-Christian Boileau, “Conjectured Strong Complementary Information Tradeoff,” Phys. Rev. Lett. 103: 020402, 2009 [ArXiv]. Se han hecho eco del artículo varios medios como “More accurate than Heisenberg allows? – Uncertainty in the presence of a quantum memory,” AlphaGalileo, 27 de julio de 2010; “More Accurate Than Heisenberg Allows? Uncertainty in the Presence of a Quantum Memory,” ScienceDaily, July 27, 2010;  “Position and momentum can be predicted more precisely than Heisenberg’s Uncertainty Principle and Provide a Measurement of Entanglement,” Next Big Future, July 28, 2010.

El protocolo de medida más allá del principio de incertidumbre es el siguiente. (1) Bob envía una partícula a Alicia que ha sido entrelazada con una memoria cuántica. (2) Alicia puede medir cualquiera de las dos propiedades complementarias R o S y anotar el resultado. (3) Alicia anuncia su medida a Bob por un canal clásico. La nueva relación de incertidumbre afirma que gracias a la repetición de este protocolo Bob puede llegar a conocer los valores de ambas propiedades complementarias R y S con mayor precisión que la permitida por el principio de incertidumbre de Heisenberg, limitado solo por el grado de entrelazamiento entre la partícula y la memoria cuántica. A priori este grado de entrelazamiento puede ser arbitrario, ya que no se conoce ninguna ley física que lo limite. Lo más interesante de este resultado no es obtener medidas más precisas de variables complementarias sino que este protocolo permite medir experimentalmente el grado de entrelazamiento entre la partícula y la memoria cuántica, algo que tendrá mucha utilidad en computación cuántica.

Aclaración para todos: El principio de incertidumbre de Heisenberg es el principio fundamental de la mecánica cuántica y desempeña un papel central en computación cuántica, ya que establece un límite a la precisión con la que se puede determinar el estado cuántico de un sistema. La mecánica cuántica nos dice que la medida de un parámetro (posición o velocidad) puede perturbar el propio estado de la partícula. Si hubiera que medir la posición de una partícula con precisión infinita, no se sabría nada sobre su momento (velocidad). La criptografía cuántica utiliza este tipo de efectos para cifrar datos. Se entrelazan (correlacionan) dos partículas cuánticas de forma que la medición de cierta propiedad en una de ellas determina de el valor de dicha propiedad en la otra. Cualquier observación por un intruso de dicho estado lo altera y se puede detectar su presencia.

Los investigadores han demostrado que el resultado de una medición sobre una partícula cuántica se puede predecir con mayor exactitud si la información sobre la partícula está disponible en una memoria cuántica. La nueva versión del Principio de Incertidumbre tiene en cuenta el efecto de una memoria cuántica. Cuando la partícula está altamente entrelazada con la memoria cuántica, esta acapara parte de la incertidumbre y relaja la incertidumbre entre la posición y el momento propios de la partícula. El desorden o la incertidumbre en el estado de la partícula depende de la información almacenada en la memoria cuántica. Según los autores del artículo es como observar un montón de papeles sobre una mesa de escritorio. Con frecuencia parecen estar completamente desordenados, salvo para la persona que los puso cada uno en su lugar.

Lo más importante del nuevo resultado es que permite medir el grado de entrelazamiento entre una partícula y una memoria cuántica. Pero también tiene otras aplicaciones. Por ejemplo, se podría usar para poner a prueba la seguridad de los sistemas criptográficos cuánticos actuales ya que están limitados por el Principio de Incertidumbre de Heisenberg y el nuevo resultado permite estudiarlos más allá de lo permitido por dicho principio.

Sobre la figura: La figura que abre esta entrada está compuesta a partir de las presentadas en la charla impartida en el Caltech sobre el artículo de Mario Berta et al.

Aclaración solo para físicos: El principio de incertidumbre de Heinserberg restringe el conocimiento que un observador puede obtener de las propiedades de un sistema físico. Esta restricción en nuestro conocmiento se suele cuantificar utilizando las desviaciones estándares. Para el observable R se tiene que \Delta R = \sqrt{\langle R^2 \rangle - \langle R \rangle^2 }, donde \langle R\rangle es el valor esperado en la medida de R. Para dos observables complementarios, sean R y S, el principio de Heisenberg se escribe en función de su conmutador como

\Delta R \cdot\Delta S\geq\frac{1}{2}|\langle[R,S]\rangle|.

La teoría de la información (cuántica) permite escribir este resultado en función de la entropía de Shannon de la siguiente forma

H(R)+H(S)\geq \log_2 \frac{1}{c},

donde H(R) es la entropía de Shannon de la distribución de probabilidad de los resultados de la medida de R. El término {1}/{c} cuantifica el grado de complementaridad entre los observables de la misma forma que lo hace el conmutador de los operadores. En el caso de observables no degenerados c = \max_{j, k} |\langle{\psi_j}|{\phi_k}\rangle|^2, donde |{\psi_j}\rangle y |{\phi_k}\rangle son los autovectores asociados a los observables R y S, respectivamente.

El juego de la incertidumbre ilustra esta relación de indeterminación. Los dos jugadores son Alicia y Bob. Antes de empezar a jugar, Alicia y Bob están de acuerdo en medir dos observables complementarios, R y S. Durante el juego, Bob crea un estado cuántico a su elección y se lo envía a Alicia. Alicia a continuación realiza una de las dos medidas posibles y anuncia su elección a Bob. La tarea de Bob es tratar de reducir al mínimo su incertidumbre sobre el resultado de la medición de Alicia. Ver la figura que abre esta entrada. La ecuación anterior acota la incertidumbre de Bob en el caso de que no posea una memoria cuántica.

Bob puede mejorar su incertidumbre si utiliza una memoria cuántica. Más aún, en el caso de que el entrelazamiento entre esta memoria y el estado que recibe de Alicia sea máximo, puede reducir la incertidumbre hasta cero (sin límite ínfimo) para ambos observables complementarios. Sea cual sea la medida elegida por Alicia, hay una medida en la memoria cuántica de Bob que da el mismo resultado que Alicia ha obtenido, de tal forma que las incertidumbrs de los observables H(R) y H(S) se anulan, violando el principio de incertidumbre de Heisenberg. En general, Bob no podrá lograr que el entrelazamiento entre su memoria cuántica y el estado enviado por Alicia sea máximo. Aún así, la presencia de la memoria cuántica cambia la desigualdad sobre las incertidumbres de las medidas de tal forma que incorpora un término que dependerá de la cantidad de entrelazamiento entre el sistema A y la memoria cuántica B. El resultado (previamente conjeturado y ahora ya demostrado) es

H(R|B)+H(S|B)\geq\log_2\frac{1}{c}+H(A|B).

La incertidumbre de Bob sobre el resultado de la medida de R se denota mediante la entropía condicional de von Neumann H(R|B), que generaliza la entropía de Shannon H(R) al caso en el que Bob tiene una memoria cuántica B. Lo mismo ocurre para el observable S. Técnicamente la entropía condicional de von Neumann está dada por

$latex  (\sum_j |{\psi_j}\rangle\langle{\psi_j}|\otimes\openone) \rho_{AB} (\sum_j |{\psi_j}\rangle\langle{\psi_j}|\otimes\openone)$,

donde \rho_{AB} es el estado conjunto del sistema y de la memoria y |{\psi_j}\rangle son los autovectores del observable R

El término adicional en el miembro derecho de la nueva desigualdad, H(A|B), cuantifica el grado de entrelazamiento entre el sistema y la memoria.

El artículo técnico discute varias circunstancias que paso a enumerar.

[1] Si el estado del sistema A y el de la memoria B están entrelazados de forma máxima, entonces H(A|B)=-\log_2 d, donde d es la dimensión del sistema enviado a Alicia (nota que H(A|B) tiene un valor negativo). Como \log_2\frac{1}{c} no puede ser mayor que \log_2 d, la nueva relación de incertidumbre se reduce a H(R|B)+H(S|B)\geq 0, una relación trivial ya que la entropía condicional del sistema tras la maedida no puede ser negativa. En este caso Bob puede conocer con exactitud perfecta los valores de los dos observables complementarios (violando la desigualdad de Heisenberg).

[2] Si el sistema A y la memoria B no están entrelazados, entonces H(A|B)\geq 0. Como H(R|B) \leq H(R) y H(S|B) \leq H(S), para todos los estados, la nueva relación de incertidumbre se reduce a la relación de indeterminación de Heisenberg convencional.

[3] Si Bob no tiene una memoria cuántica, la nueva relación de incertidumbre se reduce a H(R)+H(S)\geq\log_2\frac{1}{c}+H(A). Si el estado del sistema es un estado puro, entonces H(A)=0 y obtenemos la relación de incertidumbre de Heisenberg. Sin embargo, si el sitema está en un estado mezcla, entonces H(A)>0 y el resultado es una relación de incertidumbre más fuerte que la relación de Heisenberg. Este resultado es bien conocido en mecánica cuántica y no es novedoso.

[4] El caso más interesando es cuando el sistema y la memoria están entrelazados, pero no de forma máxima. En dicho caso, la entropía condicional H(A|B) puede ser utilizada como medida para cuantificar el grado de entrelazamiento entre el sistema y la memoria. El nuevo resultado tiene una aplicación muy importante en el futuro desarrollo de la computación cuántica, posibilitando la medida del grado de entrelazamiento entre sistemas de cubits. Además, puede tener aplicaciones en cifrado cuántico. El artículo técnico discute con cierto detalle su aplicación al protocolo de distribución de claves cuánticas BB84. No entraré en más detalles técnicos que nos alejarían del objetivo divulgativo de esta entrada.

Por supuesto, recomiendo la lectura del artículo técnico a todos los físicos, a los que espero haber dejado buen sabor de boca con esta incursión técnica.