El bosón de Higgs tiene una masa de 120,7 GeV según predice el físico teórico John Ellis

Dibujo20090901_Higgs_boson_mass_limits_SUSY_from_Ellis_paper

Los aficionados a Punset y Redes conocen bien a John Ellis, experto del CERN en supersimetría (SUSY), que está escribiendo una serie de artículos muy interesantes en los que utiliza los mejores datos experimentales disponibles para predecir teóricamente lo que el LHC descubrirá en los próximos años utilizando diversas teorías. Su último artículo realiza una predicción espectacular: el bosón de Higgs supersimétrico de menor masa tiene unos 120,7 GeV/c2, justo un poquito más del mejor límite inferior de su masa 114,4 GeV/c2 según el LEP2. De confirmarse esta predicción teórica, el LHC del CERN encontraría esta partícula con relativa facilidad en un par de años. Nos lo cuenta magistralmente Tommaso Dorigo, tras su retorno de vacaciones, en «The Higgs Mass ? 120 GeV, SUSY Says,» A Quantum Diaries Survivor, August 24th 2009. El artículo técnico es O. Buchmueller et al. «Likelihood Functions for Supersymmetric Observables in Frequentist Analyses of the CMSSM and NUHM1,» ArXiv, July 31st, 2009, y tiene entre sus autores, además de John Ellis, a otro de los grandes expertos en SUSY, Sven Heinemeyer, y a expertos experimentales como Albert De Roeck y Henning Flächer. Un elenco de autores que garantiza que este artículo no es «moco de pavo.» Más aún, el artículo está muy bien escrito y se lee bastante fácil, con lo que si eres físico (aunque no seas teórico) disfrutarás mucho con su lectura. Para los demás, trataré de no ser muy técnico en esta entrada.

La supersimetría y el Modelo Estándar se pueden «pegar» de muchas formas. La más sencilla es el Modelo Minimal SuperSimétrico (MSSM). Es tan sencilla que tiene un grave problema. Predice que el bosón de Higgs de menor masa (predice 5) debe tener una masa similar a los bosones vectoriales intermedios W y Z de la teoría electrodébil (unos 80 GeV). La Naturaleza es sutíl. Dicho bosón de Higgs no ha sido encontrado. Los límites experimentales indican que el bosón de Higgs, de existir, tiene una masa superior a 114,4 GeV. El «pegado» de dos teorías puede ser «natural» o «forzado.» Si forzamos la máquina matemática de la supersimetría podemos hacer crecer la masa del bosón de Higgs más ligero de la teoría MSSM. ¿Hasta qué límite? Quizás, sin límite. Las retorcidas mentes de los teóricos son así.

Según John Ellis y sus colaboradores, una variante de la supersimetría mínima, llamada CMSSM (C por constrained), predice un valor justo por debajo del límite experimental (un límite extremadamente fiable). La figura que abre esta entrada, izquierda, ilustra el resultado. Casi con completa seguridad esta variante no es el modelo supersimétrico correcto de la Naturaleza.

Pero los físicos teóricos tienen muchas bazas escondidas debajo de su manga. Hay variantes «menos» naturales del modelo MSSM que predicen masas más altas para el bosón de Higgs más ligero. John Ellis y colaboradores consideran el modelo NUHM1 (Non-Universal Higgs Mass). Utilizando dicha variante se obtiene el lado derecho de la figura que abre esta entrada. El valor más probable para la masa del bosón de Higgs más ligero, como indica el título de esta entrada, es de 120,7 GeV. Un valor que abre las expectativas de todos los físicos experimentales, tanto del Tevatrón, que lo están rozando con los dedos, como del futuro LHC del CERN, que podrá detectarlo en sus primeros años de funcionamiento.

El artículo de John Ellis y colaboradores también ofrece estimaciones de la masa de otras partículas supersimétricas, entre ellas, el neutralino más ligero, el mejor candidato para la materia oscura según muchos investigadores. El mejor valor ajustado para su masa es de 120 GeV en ambos modelos teóricos (CMSSM y NUHM1) dado que sus diferencias básicamente afectan al sector del Higgs. Un neutralino con una masa fácilmente alcanzable por el LHC incluso en sus primeros meses de funcionamiento. Una gran alegría para los físicos experimentales. Detectar la supersimetría en los primeros meses de funcionamiento del LHC del CERN, incluso con una energía en el centro de masas relativamente baja, será sin duda uno de los grandes éxitos de la física de partícula elementales del próximo año.

Tanto optimismo teórico nos hace preguntarnos: ¿Estarán sesgados los datos del artículo para darle una alegría a los físicos del CERN? Aparentemente, no, aunque no soy experto, el trabajo parece ser muy riguroso. Eso sí, considerar sólo dos variantes de la supersimetría (entre la «infinidad» que han sido publicadas), supone un sesgo teórico más que evidente.

¿Qué se puede sacar en claro de este estudio y otros similares (como éste de unos días antes)? Por un lado, que los teóricos supersimétricos son optimistas por naturaleza. Por otro lado, que los teóricos pueden «estirar» sus predicciones supersimétricas para alcanzar casi cualquier valor posible para la masa de las superpartículas y del Higgs. Descubra lo que descubra el LHC del CERN, SUSY nos acompañará durante todo el s. XXI. Eso sí, conforme pasa el tiempo «ligar» el modelo estándar con la SUSY es cada día más difícil.

Francis se tomará un descansito de 10 días por tierras allende los mares

Es curioso, este mes ha sido el más visitado de este blog (muchas portadas en Menéame, noticias en Microsiervos, …). Entre las 10 entradas más visitadas en la corta historia de este blog, 1 es de este mes y 2 del mes pasado. Si en junio y julio el promedio de visitas (según las Estadísticas de wordpress.com) fue de 2215 y 2249, este mes (quedan 10 días) ya va por 3817 (el promedio bajará bastante a final de mes). Este mes ya hay 60 entradas (sin ésta), más que en junio (56) o julio (52).

Así que es hora de tomarse un descansito. Aprovechando que tengo que viajar por trabajo he decidido no tocar el blog (no me van a dejar pues tengo una agenda muy apretada).

¡Hasta septiembre!

Transición de fase cuántica de superfluido a un estado de Mott observada en un condensado de Bose-Einstein en una red óptica

Dibujo20090819_Mott_insulating_state_observed_in_Bose_Einstein_condensate_loaded_on_optical_lattice

Las transiciones de fase cuánticas están relacionadas con la superconductividad de alta temperatura pero son muy difíciles de estudiar experimentalmente. Normalmente presentan múltiples fases cuánticas simultáneamente lo que complica mucho la interpretación de las medidas experimentales. Los condensados de Bose-Einstein (BEC) son ideales para estudiarlas pero se requiere una técnica que retenga el condensado durante las medidas. Las redes ópticas son ideales para ello ya que permiten retener los átomos ultrafríos mientras se realizan medidas sobre sus propiedades cuánticas, como han demostrado Nathan Gemelke et al. en Nature en un artículo en el que presentan la observación de la transición cuántica del BEC entre un estado superfluido y una fase de tipo Mott (muy importante en el estudio de superconductores). El artículo técnico es Nathan Gemelke, Xibo Zhang, Chen-Lung Hung, Cheng Chin, «In situ observation of incompressible Mott-insulating domains in ultracold atomic gases,» Nature 460: 995-998, 20 August 2009 [ArXiv preprint].

La observación de la transición de fase cuántica (las transiciones de fase que pueden ocurrir incluso a temperatura cero) entre un estado de superfluido y un estado aislante de Mott se obervó por primera vez en 2002 (publicado en Nature). Desafortunadamente su estudio en detalle es muy difícil porque en la muestra se mezclan múltiples fases cuánticas lo que complica la interpretación de las medidas. Gemelke et al. han logrado resolver ópticamente la estructura espacial del condensado de Bose-Einstein (BEC) durante la transición de fase, lo que permite estudiar en detalle todas sus propiedades, incluyendo la medida directa de la temperatura finita de sistema. Han utilizado un BEC de átomos de cesio que han comprimido verticalmente para que se acople a la red óptica. Los resultados experimentales verifican varios resultados teóricos previos sobre la estructura general de la transición mostrando detalles más allá de la teoría que requerirán avances teóricos futuros.

Observada la película de la recombinación de un solo electrón gracias a la interferometría de doble rendija

Dibujo20090819_Harmonic_phase_interferometry_of_molecular_orbitals_during_electron_recombination

Parece increíble, pero se ha podido observar la dinámica de la recombinación de un electrón gracias a la interferometría de alto armónico que alcanza una resolución espacial por debajo del Angström y temporal del orden de los attosegundos (10−18 s.). Es como ver una película a cámara lenta que muestra la dinámica (cuántica) de un solo electrón cuando se ioniza una molécula de CO2. Un láser intenso incide sobre la molécula, el electrón salta dejando un hueco y luego retorna a ella (recombinación). Un movimiento ultrarrápido que se ha observado por primera vez. Al filo de lo imposible. Nos lo cuenta Marc Vrakking, «Electronic movies,» Nature 460: 960-961, 20 August 2009, haciéndose eco del artículo técnico Olga Smirnova et al., «High harmonic interferometry of multi-electron dynamics in molecules,» Nature 460: 972-977, 20 August 2009 (la información suplementaria merece la pena leerse).

La nueva técnica permite ver la dinámica de moléculas como si se enfocara una cámara CCD microscópica (en el dispositivo experimental se usa una para grabar la película de las bandas de inteferencia producidas por el interferómetro que permiten observar la dinámica en tiempo real). Los autores han sido capaces de «ver» los orbitales de la molécula que intervienen en el proceso «íntimo» de la recombinación del electrón. En concreto han observado tres orbitales y tres estados del ión. Variando la polarización de los láseres utilizados en el interferómetro varían la contribución de cada orbital en las franjas observadas, por lo que pueden reconstruir experimentalmente la forma de dichos orbitales y su contribución al proceso. El proceso les ha permitido ver cómo afecta el hueco que se crea cuando salta el electrón en los orbitales de la molécula. 

La nueva técnica se podría bautizar como microscopio multielectrónico por interferometría de alto armónico. Un gran avance en attofotónica un campo extremadamente activo con un gran número de grupos de investigación por todo el mundo que acabará conduciendo a gran número de avances en nuestra comprensión de muchos fenómenos que ocurren demasiado rápido.

El mejor límite teórico para el fondo cósmico de ondas gravitatorias indica que ni LIGO ni Virgo pueden observarlo

Dibujo20090819_LIGO_sensibility_vs_new_limit_for_gravitational_wave_stochastic_background

Científicos de los detectores terrestres de ondas gravitatorias LIGO y Virgo publican hoy en Nature el mejor límite teórico para la contribución energética del fondo cósmico de ondas gravitatorias, las generadas en los inicios de la Gran Explosión (Big Bang), a la energía total del universo. En concreto, ΩGW < 7×10-6 en la banda de frecuencias de los 100 Hz que puede ser explorada por LIGO (Laser Interferometer Gravitational wave Observatory). Un límite que es un orden de magnitud más bajo de lo que se había estimado con anterioridad. Para que LIGO pudiera detectar estas ondas gravitatorias su sensibilidad debería alcanzar h < 4×10-23 en el rango de frecuencias de 40–170 Hz, un orden de magnitud más sensible de lo que se puede alcanzar en la actualidad (3×10-22). Ni LIGO ni Virgo podrán detectar este ondas gravitatorias. Habrá que esperar a LIGO Avanzado (se espera para 2014) o al detector espacial LISA (Laser Interferometer Space Antenna) que podrán observar contribuciones a ΩGW del orden de 10-9. Nos lo cuenta Marc Kamionkowski (Caltech, EEUU) «Gravity ripples chased,» Nature 460: 964-965, 20 August 2009, haciéndose eco del artículo técnico The LIGO Scientific Collaboration & The Virgo Collaboration, «An upper limit on the stochastic gravitational-wave background of cosmological origin,» Nature 460: 990-994, 20 August 2009.

La detección de ondas gravitatorias no sólo ratificará la teoría de Einstein de la gravedad sino que nos permitirá observar los primeros instantes de la Gran Explosión (Big Bang) ya que pueden atravesar regiones del espacio que son opacas para la radiación electromagnética. Todavía no han sido detectadas, pero cuando se logre, permitirán estudiar múltiples procesos físicos como la inflación (crecimiento exponencial del espacio tiempo cuando el universo tenía 10-38 segundos), la transición de fase electrodébil (a los 10-11 segundos), y otros fenómenos menos conocidos como las cuerdas cósmicas, otros defectos topológicos, o la posible compactificación de dimensiones predicha de la teoría de cuerdas.

Buenas noticias para los que trabajan en LISA, LIGO Avanzado y los demás detectores de la red de interferometría global para el estudio de ondas gravitatorias. Un lustro pasa muy pronto. Todo apunta a que todos asistiremos al análisis y estudio del fondo cósmico de ondas gravitatorias. Los físicos teóricos de cuerdas, entre otros, podrán comprobar de primera mano si sus ideas describen correctamente la Gran Explosión.

Lecturas veraniegas: «El efecto carambola»

Dibujo20090819_James_Burke_book_the_pinball_effect_spanish_coverJames Burke, autor de «El efecto carambola,» Editorial Planeta, 1998, cuyo título original es «The pinball effect,» es un libro de anécdotas enlazadas por el flujo de la historia. Referencias cruzadas a inventos e inventores (muchos de ellos de corte científico-técnico, pero no todos). Si te gustan las anécdotas y/o la historia, te resultará una lectura veraniega ideal ya que puedes empezarlo por cualquier página sin perder el hilo y retomarlo por donde quieras. Cada párrafo cuenta una historia que viene del párrafo anterior y se enlaza con el párrafo siguiente. El autor ha añadido la «pijotada» de que en ciertos lugares se puede saltar de un página a otra (recomendaciones del autor). Yo lo he leído de principio a fin, obviando dicho detalle.

Cierto es que también tiene sus defectos. Tras leerte veinte páginas seguidas ya se te han olvidado las primeras anécdotas que has leído, salvo que te hayan llamado mucho la atención. Más aún, a veces resulta un poco mareante, con tanto salto en el tiempo hacia adelante y hacia atrás, a veces pierdes el «reloj del tiempo» y ya no sabes ni en que año estás.

Sin embargo, como ya es habitual en muchos libros traducidos al español, el mayor defecto del libro es la traducción. Pésima. Realizada por dos profesionales de la traducción cuyo nombre prefiero omitir no se entiende cómo lo han podido hacer tan mal. No sólo no conocen el lenguaje técnico habitual en España (cambian muchos términos «a su gusto»), sino que además parece que tampoco conocen el español (algunas frases están mal construidas sintácticamente). Estoy seguro de que Burke ha cuidado mucho la sintaxis en inglés, pero los traductores no han sabido estar a la altura. Los que leemos este tipo de libros como «lectura rápida» necesitamos que el libro esté bien escrito gramatical y sintácticamente. Encontrar frases ininteligibles, así como términos que requieren su traducción al inglés y su retraducción al español para poderlos entender, nos dificulta mucho la lectura.

¿Cómo es posible una traducción tan mala? Debe ser que los traductores pertenecen a la escuela de traducción española que afirmó que HAL en «2001: una odisea en el espacio» era un ordenador de «silicona» (en lugar de silicio). Por ejemplo, afirman que el secreto de los semiconductores son los «orificios» (en lugar de los huecos). ¿Qué es una «década» del ENIAC? ¿Qué significa que un invento ha alcanzado su «esencia»? ¿De dónde sacan que la traducción de la S de LASER es «simulada» cuando a pie de página escriben «stimulated»? ¿Qué es un «abanico de turbina» en un carburador? Y así podría poner muchísimos más ejemplos… Una pena.

La tercera revolución de la teoría de cuerdas para celebrar las bodas de plata (25 años) de la primera

Dibujo20090819_M_theory_dualities

Dualidades entre teoría de cuerdas y teoría M.

Los análisis bibliométricos del ISI Web of Science parecen indicar que, con 4 artículos entre los 10 más candentes en física en 2009, la teoría de cuerdas está viviendo su tercera revolución gracias a la teoría de M2-branas de Bagger-Lambert. La segunda revolución, la de la dualidad, resaltó la importancia de la teoría M, pero sólo logró que entendiéramos muy bien las D-branas. La tercera revolución parece que tiene por objeto entender bien las M-branas, de las que prácticamente no se sabía nada antes de la teoría de Bagger-Lambert. Curiosa manera tienen los físicos de cuerdas de celebrar las bodas de plata de su primera revolución. Fuente: Simon Mitton, «Is This the Third Revolution for String Theory?,» en «HAT’S HOT IN… PHYSICS, March/April 2009,» del Thomson/Reuters ISI Science Watch. Los Hot Papers son los artículos que más rápidamente están siendo citados en el ISI Web of Science. Entre los 10 hot papers de Física en 2009, los 4 sobre teoría de cuerdas están en los puestos #4, #6, #9, y #10, y todos describen propiedades de las M2-branas. Hacía 10 años (desde la segunda revolución de la teoría de cuerdas) que no ocurría algo así. ¿Estamos viviendo la tercera revolución de la teoría de cuerdas?

¿Teoría M qué es eso? Una presentación muy digerible en Carmen Núñez, «¿QUE ES LA TEORIA M?,» IFT, UAM, 2007.

¿Ávido de tecnicismos? Para conocer la tercera revolución de la teoría de cuerdas los artículos técnicos que hay que leer son J. Bagger, N. Lambert, «Gauge symmetry and supersymmetry of multiple M2-branes,» Phys. Rev. D 77: 065008, 15 March 2008 [ArXiv], J. Bagger, N. Lambert, «Comments on multiple M2-branes,» J. High Energy Phys. 2: 105, February 2008 [ArXiv], P.M. Ho, Y. Imamura, Y. Matsuo, «M2 to D2 revisited,» J. High Energy Phys. 7: 003, July 2008 [ArXiv], y J. Distler, et al., «M2-branes on M-folds,» J. High Energy Phys. 5: 38, May 2008 [ArXiv]. Un par de artículos que deberían estar en esta lista pero que sorprendentemente no lo están son A. Gustavsson, «Algebraic structures on parallel M2-branes,» Nucl. Phys. B 811: 66-76, 11 April 2009 [ArXiv] y A. Gustavsson, «Selfdual strings and loop space Nahm equations,» JHEP 0804: 083, 2008 [ArXiv]. Los que prefieran leer un artículo review para irse haciendo una idea, aunque no hay ninguno todavía con todos los avances más recientes, recomiendo D.S. Berman, «M-theory branes and their interactions,» Phys. Rept. 456: 89-126, 2008 [ArXiv].

Os recuerdo. La segunda revolución de la teoría de cuerdas nos mostró que las dualidades (ciertas simetrías entre diferentes teorías de cuerdas) indicaban que sólo había una única teoría (que incluye entre ellas a la supergravedad en 11 dimensiones). A dicha teoría global empezó a llamársele teoría M. Los objetos fundamentales en dicha teoría, aparte de las cuerdas (unidimensionales), son membranas (bidimensionales) y objetos de mayor dimensión llamados p-branas (de p dimensiones). Uno de los grandes éxitos de la teoría M fue el descubrimiento de las D-branas (D por Dirichlet) que son los objetos en los que terminan los extremos de las cuerdas abiertas. El universo que conocemos podría ser una D3-brana flotando en un universo de 11 dimensiones.

Dibujo20090819_M2_brane_and_transverse_geommetry_using_Chern_Simons_theory

M2-brana y su geometría transversal.

La tercera revolución de la teoría de cuerdas parece que se centra en el descubrimiento de las propiedades de las M-branas, las p-branas que no son D-branas. Como ya hemos dicho, estas últimas se entienden muy bien y son la clave de los progresos en teoría de cuerdas en la última década. Pero hay que entender las primeras si queremos seguir adelante. Como afirman Jonathan Bagger (Universidad Johns Hopkins) y Neil Lambert (King’s College, Londres) en el primer artículo de más arriba, las «M-branas son objetos misteriosos y prácticamente no se sabe nada sobre su dinámica subyacente.» La teoría de Bagger-Lambert estudia las interacciones entre múltiples M2-branas cuyos extremos están sujetos a una M5-brana (membrana en 5 dimensiones). Un artículo muy matemático que ha logrado construir un formalismo lagrangiano consistente con las simetrías de las M2-branas. Entrevista a Bagger y Lambert en Science Watch y análisis bibliométrico de la teoría de Bagger-Lambert.

Mientras el «circo de la teoría de cuerdas sigue en la ciudad,» muchos físicos están bastante escépticos respecto a la teoría de cuerdas. La historia nos enseña que las grandes revoluciones requieren un esfuerzo enorme desarrollado durante décadas. La teoría de cuerdas todavía es joven.

Hace 25 años, en agosto, se inició la primera revolución de la teoría de cuerdas, de manos de Michael Green y John Schwarz en un workshop celebrado en Aspen, Colorado, EE.UU. Un año mágico para muchos, 1984. Edward Witten encendió la mecha de la bomba y se convirtió en su artificiero mayor… mucho ha cambiado desde entonces la teoría de cuerdas. Zvi Bern, autor de lo más importante en física teórica este año, el descubrimiento de que la supergravedad N=8 en 4D es finita hasta cuarto orden, afirma que la creencia en que la teoría de cuerdas es el único camino para superar las divergencias en las teorías cuánticas de la gravedad es como afirmar que las úlceras son causadas por la comida picante. Hoy sabemos que la causa son ciertas bacterias. El propio John Schwarz lo afirmó recientemente «a veces nuestro conocimiento ha sido incompleto y hemos hecho afirmaciones que no son correctas, como que la teoría de cuerdas es la única posibilidad» (“At certain points, our understanding has been incomplete, and we may have said things that weren’t right. That being said, the fact is that we still need string theory”). Se sorprende Peter Woit de que hace 5 años todo el mundo hablara de los 20 años (bodas de porcelana) de la primera revolución de la teoría de cuerdas y ahora todo el mundo calla como una tumba en «25 Years On…,» Not Even Wrong, August 6th, 2009. 

¿Cuál es el estado actual de la teoría de cuerdas? Peter Woit nos lo resume con una anécdota que aparece en el reciente artículo «How Far Are We from the Quantum Theory of Gravity?,» de R. P. Woodard, Universidad de Florida (ArXiv, 24 Jul 2009; artículo invitado que se publicará en Reports on Progress in Physics). Cuenta que la primera frase de Charles Thorn en un seminario en 2007 fue «La teoría de cuerdas es sólo una técnica para sumar los primeros términos del desarrollo en 1/N de la cromodinámica cuántica» (N es el número de colores). Más aún, Woodard consultó a muchísimos especialistas en física de cuerdas sobre su opinión al respecto y casi la mitad estaban de acuerdo. 

«String theory is just a technique for summing the leading terms in the 1/N expansion of QCD» [Charles Thorn, experto en teoría de cuerdas, 2007]

«The effort to regard superstrings as a fundamental theory of everything was a blind alley» [Opinión que comparten casi la mitad de los físicos que trabajan en teoría de cuerdas, sobre todo los más jóvenes, según consula de R.P. Woodard, 2008].

«String theory has occupied some of the best minds of particle theory for many decades» [R.P. Woodard, 2009]

Como dijo Jarmo Mäkelä en un artículo bastante «chorra» («Pioneer Effect: An Interesting Numerical Coincidence,» ArXiv, 29 Oct 2007): «Es un placer y un privilegio ser físico en la actualidad. Estamos viviendo una era de nuevas e interesantes observaciones que conducirán a un cambio profundo en nuestra visión física del mundo

«It is a pleasure and a priviledge to be a physicist nowadays. We are living an era of new and interesting observations which will be likely to boost a profound change in our physical world view.» [Jarmo Mäkelä, 2007].

Menéame, la mecánica cuántica y la incomprensible levedad del ser

Dibujo20090818_Tim_N_Palmer

Tim N. Palmer

En Menéame, la mayoría de los usuarios opina que mis artículos son incomprensibles, aunque menean muchos de ellos porque vienen avalados por grandes meneadores como mezvan y porque a veces los comentarios aclaran algo el asunto (pocas veces en mi opinión, desafortunadamente). Me ha llegado el momento de «sufrirlo en mis propias carnes.» Una noticia científica divulgativa en Menéame de la que no entiendo absolutamente nada «Nueva Ley Física puede explicar los misterios de los saltos cuánticos [Eng],» que enlaza el artículo de Lisa Zyga, «New Law of Physics Could Explain Quantum Mysteries,» PhysOrg.com, August 17th, 2009, que se hace eco del artículo técnico de un climatólogo, que hizo un doctorado en física relativista, y que ahora nos muestra su lado más cuanticometafísico, Tim N. Palmer, «The Invariant Set Postulate: A New Geometric Framework for the Foundations of Quantum Theory and the Role Played by Gravity,» Proceedings of the Royal Society A, Accepted for publication, 2009 [gratis en ArXiv].

Me he leído el artículo de Lisa y aunque no me he enterado de nada, me ha llamado la atención. Me ha recordado ideas de Penrose mezcladas con el universo fractal subyacente a la mecánica cuántica de Ord y Nottale, así como a las esotéricas «chorradas» de El Naschie y sus seguidores. Así que he pensado, será que Lisa no se ha enterado muy bien de qué va el artículo, habrá que recurrir a la fuente original. Un artículo publicado en una revista de mucho prestigio. He decidido leerme el artículo técnico (más tarde he descubierto que estaba en ArXiv desde hace mucho tiempo). Me he leído el artículo y no me he enterado. He releído el artículo y me he enterado de menos aún. No puedo entender cómo se ha podido publicar este artículo en esta revista. El artículo no dice absolutamente nada pero afirma que sin decir nada resuelve todos los problemas de la mecánica cuántica. Palabras sobre el ser, vacías de contenido… Será que se cumplen las palabras de Feynman «Nadie comprende realmente la mecánica cuántica.»

¿Qué he entendido del artículo de Palmer que pueda contar aquí? Que habrá que esperar que el propio Palmer u otra persona se entere de lo que él mismo quiere decir y lo formalice matemáticamente. A mí me parece una labor imposible… Creo que hasta el propio Palmer se da cuenta de que se la ha colado al editor de esta revista internacional.

«Future papers will attempt to provide the mathematical detail required to develop this exploratory analysis into a rigorous physical theory.» [Palabras finales del artículo de Tim N. Palmer]

Bueno, al grano, ¿qué creo que propone Palmer? Vayamos despacio…

Los atractores extraños de sistemas dinámicos disipativos caóticos (como el famoso en forma de mariposa en el atractor de Lorenz) son conjuntos fractales invariantes bajo la dinámica no lineal del sistema. Hay atractores extraños no computables, para los que es imposible calcular su dimensión fractal, algo equivalente al problema de la parada de Turing, que demostraba que los números reales con probabilidad uno son no computables. El atractor de Lorenz no está entre ellos y se puede calcular rigurosamente su dimensión fractal. Investigadores del prestigio de Roger Penrose creen que esta no computabilidad podría ser el origen de la incertidumbre en mecánica cuántica.

Bajo la realidad cuántica del microcosmos hay una realidad precuántica. Dicha realidad está constituida por un atractor extraño de una dinámica no lineal disipativa «desconocida» y «que no se puede conocer» (Palmer propone que es el resultado de una clase de equivalencias, aún por definir, de sistema dinámicos de origen gravitatorio, pero sin ofrecer ningún tipo de idea «de peso» que apoye su idea). Si se pudiera conocer dicha dinámica habría una teoría de variables ocultas que las desigualdades de Bell y teoremas como el de Bell-Kocken-Specker prohíben que exista. Dicho atractor extraño está embebido en un espacio de dimensión mayor, de tal forma que los puntos de dicho atractor, trayectorias del sistema dinámico, que no son calculables, corresponden a las trayectorias «reales» observables experimentalmente. Los puntos del espacio que no corresponden al atractor son puntos o trayectorias que son «irreales» (unrealistic). Un estado de superposición cuántico es una combinación lineal de estados que corresponden a trayectorias «reales» (puntos del atractor extraño) pero que describen estados «irreales» (puntos del espacio «irreal» que se encuentran geométricamente entre puntos del atractor extraño). 

El autor propone como «Nueva Ley Física» que se añada a los postulados de la Mecánica Cuántica uno nuevo, el Postulado del Conjunto Invariante, que afirma que existe una precuántica como he descrito en el párrafo anterior.

«A new law of physics is proposed … motivated by nonlinear dynamical systems theory and black-hole thermodynamics, the Invariant Set Postulate proposes that cosmological states of physical reality belong to a non-computable fractal state-space geometry, invariant under the action of some subordinate deterministic causal (i.e. relativistic) dynamics. World states of physical reality are those, and only those, lying precisely on this invariant space.» [Palabra de Tim N. Palmer]

¿Cómo resuelve esta idea tan «tonta» todos los «problemas» de la mecánica cuántica y de su interpretación «intuitiva» desde un enfoque clásico? Pues muy fácil, con palabras. Pura palabrería. Palmer afirma que tras leer su artículo debe ser obvio para todo el mundo que su propuesta es una teoría de variables ocultas contextual que describe a la perfección la física cuántica. Mi opinión, la dicha, pura palabrería. Sus argumentos son casi «religiosos.» Quizás a los metafísicos les guste tanta metafísica… a los físicos, tanta «levedad» y tanto «ser» nos resulta incomprensible.

¿Está vivo el gato de Schrödinger, está muerto, o está en un estado vivo-muerto? La pregunta del millón de dólares. El primer problema de la mecánica cuántica que resuelve Palmer. Según la mecánica cuántica antes de que se observe el estado del gato, su estado es vivo-muerto. ¿Qué afirma Palmer al respecto? [La tensión se respira en el ambiente… ¿qué dirá Palmer?] Como la «teoría» de Palmer es contextual, el gato o está vivo, o está muerto, pero no puede estar en ambos estados al mismo tiempo. El estado vivo-muerto sólo tiene realidad ontológica, describe nuestra ignorancia, y no se puede describir como «real» (es un estado «irreal» en el espacio de fases precuántico). A muchos les gustará esta respuesta…

«Schrödinger’s cat is alive or dead, and not both.

In the context of the invariant set postulatey, the superposed quantum state α|A〉+β|B〉has no fundamental ontological significance; it indeed describes a probability of ignorance, here ignorance of the intricate structure of the invariant set based on a sample space of trajectory segments in some neighbourhood on the invariant set.» [Palabra de Tim N. Palmer]

¿Os gusta esta respuesta? Sin matemáticas, sin física, sin ideas complicadas, sin contenido, sin nada de nada… Palmer ofrece una respuesta, que si te gusta, maravilloso, que si no te gusta, pues te jo… Los predicadores como Tim N. Palmer son así. Predicar, predican…

El segundo «problema» de la mecánica cuántica que «resuelve» Palmer en su artículo es el Problema de la Medida. En mecánica cuántica se produce un colapso de la función de onda (cuando el observador mide un estado α|A〉+β|B〉observará o bien |A〉o bien |B〉con probabilidad |α|2 y |β|2, respectivamente). Para Palmer el colapso de la función de onda no existe. No hay «saltos cuánticos» ni nada por el estilo. La medida nos da información sobre el estado «real» del sistema descrito por un estado «irreal» obteniéndose conocimiento donde antes había solo ignorancia. ¿Ya está? ¿Problema resuelto?

«The Invariant Set Postulate provides a straightforward resolution of the measurement problem. By performing measurements we humans acquire information about the world state. A measurement outcome ‘merely’ labels a quasi-stationary quasi-stable region of the invariant set. There are no ‘jumps’ in the world state as a result of measurement, since the world state was never in a superposition in the first place.» [Palabra de Tim N. Parker]

Y así sucesivamente, Palmer logra resolver todos los «problemas» de la mecánica cuántica. Sin matemáticas, sin física, sin ideas complicadas, sin contenido, sin nada de nada… resuelve todos los problemas con tal nivel de genialidad que ha merecido que sus ideas sean publicadas en la prestigiosa revista Proceedings of the Royal Society A.

¿Einstein contra Bohr? ¿Quién tenía razón? Según Palmer, gana Einstein, la mecánica cuántica es una teoría incompleta… la versión completa es la mecánica precuántica de Palmer, la mecánica cuántica más el postulado del conjunto invariante. ¡Qué maravilla! ¡Qué ciegos hemos estado todos los físicos durante el último siglo!

«Consistent with Einstein’s view, the Invariant Set Postulate indicates that quantum theory is incomplete in the sense that it is blind to the fractal structure of the invariant set.» [Palabra de Tim N. Parker]

¡Aleluya! ¡Aleluya! !Aleluya!

PS (19 agosto 2009): «El Naschieros» no podían esperar para reinvidicar las ideas de Palmer como propias: «El Naschie ya lo dijo» podría titularse su artículo, pero han preferido «Strange non-dissipative and non-chaotic attractors and Palmer’s deterministic quantum mechanics,» escrito por G. Iovane y S.I. Nada, habiéndose publicado, como no, en Chaos, Solitons & Fractals 42: 641-642, 15 October 2009.

Por cierto, para los interesados en quién es Tim N. Palmer, deciros que tiene más de 250 artículos de investigación en climatología, que ha publicado varias veces en Nature y que sus artículos más citados según Scopus son «Monsoons: processes, predictability, and the prospects for prediction» (571 veces), «The ECMWF ensemble prediction system: Methodology and validation» [464 veces] y «Sahel rainfall and worldwide sea temperatures, 1901-85» [312 veces].

La solución de la paradoja de Loschmidt sobre la flecha del tiempo mediante la entropía cuántica de von Neumann

Dibujo20090818_Alice_laboratory_entropy_decreased_due_to_external_Bob_but_she_cannot_remember_it_ever

Experimento mental: (a) Alicia en un laboratorio aislado realiza una medida de Stern-Gerlach produciendo un bit de entropía (para ella, no para Bernardo). (b) Bernardo "cancela" la medida de Alicia por decorrelación y la entropía para Alicia se reduce (no así la entropía total) pero ella no puede "recordar" que alguna vez hubiera crecido.

Lorenzo Maccone afirma en «Quantum Solution to the Arrow-of-Time Dilemma,» Phys. Rev. Lett. 103: 080401, 21 Aug. 2009 [gratis en ArXiv], haber resuelto la paradoja de Loschmidt: ¿cómo surge la flecha del tiempo termodinámica en un universo cuya física es reversible? ¿Cómo surge la segunda ley de la termodinámica que afirma que la entropía siempre crece? La definición clásica de la entropía no permite resolver la paradoja. Maccone utiliza la definición de entropía (cuántica) de von Neumann en la que el observador juega un importante papel. La «memoria» del observador recuerda solamente la física compatible con la segunda ley de la termodinámica. Las violaciones de dicha ley se pueden dar pero son «olvidadas» por el observador. Las ideas de Maccone recuerdan a las de Roger Penrose y otros que ven en el proceso de medida cuántica la irreversibilidad que conduce a la segunda ley de la termodinámica. Los interesados en más información divulgativa pueden recurrir a la excelente traducción de Kanijo «Una flecha cuántica del tiempo,» Ciencia Kanija, 18 ago. 2009, del artículo «A Quantum Arrow of Time,» Physical Review Focus, 24, 17 Aug. 2009. Como ha ocurrido en varias ocasiones y seguirá ocurriendo, Kanijo se me adelantó [ya está meneado y merece llegar a portada]. En estas ocasiones siempre surge la pregunta ¿qué contar? Como siempre, la respuesta es «algo más técnico.»

«I show that entropy in a system can both increase and decrease (as time reversal dictates), but that all entropy-decreasing transformations cannot leave any trace of their having happened. Since no information on them exists, this is indistinguishable from the situation in which such transformations do not happen at all: ‘‘The past exists only insofar as it is recorded in the present.’’  Then the second law is forcefully valid: the only physical evolutions we see in our past, and which can then be studied, are those where entropy has not decreased.» [Palabra de Lorenzo Maccone].

Hay que empezar recordando la definición de entropía de von Neumann (recordatorio de cualquier curso de mecánica estadística cuántica). Hay varias formulaciones equivalentes entre sí de la mecánica cuántica, cada una de las cuales tiene sus ventajas en ciertos problemas y sus inconvenientes en otros. Una de ellas es la basada en matrices de densidad que nos permite estudiar sistemas microscópicos y mesoscópicos con el mismo formalismo, es decir, nos permite modelar fácilmente un conjunto de sistemas cuánticos en interacción. La matriz de densidad cumple versión cuántica de la ecuación de Liouville de la mecánica clásica estadística. La ecuación de Liouville-von Neumann es \mbox{i}\,\hbar\,\partial\rho/\partial t = [H,\rho], donde el operador densidad es el equivalente cuántico de la función de distribución de probabilidad. La entropía de von Neumann de un sistema cuántico se define como S(\rho)\equiv-\mbox{Tr}[\rho\,\log_2\rho]. En los sistemas en los que se pueden definir tanto la entropía clásica como la entropía de von Neumann, ambas entropías coinciden (módulo una constante multiplicativa sin importancia). Por supuesto, hay sistemas en los que solo es aplicable la entropía cuántica.

«Entropy can decrease, but its decrease is accompanied by an erasure of any memory that the entropy-decreasing transformation has occurred.» [Palabra de Lorenzo Maccone].

Cualquier interacción entre dos sistemas A y C que haga decrecer la entropía en una cierta cantidad de bits debe reducir la información mutua cuántica en la misma cantidad de bits, salvo que dicha entropía se acumule en cierto reservorio R. La información mutua cuántica mide la cantidad de información que correlaciona dos sistemas cuánticos, sean A y C, definiéndose como S(A;C)\equiv S(\rho_A)+S(\rho_C)-S(\rho_{AC}), donde \rho_{AC} es el estado del sistema conjunto AC, y \rho_A y \rho_C los estados de A y C por separado. El resultado fundamental del artículo de Lorenzo Maccone, que la reducción de entropía implica un efecto de borrado de la memoria del estado inicial del sistema, se escribe mediante la fórmula matemática

\Delta S(A)+\Delta S(C)-\Delta S(R)-\Delta S(A;C)=0,                        (1)

donde \Delta S(X)\equiv S_t(\rho_X)-S_0(\rho_X) es la diferencia de entropía entre el estado final (en el momento t) y el estado inicial para el sistema X, y \Delta S(A;C)=S_t(A:C)-S_0(A:C). No entraré en los detalles de la demostración (muy sencilla, por otra parte). La interpretación de esta fórmula es que el efecto de borrado de la memoria proviene de la pérdida de información mutua cuántica. La memoria de un suceso es un sistema físico A que tiene una información mutua clásica no nula de un sistema C. El borrado de la memoria de este suceso se produce al eliminarse la información cuántica mutua S(A;C), ya que esta última cantidad es una cota superior de la información mutua clásica I(A;C) (omito la demostración, también sencilla).

La interpretación de la ecuación (1) es que, si queremos disminuir la entropía de los sistemas A y C sin incrementar la entropía del reservorio R, es necesario reducir la información mutua cuántica entre los sistemas A y C. En la figura que abre esta entrada, un experimento mental, el sistema A es el laboratorio de Alicia y el sistemas C es una partícula de espín 1/2: sus entropía finales se reducen en un bit a costa de borrar dos bits de información mutua cuántica S_0(A;C).

La ecuación (1) nos dice que tomando como sistema A al observador, Alicia, y su laboratorio, y considerando un tiempo intermedio en el que S(C) es mayor que en los momentos inicial y final, debido a alguna transformación que incremente la entropía sin que sea absorbida por el reservorio R, ésta se puede reducir mediante una transformación que decremente la entropía a costa de reducir la información mutua entre el observador A y el sistema observado C. Incluso si la entropía S(C), medida desde el punto de vista del observador, decrece, el observador no será consciente de ello, ya que la transformación que decrece la entropía debe factorizar (separar) el observador A y el sistema C que contienen información del suceso que incrementó con anterioridad su entropía. La memoria de tal evento (que decrece la entropía) será parte de las correlaciones que se destruirán. Un resultado directo de la regla de Born aplicada al entrelazamiento entre observador y sistema observado (un proceso mecánico cuántico irreversible).

Animo a los interesados en más detalles a que se lean el artículo técnico, fácil de leer si uno ha recibido alguna vez un curso de mecánica cuántica.

Nueva solución de las ecuaciones de Einstein explica la aceleración del universo sin necesidad de energía oscura

Dibujo20090817_big_bang_evolution_from_radiation_era

La energía oscura resuelve un problema, la aceleración de la expansión del universo observada con supernovas Ia, pero introduce otro problema, ¿qué es la energía oscura? Dos especialistas en obtener soluciones de las ecuaciones de Einstein, los físicos norteamericanos Blake Temple y Joel Smoller, han encontrado una nueva solución cosmológica de las ecuaciones de Einstein para la época de la radiación tras la Gran Explosión (hasta los 300.000 años) que presenta una expansión acelerada «natural» sin necesidad de energía oscura. La solución incluye un parámetro a que para a<1 produce desaceleración y para a>1 produce aceleración. Si la energía oscura existe debe ser a=1, pero entonces hay que explicar por qué en el Big Bang apareció un universo con a exactamente igual a 1. O tenemos una solución de la aceleración del universo sin energía oscura o tenemos un nuevo problema cosmológico, cómo explicar que a=1. El artículo técnico es Blake Temple, Joel Smoller, «Expanding wave solutions of the Einstein equations that induce an anomalous acceleration into the Standard Model of Cosmology,» PNAS , Published online before print August 17, 2009 (versión gratis, ucdavis.edu). FAQ de Temple o todo lo que querrías preguntarle sobre la nueva solución (muy interesante).

Los investigadores han encontrado una solución exacta parametrizada de las ecuaciones cosmológicas de Einstein que generaliza a la solución para el espaciotiempo de Fiedmann–Robertson–Walker (FRW). La solución se puede interpretar como una perturbación de dicha solución. Los autores parten de las ecuaciones cosmológicas de Einstein con simetría esférica en coordenadas estándares de Schwarzchild, bajo la hipótesis usual de un medio que cumple p = ρ c2/3, que logran reducir a un nuevo sistema de 3 ecuaciones diferenciales ordinarias, para el que obtienen una familia biparamétrica de soluciones exactas (un parámetro de escalado temporal y un parámetro de aceleración). Bajo la hipótesis de solución autosemejante, la nueva solución se reduce a una onda expansiva uniparamétrica que parte de la época de la radiación tras la Gran Explosión. El parámetro de aceleración, a, da cuenta de cualquier aceleración observada en la expansión del universo FRW. La nueva solución explica la aceleración (anómala) observada en la expansión del universo gracias a la observación de supernovas Ia en galaxias lejanas. Esta explicación tiene la ventaja de que no requiere la «magia» de la energía oscura y está dentro del formalismo matemático de la relatividad general sin ninguna hipótesis ad hoc adicional.

¿Tiene algún problema esta nueva solución del problema de la energía oscura? Sí, la nueva solución cosmológica con a>1 viola el Principio de Copérnico ya que tiene un centro de expansión que debería coincidir (aproximadamente) con la posición de la Tierra. ¿Un gran problema para la llamada «teoría de la onda expansiva»? Quizás sí. El Principio de Copérnico (la Tierra no está en el centro del universo) es uno de los Santos Griales de la Cosmología contemporánea y cualquier intento de atacarlo es «castigado» con las críticas de los cosmólogos más ortodoxos. Aunque eso sí, las críticas tendrán que ir acompañadas de alguna razón por la cual tras la Gran Explosión el parámetro de aceleración adquirió el valor a=1.

Como es habitual en ciencia, toda respuesta va acompañada de un nuevo problema.