Los datos Pan-STARRS sobre la energía oscura a 2,4 sigmas de la constante cosmológica

Dibujo20131022 cosmological constraints using Pan-STARRS-lz - planck - bao - hubble measurements

No sabemos qué es la energía oscura. Si se trata de la constante cosmológica de Einstein entonces su ecuación de estado es ω=p/ρ=−1, pero si se trata de la quintaesencia sería ω≠−1. Los datos cosmológicos Planck+WP+highL+BAO indican que ω=−1,13±0,25. Los últimos resultados sobre supernovas Ia de Pan-STARRS (Panoramic Survey Telescope and Rapid Response System) indican que  ω=−1,186±0,076 (valor combinado Pan+BAO+Planck+H0), que está a 2,4 sigmas de ω=−1. Por supuesto, todavía se trata de un estudio preliminar pues sólo se han estudiado 146 supernovas de tipo Ia (0,03 < z < 0,65) descubiertas durante los primeros 1,5 años de Pan-STARRS. Y además, no se trata de ninguna sorpresa, pues el valor ω≠−1 depende sobre todo de los datos cosmológicos; el valor de Pan-STARRS sin combinar es ω=−1,015 ± 0,319 (stat) ± 0,164 (syst), perfectamente compatible con ω=−1. Habrá que esperar al análisis completo de todos los datos que Pan-STARRS, que recabará datos de un número tres veces mayor de supernovas, y por supuesto a la nueva medida cosmológica de ω que se obtendrá en junio de 2014 con la publicación del mapa de la polarización del fondo cósmico de microondas por el telescopio espacial Planck de la ESA. Por todo ello, los cosmólogos seguirán pensando que la constante cosmológica es la responsable de la energía oscura. El artículo técnico es Armin Rest et al., «Cosmological Constraints from Measurements of Type Ia Supernovae discovered during the first 1.5 years of the Pan-STARRS1 Survey,» arXiv:1310.3828 [astro-ph.CO], 14 Oct 2013.

Sigue leyendo

El campo de Higgs, el inflatón, la energía oscura y los monopolos magnéticos

Dibujo20130822 higgs boson discovery - ethan siegel - july 4 2012 Para algunos el descubrimiento del bosón de Higgs ha sido un jarro de agua fría, para otros una diversión sin límite. Como es una partícula escalar (de espín cero) y se han propuesto campos escalares como solución a muchos de los problemas actuales (energía oscura, materia oscura, etc.), extender la física del campo de Higgs para que se comporte en cierto régimen como uno de esos campos es fácil y además se publica fácil en muchas revistas. Por ello, muchos medios publican noticias que afirman que el bosón de Higgs puede explicar la energía oscura, la materia oscura, la inflación cósmica, etc. Hay que tener cuidado con estas noticias. El bosón de Higgs está hasta en la sopa, pero se trata de ideas especulativas que extienden la física del campo de Higgs más allá de lo que está demostrado y los autores de estos trabajos no estudian todas las consecuencias de sus teorías, por lo que en muchos casos contradicen la física conocida (al centrarse en explicar cierto fenómeno, olvidan que su idea tiene consecuencias en otros fenómenos en apariencia alejados). Permíteme poner unos ejemplos de actualidad. Sigue leyendo

Varias noticias recientes sobre física de partículas que tienes que conocer

Dibujo20130327 BES III - Zc 3900 - possible exotic hadron

Posible observación de un hadrón exótico. BESIII, el colisionador electrón-positrón de Pekín, China, ha observado una resonancia hadrónica con una masa de (3899,0 ± 3,6 ± 4,9) MeV/c² y una anchura de (46 ± 10 ± 20) MeV, en 525 /pb de datos de colisiones que muestran desintegraciones de tipo e+ e → π± Zc(3900) → π+ π J/ψ, con una energía en el centro de masas de 4,26 GeV. BESIII ha sido ajustado para producir la resonancia Y(4260), un hadrón exótico que fue «descubierto» por BaBar en 2005, pero cuya interpretación como hadrón exótico aún no está aceptada por toda la comunidad; recuerda que a los hadrones exóticos se les llama con las letras X/Y/Z. La gran ventaja de BESIII en estos estudios es que puede ajustar la energía en el centro de masas para la producción de una resonancia concreta. La nueva resonancia Zc(3900) aparece en la desintegración de Y(4260). Para los físicos ha sido toda una sorpresa que tenga carga eléctrica. ¿Qué puede ser la nueva resonancia? Podría ser un estado tipo charmonium híbrido, un tetraquark (ccud), una molécula de dos mesones, o incluso algo más exótico, pero por ahora no se puede descartar que se trate de un artefacto de la QCD. Por cierto, BaBar (2007) y Belle (2008) ya observaron una señal de un posible hadrón exótico con una masa similar al que llamaron G(3900). La señal observada por BESIII es muy fuerte, según los autores supera los 8 sigmas. Por supuesto, la interpretación como hadrón exótico dará bastante que hablar en los próximos meses. El artículo técnico es BESIII Collaboration, «Observation of a charged charmoniumlike structure in e+e- to pi+pi-J/psi at \sqrt{s}=4.26 GeV,» arXiv:1303.5949, 24 Mar 2013. Más información sobre la noticia en «Observation of a charged charmoniumlike structure at BESIII,» BESIII News, 26 Mar 2013.

OPERA ha observado su tercer neutrino tau. La colaboración OPERA (unos 140 físicos de 11 países), situada en el Laboratorio de Gran Sasso del INFN (Italia), famosa por un cable mal conectado, ha observado su tercer neutrino tau. El experimento CNGS (CERN to Gran Sasso) envía chorros de neutrinos muónicos hacia varios experimentos en Gran Sasso y OPERA está especializado en medir los neutrinos tau, es decir, la aparición de un neutrino tau por oscilación de un neutrino muónico durante el viaje de 730 km entre el CERN y Gran Sasso. Ya no toma más datos (CNGS ya no funciona), pero se están analizando los datos ya recabados desde 2009 (en colaboraciones como OPERA el análisis de datos es el cuello de botella y no se finalizará hasta mediados 2014). En 2010 y 2012 se obervaron los dos neutrinos tau anteriores y se espera observar otros dos más (unos cinco tras el análisis de todos los datos). El anuncio oficial de la noticia en «OPERA observed a third neutrino tau,» INFN News, 26 Mar 2013; también recomiendo leer a Kathryn Jepsen, «OPERA snags third tau neutrino,» Symmetry Breaking, Mar 26, 2013. También puedes leer «Rare find backs shape-shifting neutrino,» PhysOrg.com, Mar 27, 2013.

La cámara de energía oscura DECam (Dark Energy Camera) es una cámara CCD de 570 megapíxeles (la mayor cámara digital del mundo) que cubre un área de 3 grados cuadrados de cielo (la Luna llena ocupa medio grado cuadrado de cielo). Fue instalada en noviembre pasado en el telescopio Blanco de 4 metros en el Observatorio Inter-Americano de Cerro Tololo, Chile. Forma parte de DES (Dark Energy Survey), un proyecto que se iniciará de forma oficial en septiembre de 2013 cuyo objetivo es obtener en 525 noches de observación (distribuidas en cinco años) un mapa de la distribución de la energía oscura en el universo. DES estudiará unos 200 millones de galaxias y medirá la curva de luminosidad de unas 4000 supernovas de tipo Ia (de ahí que se diga que es un telescopio de energía oscura). DES también estudiará cúmulos galáctivos, las oscilaciones acústicas de bariones (BAO) y los efectos de lentes gravitatorias débiles. Mientras no funciona para el proyecto DES, la cámara DECam es usada para otro tipo de observaciones (búsqueda de asteroides, estudios de galaxias, etc.), como nos cuenta Andre Salles, «Astronomers give Dark Energy Camera rave reviews,» Symmetry, March 27, 2013.

WMAP+ACT+SPT confirman el modelo cosmológico ΛCDM con inflación a la espera de los datos de Planck

Dibujo20130213 WMAP9 temperature data and ACT and SPT CMB lensed bandpowers marginalized over secondary emissions

Se acaba de publicar el mejor ajuste de los parámetros cosmológicos del modelo ΛCDM a partir de los datos de WMAP9 + ACT+ SPT. El índice espectral escalar ns = 0,9690 ± 0,0089 es menor que la unidad en 3,5 σ, consistente con los modelos más sencillos de inflación cósmica. El número efectivo de partículas relativistas es Neff = 3,28 ± 0,40, compatible con las tres especies de neutrinos ligeros del modelo estándar y descartando la existencia de cinco especies; habrá que esperar a los resultados del satélite Planck de la ESA para poder confirmar de forma definitiva que no hay ningún neutrino estéril. WMAP9 corresponde a los 9 años de observación de todo el fondo cósmico de microondas del satélite Wilkinson MAP de la NASA. ACT y SPT corresponden al Atacama Cosmology Telescope y al South Pole Telescope, resp., que observan con gran resolución una pequeña región del CMB. Estos datos pre-Planck durarán poco, pero apuntan a la confirmación del modelo ΛCDM (big bang con inflación cósmica, materia oscura fría y energía oscura). El artículo técnico es Erminia Calabrese et al., «Cosmological Parameters from Pre-Planck CMB Measurements,» arXiv:1302.1841, 12 Feb 2013.

Dibujo20130213 Marginalized distribution of Neff for different data combinations showing consistency with three neutrino species

La evolución de la energía oscura

Me ha gustado esta figura que ilustra muy bien que la energía oscura es un fenómeno «reciente» en la historia del universo. La energía oscura, la causa «desconocida» de la reciente expansión acelerada del universo, fue descubierta gracias a las supernovas de tipo Ia, pero hoy en día ha sido observada (confirmada) por muchos otros medios. Se trata de un fenómeno «reciente» ya que no se observa para corrimientos al rojo z>2. En la época de la recombinación, cuando el universo tenía unos 375.000 años y «cristalizó» el fondo cósmico de microondas, no había energía oscura en el universo. ¿Qué puede ser la energía oscura? La hipótesis más socorrida es que está asociada al vacío, a una especie de «antigravedad» asociada al vacío que se modela mediante una constante cosmológica como fuente, es decir, colocada en el miembro derecho de la ecuación de Einstein, en lugar de en el izquierdo, donde la colocó Einstein para lograr un universo estático. La NASA tiene un programa bastante completo para el estudio de la materia oscura y de la energía oscura, como nos cuenta Neil Gehrels, «NASA’s Dark Matter & Dark Energy Program,» NASA/GSFC, SpacePart12, Nov. 5, 2012 [slides, vídeo CDS]. Por cierto, el vídeo de la charla (media hora) está bastante bien y se centra en el futuro, tanto JWST como WFIRST.

Gravedad unimodular, constante cosmológica y energía oscura

¿Gravita el vacío? El efecto de la energía potencial del vacío equivale a una constante cosmológica con un valor 120 órdenes de magnitud mayor que el valor medido en los experimentos (si interpretamos la energía oscura como constante cosmológica), en concreto, un valor proporcional al cuadrado de la masa de Planck. ¿Se puede modificar la teoría de la gravedad de Einstein para que el vacío no gravite? La opción más sencilla es la gravedad unimodular, introducida en 1919 por el propio Albert Einstein, una simplificación de las ecuaciones de la gravedad obtenida fijando el determinante de la métrica a la unidad. Gracias a este pequeño detalle técnico solo gravita la parte de traza nula del tensor de energía-momento, es decir, la energía potencial no gravita, solo gravita la energía cinética.

En la gravedad unimodular el vacío no gravita y el valor «natural» de la constante cosmológica Λ es cero. ¿Cómo resolvemos entonces el problema de la energía oscura? Muy fácil, en las ecuaciones de la teoría aparece una constante de integración λ que hace el papel de constante cosmológica, pero cuyo valor se fija en las condiciones iniciales del universo (al inicio del big bang). La gravedad unimodular es una manera elegante de meter bajo la alfombra todos los problemas asociados a la constante cosmológica. Pero no todo son ventajas; aún no sabemos si la gravedad unimodular es compatible con todos los experimentos y tests que ha superado la gravedad de Einstein; de hecho, para muchos de ellos, las predicciones de la gravedad unimodular aún no han sido calculadas.

Todo esto viene a cuento por el reciente artículo técnico enviado a ArXiv el jueves pasado por Mario Herrero-Valea (@Fooly_Cooly) y su director de tesis Enrique Álvarez, ambos del Instituto de Física Teórica UAM/CSIC, Madrid. En dicho artículo demuestran que la teoría de Einstein y la unimodular coinciden en el límite de gravedad débil para fuentes arbitrarias (con anterioridad solo se había demostrado para fuentes estáticas), es decir, que esta última supera todos los tests de la primera en el régimen de campo débil. Un gran paso adelante, aunque todavía quedan muchos detalles por estudiar, como la evolución de los modelos cosmológicos en dicha teoría, o su cuantización (hay ciertos indicios de que podría ser más sencilla que en el caso de la teoría de Einstein). El artículo técnico es Enrique Álvarez, Mario Herrero-Valea, «Unimodular gravity with external sources,» arXiv:1209.6223, Subm. 27 Sep 2012.

Recomiendo consultar también a Enrique Alvarez, «The weight of matter,» arXiv:1204.6162, Subm. 27 Apr 2012. En cuanto al problema de la cuantización de la teoría, recomiendo a Lee Smolin, «Quantization of unimodular gravity and the cosmological constant problems,» Phys. Rev. D 80: 084003, 2009 [arXiv:0904.4841].

Por cierto, prometí escribir esta breve entrada en Amazings Bilbao 2012 (Naukas Bilbao 2012) con objeto de incentivar al propio Mario a escribir una entrada al respecto en su propio blog. Mario, ahora el guante está en tu mano de Stringers.

La energía oscura y la imposibilidad de conocer el destino final del universo

Los autores de libros de divulgación se suelen llenar la boca hablando del futuro del universo. La filosofía tradicional en Relatividad General es que la geometría determina el destino del universo. Sin embargo, la existencia de una constante cosmológica (también llamada energía oscura) implica que la correspondencia uno-a-uno entre la geometría y la evolución del universo se ha perdido para siempre. La única manera de conocer el futuro del universo es descubrir cómo evoluciona la energía oscura y para ello necesitamos una explicación de su origen que nos permita saber cómo evolucionará en el futuro. La existencia de la energía oscura implica que no existen observaciones cosmológicas que se puedan realizar en la actualidad que nos permitan decidir sin ambiguedad cuál será el destino final del universo. Nos lo contaron Lawrence M. Krauss y Michael S. Turner, «Geometry and Destiny,» Gen. Rel. Grav. 31: 1453-1459, 1999 (gratis en ArXiv).

En la actualidad creemos que la ecuación de estado de la energía oscura es p = ω ρ, donde p es la presión, ρ la densidad y ω=–1. El problema es que pequeñas variaciones en el valor de ω, incluso tan pequeñas como una parte en mil (más allá de lo que podremos medir en las próximas décadas), acabarán dominando el futuro del universo a largo plazo. La única solución al problema será obtener una explicación microfísica al origen de la constante cosmológica capaz de predecir su evolución futura.

Premio Nobel de Física 2011: La energía oscura y la expansión acelerada del espaciotiempo

Ya tocaba y por eso, casi he acertado. El Nobel de Física ha recaído en el descubrimiento de la expansión acelerada del universo. La mitad del premio ha sido para Saul Perlmutter (Supernova Cosmology Project, LBNL y Universidad de California en Berkeley), nacido en 1959, y la otra mitad a partes iguales para Brian P. Schmidt (High-z Supernova Search Team, Universidad Nacional de Australia), nacido en 1967, y Adam G. Riess (High-z Supernova Search Team, Universidad de Johns Hopkins), nacido en 1969. Los tres laureados son norteamericanos. Mi última predicción de hace dos días era «Mi última apuesta es para Adam G. Riess (Universidad Johns Hopkins, Maryland) y Saul Perlmutter (Universidad de California) por el descubrimiento de que la expansión del universo se está acelerando (Thomson Reuters los nominó en 2010). Pero ahora que lo pienso, quizás sean candidatos más firmes el año que viene, 2011, tras la publicación de los primeros datos del satélite Planck en marzo del año próximo.» Me he equivocado en esto último, les han dado el Nobel este año, sin esperar a la publicación de los primeros resultados del satélite Planck sobre el fondo cósmico de microondas y la energía oscura. «Written in the stars,» Information for the public. «Scientific Background,» Information for scientists.

Nadie sabe lo que es la energía oscura. Pero en 1998 se descubrió que algo está acelerando la expansión cósmica y a ese algo se le ha bautizado como energía oscura. Los dos grupos que han obtenido el Nobel utilizando supernovas de tipo Ia como candelas para medir grandes distancias en el universo. Sumando los resultados de ambos equipos se estudiaron unas 50 supernovas cuya luminosidad era más débil de la esperada según los modelos teóricos, por alguna razón parecía que estaban más lejos de lo esperado. La explicación más razonable era que la expansión del universo se estaba acelerando. Desde 1998 gran número de estudios cosmológicos han verificado la hipótesis de la energía oscura, que parece una hipótesis robusta, aunque nadie sepa realmente qué es.

Más en este blog sobre este apasionante tema: «El enigma de la energía oscura,» 4 enero 2011; «Las supernovas Ia son candelas estándar para medir distancias mucho más robustas de lo que se pensaba,» 30 junio 2010; «El problema de la energía oscura y el origen de las supernovas de tipo Ia,» 18 febrero 2010; «Energía oscura para torpes (o dark energy for dummies),» 23 septiembre 2009; «Espectaculares simulaciones de la explosión de una supernova tipo Ia,» 19 agosto 2008.

En este blog también nos hemos eco de opiniones en contra de la existencia de la energía oscura: «Nuevos datos de supernovas Ia indican que la energía oscura podría variar con el tiempo,» 13 abril 2009; «La gravedad cuántica como solución para la materia oscura y la energía oscura,» 24 junio 2009; «Nueva solución de las ecuaciones de Einstein explica la aceleración del universo sin necesidad de energía oscura,» 18 agosto 2009; «La energía oscura como resultado de las ondas gravitatorias de la inflación primordial,» 11 septiembre 2009; «El secreto de la energía oscura podría estar en el Modelo Estándar escondido tras el “fantasma de Veneziano”,» 17 septiembre 2009; «Se publica un artículo que contradice la evidencia de materia y energía oscuras en los datos de WMAP-5,» 18 junio 2010.

Publicado en Nature: Ratificada la existencia de la energía oscura gracias al test de Alcock-Paczynski

La expansión cósmica del universo se está acelerando; la causa es una fuerza «desconocida» llamada energía oscura. Descubierta gracias al uso de supernovas Ia como candelas para medir distancias cósmicas y verificada gracias al análisis de la radiación de fondo cósmico de microondas por el satélite WMAP, se ha ratificado gracias al test de Alcock-Paczynski (1979), un método geométrico que permite determinar la abundancia de la energía oscura y su ecuación de estado. Esta técnica estudia las distorsiones geométricas entre el movimiento observado en cuerpos lejanos y el movimiento estimado a partir del corrimiento Doppler de la luz observada. Marinoni y Buzzi han ratificado la existencia de la energía oscura gracias al estudio de 509 sistemas binarios galácticos y han determinado sus parámetros con un 68’3% de confianza estadística, en concreto, la ecuación de estado cumple que -0’85 < w < -1’12 (según WMAP-7 es w = -1’1 ± 0’14, al 68% C.L.) y la cantidad de materia oscura que es 0’60 < ΩΛ < 0’80 (según WMAP-7 es ΩΛ= 0’725 ± 0’016, al 68% C.L.). Un nuevo resultado tan preciso como los obtenidos gracias a las supernovas Ia. Un gran resultado técnico publicado en Christian Marinoni, Adeline Buzzi, «A geometric measure of dark energy with pairs of galaxiesNature 468: 539–541, 25 November 2010, que nos desglosa Eugenie Samuel Reich, «Dark energy on firmer footing. Geometric test supports the existence of a key thread in the fabric of the Universe,» News, Nature, Published online 24 November 2010.

Un sistema galáctico binario, formado por dos galaxias A y B en rotación mutua, con un corrimiento al rojo medio de z y una separación angular de θ, está orientado respecto a un observador terrestre con cierto ángulo. Estudiando muchos sistemas binarios se puede construir el histograma de las posibles orientaciones. Uno espera que esta distribución sea completamente al azar, una distribución con simetría esférica en la que todas las orientaciones son igualmente probables. Pero en un universo dominado por la energía oscura se observará una cierta asimetría en las orientaciones posibles, que tendrá una orientación preferente en la dirección del observador (ver la figura de abajo). Dicha asimetría es la que han determinado Marinoni y Buzzi para galaxias muy distantes, a miles de millones de años luz de distancia, gracias al proyecto DEEP2. Futuros estudios aplicando la misma técnica a los datos obtenidos con el futuro Telescopio Espacial Euclídes de la ESA podrán mejorar la precisión de este tipo de medidas hasta el punto de superar la precisión obtenida con supernovas Ia, según Marinoni.

La deconstrucción dimensional del universo a alta energía y su estudio experimental en CMS del LHC en el CERN

La imaginación de los físicos teóricos no tiene límite. No cejan de proponer nuevas ideas cada día más exóticas para búsquedas de nueva física en el LHC . Parece que no comprenden que el LHC del CERN tiene muchas tareas pendientes (el bosón de Higgs, la supersimetría, nuevas generaciones de partículas, dimensiones extra, etc.). Greg Landsberg (Universidad de Brown, EEUU) ha propuesto una nueva teoría que afirma que el número de dimensiones en el universo aumenta a medida que se expande desde la gran explosión. Él y sus colegas proponen que el universo comenzó con solo una dimensión espacial y una dimensión temporal (universo 1+1). «El universo nació como un hilo unidimensional que tejió un tapiz en dos dimensiones a medida que crecía; este tapiz se enrolló sobre sí mismo para crear un universo de tres dimensiones como el que conocemos; ahora mismo se está enrollando en cuatro dimensiones por lo que se observa una aceleración de la expansión cósmica del universo; la energía oscura es el eco de la cuarta dimensión del espacio.» La idea, que parece muy exótica para ser correcta, resuelve de un plumazo varios problemas del modelo estándar. Lo curioso es que el portavoz de la colaboración CMS del LHC en el CERN, Albert de Roeck, ha dicho que CMS ya tiene un equipo de físicos estudiando como confirmar o refutar las teorías de Landsberg. «El modelo de Landsberg es muy especulativo, pero nadie puede descartarlo a priori y hay ciertos datos sobre rayos cósmicos que explica mejor que las teorías actuales; vamos a dedicar tiempo de análisis en el LHC a confirmarlo o refutarlo.» Curioso. Nos lo han contado en Zeeya Merali, «Collider gets yet more exotic ‘to-do’ list. The Large Hadron Collider could throw up evidence of new physics earlier than expected,» News, Nature 466: 426, Published online 20 July 2010 [también en Scientific American]. Traducción de Kanijo, «El colisionador logra una lista de cosas por hacer aún más exótica,» Ciencia Kanija, 21 julio 2010 [ya meneada].

El modelo estándar de las partículas elementales permite comprender el universo desde una dimensión de 10-18 a 1024 metros (el primer valor corresponde a una energía de 1 TeV y el segundo a la escala asociada a la isotropía cósmica del universo). El modelo estándar es una teoría incompleta, contiene en su interior a su asesino ya que presenta divergencias a distancias muy cortas o energías muy altas que no se pueden evitar. Un truco matemático para resolver estas divergencias es una regularización dimensional (la técnica matemática que se utilizó para demostrar que la teoría electrodébil con ruptura de la simetría mediada por el mecanismo de Higgs es una teoría renomarlizable). Si el espacio tiempo tuviera 2 dimensiones espaciales estos divergencias se aliviarían y, más aún, si tuviera solo una dimensión espacial se resolverían fácilmente. El modelo estándar sería válido a todas las distancias y a todas las energías posibles y podría incorporar la gravedad sin ninguna dificultad (la gravedad cuántica funciona muy bien en 1+1 dimensiones, de forma razonable en 2+1 y es casi imposible en 3+1). Pura matemática dirás. Quizás sí o quizás no. Landsberg y sus colegas proponen que el universo surgió tras la gran explosión como un espaciotiempo 1+1 con el modelo estándar  como teoría correcta a todas las energías, incorporando la versión cuántica trivial de la gravedad de Einstein (en un espaciotiempo de 1+1 dimensiones tanto el modelo estándar como la gravedad funcionan de maravilla como teorías cuánticas de la realidad). Conforme el espaciotiempo se expandió (expansión cósmica) fueron surgiendo de forma dinámica nuevas dimensiones espaciales. Actualmente la así llamada «energía oscura» que explica la aceleración actual de la expansión cósmica es un resultado de la emergencia de un espaciotiempo 4+1 dimensional a partir de nuestro espaciotiempo 3+1 dimensional. Los interesados en más detalles técnicos (breves pero curiosos) pueden recurrir al artículo técnico de Luis Anchordoqui, De Chang Dai, Malcolm Fairbairn, Greg Landsberg, Dejan Stojkovic, «Vanishing Dimensions and Planar Events at the LHC,» ArXiv, Submitted on 30 Mar 2010, que proponen que la dimensión del espacio depende de la escala considerada (a distancias más cortas la dimensión es más baja).

Este tipo de ideas tan radicales suelen pasar por los medios sin mucha atención. Salvo excepciones y esta parece que lo es. Lo más curioso es que Landsberg y sus colegas creen que el LHC será capaz de observar efectos asociados a su modelo del universo, ya que a alta energía se recrean condiciones similares a los primeros instantes de la gran explosión, es decir, se deconstruyen las dimensiones espaciales. Él y sus colegas creen que el LHC será capaz de observar colisiones de partículas en un espaciotiempo de dos dimensiones espaciales lo que verificaría su teoría. Más aún, creen que ciertos resultados «peculiares» observados en los rayos cósmicos tienen una explicación en su teoría. Habrá que estar al tanto de estas ideas en un futuro cercano.

PS (24 julio 2010): Greg Landsberg, «Vanishing Dimensions and Planar Events at the LHC,» ICHEP 2010, París, 24 July 2010.