El universo conocido y el universo que creemos conocer

Este vídeo de youtube, visto casi 9 millones de veces, nos muestra el universo conocido, una pequeña porción de todo el universo que creemos que existe (salta al minuto 3:00 para ir al grano). La forma de cuña del universo que observamos en el vídeo es debida a que estamos dentro de la Vía Láctea, que nos impide ver en ciertas direcciones. Gracias a superordenadores podemos reconstruir la parte del universo a nuestro alrededor que no hemos visto pero que creemos que sabemos cómo es, como nos muestra el siguiente vídeo (Bolshoi Simulation, visto aquí). ¡Qué los disfrutéis!

Anuncios

Simulaciones por ordenador de la evolución del cosmos

Volker Springel (Universidad de Heidelberg) nos presenta en “Cosmological Simulations: Successes & Tensions of ɅCDM,” PASCOS 2011, Cambridge, July 2011, el estado actual de las simulaciones de la evolución temprana del universo. Este vídeo de youtube muestra la evolución de un trozo del universo de unos miles de kilopársecs desde z=48,4 (cuando el universo tenía unos 50 millones de años) hasta el presente, z=0,0, obtenida mediante simulaciones de N-cuerpos con unas 300 mil millones de partículas. Estas simulaciones muestran resultados similares a los observados en el universo visible cuando se incluye la presencia de materia oscura y de energía oscura en dosis similares a las predichas por el modelo cosmológico de consenso (ɅCDM). En mi opinión, lo más interesante de estas simulaciones es que los cambios en los valores de los parámetros del modelo ɅCDM conducen a resultados que difieren de lo observado, lo que valida la consistencia de sus predicciones.

Hasta ahora, el récord de la simulación cosmológica con mayor número de cuerpos lo ostenta Millennium-XXL, ejecutada 12.288 núcleos del superordenador JUROPA en 2010, es decir, en el 70% de JUROPA. Este ordenador está entre los 25 supercomputadores más poderosos del mundo, según el TOP500. La simulación utilizó 6720³ (unos 303 mil millones) de partículas y costó (el equivalente secuencial de) unos 2,7 millones de horas de CPU (o unos 300 años). La simulación de 0,3 billones de objetos en interacción gravitatoria mutua es difícil de imaginar y de visualizar, pero los resultados, además de tener un enorme interés científico, también son de gran belleza plástica, como muestra la figura de abajo.

Recomiendo la charla de Volker Springel, “Cosmological Simulations: Successes & Tensions of ɅCDM,” PASCOS 2011, Cambridge, July 2011, para más detalles sobre el estado actual de las simulaciones cosmológicas.

Por cierto, el número de hoy de Science incluye un especial sobre evolución galáctica: Maria Cruz and Robert Coontz, “A Universe of Galaxies;” Yudhijit Bhattacharjee, “Milky Way Researchers’ Home Away From Home;” Daniel Clery, “Galaxy Zoo Volunteers Share Pain and Glory of Research;” Eline Tolstoy, “Galactic Paleontology;” James S. Dunlop, “The Cosmic History of Star Formation;” y Timothy M. Heckman and Guinevere Kauffmann, “The Coevolution of Galaxies and Supermassive Black Holes: A Local Perspective.”

Qué pasaría si el espaciotiempo tuviera n dimensiones espaciales y m dimensiones temporales

Buena pregunta. El artículo de Max Tegmark, “On the dimensionality of spacetime,” Class. Quantum Grav. 14: L69–L75, 1997 [gratis en el MIT y en ArXiv], estudia esta cuestión en el contexto de la clasificación de ecuaciones en derivadas parciales en elípticas, hiperbólicas y ultrahiperbólicas. Su respuesta: la propagación de ondas solo puede estar descrita por ecuaciones covariantes hiperbólicas (las elípticas no lo permiten y las ultrahiperbólicas están mal puestas). Además, si requerimos que el espaciotiempo tenga una complejidad mínima para permitir la existencia de seres conscientes, tenga un futuro que sea predecible y permita la existencia de movimientos orbitales estables, necesariamente debe tener tres dimensiones espaciales y una temporal, espaciotiempo 3+1. Obviamente, este artículo ha sido objeto de comentarios en blogs por doquier. Pondré un solo ejemplo, Bee, “Why do we live in 3+1 dimensions?,” Backreaction, May 8, 2006. Bee nos enlaza a otros blogs y a otros artículos sobre el mismo tema, como Andreas Karch, Lisa Randall, “Relaxing to Three Dimensions,” Phys. Rev. Lett. 95: 161601, 2005 [ArXiv preprint].

Antes de continuar y para entender la figura debemos recordar que una ecuación en derivadas parciales de segundo orden, como la que corona la figura, donde la matriz A es simétrica, sin pérdida de generalidad, se puede clasificar en función del signo de sus autovalores (todos son reales por ser simétrica) como elíptica si todos tienen el mismo signo (todos positivos o todos negativos), parabólica si alguno es cero y el resto tienen el mismo signo (sea positivo o negativo), hiperbólica si uno es positivo y el resto son negativos (o viceversa), y finalmente ultrahiperbólica en el resto de los casos (al menos dos son positivos y al menos dos son negativos).

Vivimos en un espaciotiempo con (3+1) dimensiones, es decir, tridimensional en espacio y unidimensional en tiempo. ¿Qué pasaría si viviéramos en un espaciotiempo con (n+m) dimensiones? Recuerda, n son las dimensiones espaciales y m las temporales. ¿Puede un espacio tiempo (n+m) dimensional contener observadores conscientes como nosotros? Max Tegmark afirma que sólo es posible en un espaciotiempo con cierta complejidad, predictibilidad y estabilidad. La física es impredecible si m·n=0, es decir, si las ecuaciones en derivadas parciales que describen el universo son elípticas, como la ecuación de Laplace o la ecuación de Poisson. En ese caso el universo es inmutable y no hay futuro posible que predecir. Para n=1 o m=1, la ecuación es hiperbólica.  Para n=1 y m>3, o n>3 y m=1, fallaría la estabilidad, como ya observó Enhrenfest en 1917: el problema de dos cuerpos (puntuales) en un potencial que sea solución la ecuación de Laplace (como lo es para el potencial electrostático y el gravitatorio) es inestable porque dicha ecuación en dimensión n tiene una función de Green que decae como r2-n. Ni los átomos (mecánica cuántica) ni las órbitas planetarias (mecánica clásica) podrían ser estables. ¿Qué pasaría en el caso n<3? Básicamente falla el requisito de la complejidad mínima. Seres “conscientes” en planilandia (2D) sufrirían terribles problemas topológicos, por ejemplo, a la hora de conectar su cerebro con el resto del cuerpo vía terminaciones nerviosas. Más aún, como ya aclaró Wheeler, la fuerza gravitatoria en relatividad general no puede existir para n < 3. Tegmark tiene muy claro que un mundo con n=2, 1 y 0 no puede permitir seres conscientes como nosotros. El caso n,m≥2, es decir, si son ultrahiperbólicas, lo estudiaremos en el próximo párrafo.

Veamos en más detalle el caso ultrahiperbólico en el que el número de dimensiones temporales, m>1. Para Tegmark, un universo con m>1, con dos o más tiempos, no prohibe que los observadores estén limitados a percibir la realidad sólo con un único tiempo, por lo que no genera necesariamente problemas de causalidad (la nieta que mata a su abuela antes de parir a su madre). Sería un mundo muy extraño, por ejemplo, en mecánica relativista la energía sería un vector de m dimensiones, en lugar de una constante, pero estas ideas difícilmente rebaten la posible existencia de seres conscientes. Para Tegmark la clave está en la ultrahiperbolicidad de las ecuaciones covariantes que describan los campos físicos en dicho universo.

La realidad que conocemos está modelada por campos descritos mediante ecuaciones covariantes como la ecuación de onda u_{;\mu\mu}=0 y la ecuación de Klein-Gordon u_{;\mu\mu} + \hat{m}^2 u=0. Por ejemplo, los fermiones (electrones, positrones, quarks, …) están descritos por la ecuación de Dirac cuyas soluciones también cumplen la ecuación de Klein-Gordon. Otro ejemplo, los bosones vectoriales (fotón, gluones, bosones W y Z, …) en el gauge de Lorentz cumplen la ecuación de onda (la luz se propaga como una onda). Estas dos ecuaciones covariantes cumplen con la propiedad de que el signo de los autovalores de la matriz A tienen el mismo signo que la signatura de la métrica del espaciotiempo. En 3+1 dimensiones, con (n,m)=(3,1), tienen la signatura (+–––), o si se prefiere (–+++). Una ecuación elíptica correspondería a una signatura euclídea para la métrica (+++++) y una ultrahiperbólica a una signatura como (++––-). El tipo de la ecuación en derivadas parciales determina la estructura causal de las soluciones posibles (cómo las condiciones de contorno especifican el problema). Un problema está bien puesto si las condiciones de contorno determinan una solución única que depende de forma continua con los datos del contorno. En un problema mal puesto, un observador tendría que medir los datos iniciales y de contorno con precisión infinita para poder determinar (predecir) la solución. Dado un punto p del espaciotiempo podemos definir su cono de luz como la hipersuperficie que recorrería un haz de luz que partiera de p (hipersuperficie nula). El interior del cono de luz son los puntos del espaciotiempo separados de p por intervalos temporales y el exterior los separados espacialmente. En una ecuación ultrahiperbólica si la condición inicial está dada en una hipersuperfice que contiene intervalos espaciales y temporales respecto a un punto p, el problema de Cauchy está mal puesto.

El espaciotiempo en la escala de Planck y la materia igual al vacío

No sabemos prácticamente nada de la física a la escala de Planck, en la que el radio de Schwarzschild de un agujero negro y la longitud de onda de Compton se hacen iguales, en la que se requiere una teoría cuántica de la gravedad, intervalos de espacio de l_P=\sqrt{\hbar\,G/c^3}= 1.6\times 10^{-35} \mbox{m.} y de tiempo de t_P=\sqrt{\hbar\,G/c^5}= 5.4\times 10^{-44} \mbox{s.} ¿Se puede hablar de intervalos de tiempo o espacio más cortos? No, ya que no se puede construir un reloj o una regla que los mida, si la desigualdad de Heisenberg para la energía, {\Delta E\,\Delta t \ge \hbar}, se cumple a dicha escala, ya que implicaría que la masa del reloj o regla sería tal que se convertirían en un agujero negro (para físicos, Salecker-Wigner, 1958; para los demás, Zimmerman, 1962). En la escala de Planck no tienen sentido términos como “instante de tiempo,” “punto del espacio” o “evento espaciotemporal.” 

¿Se cumple la mecánica cuántica en la escala de Planck? Si se cumple ha de ser corregida, ya que la existencia de una distancia o un momento lineal mínimos requiere que el principio de incertidumbre de Heisenberg sea corregido resultando en \Delta p\,\Delta x \ge \hbar/2 + f\,G/c^3\,(\Delta p)^2 (también se puede introducir una corrección proporcional a (\Delta x)^2, Kempf, 1993), donde el factor f es un número adimensional del orden de la unidad. Esta relación se puede derivar a partir de ideas físicas muy generales, aunque también ha sido derivada en gravedad cuántica canónica, teoría de supercuerdas y gravedad cuántica de bucles. Esta relación de incertidumbre corregida nos lleva a nueva relación de incertidumbre {\Delta x\,\Delta t \ge \hbar\,G/c^4=l_P\,t_P}. La idea de un espaciotiempo continuo deja de tener sentido. Ni el espacio ni el tiempo pueden ser continuos, ni la relatividad especial puede cumplirse de forma exacta a la escala de Planck. Más aún, todas las cantidades que involucran derivadas respecto al espacio y al tiempo (velocidad, aceleración, momento, energía, etc.) dejan de tener sentido en la escala de Planck. Conceptos físicos como campo cuántico, simetría CPT, simetría gauge, etc. dejan de tener sentido en esta escala. La física tal como la conocemos deja de tener sentido en la escala de Planck.

¿Pueden ser puntuales las partículas a la escala de Planck? Obviamente, si a dicha escala el concepto de punto no existe, no pueden serlo. La masa de una partícula tiene que ser menor que la masa de Planck, m_P = \sqrt{\hbar\,c/G}=2,2\times 10^{-8} kg = 1,2\times 10^{19} GeV/c^2. La ausencia de espaciotiempo continuo nos lleva a que la materia y la antimateria (partículas y antipartículas) sean indistinguibles, así como las partículas “reales” y “virtuales” (on-shell y off-shell). Tampoco tiene sentido el concepto de espín, luego fermiones y bosones (materia y radiación) son indistinguibles. Más aún, hay una densidad máxima, cantidad máxima de masa que cabe en un volumen dado y por tanto hay una incertidumbre en la masa medible \Delta M > \hbar/(c\,R) en un volumen de radio R. En un volumen a la escala de Planck esta incertidumbre nos impide saber si dicho volumen está vacío o contiene masa. En la escala de Planck no tienen sentido conceptos como masa, vacío, partícula elemental, radiación y materia. La física tal como la conocemos deja de tener sentido en la escala de Planck.

Estas ideas están extraídas del artículo de Christoph Schiller, “Does matter differ from vacuum?,” ArXiv, 28 Oct 1996, que recomiendo para más detalles. La física a escala de Planck es “difusa” o “borrosa” o fuzzy (Kempf, 1998). ¿Se puede construir una mecánica cuántica fuzzy? ¿Qué conceptos sustituirán a los operadores lineales hermíticos en espacios de Hilbert? Nadie lo sabe. Aún así ya hay algunas propuestas sobre operadores no hermíticos para una mecánica cuántica a la escala de Planck, como T.K. Jana, P. Roy, “Non-Hermitian Quantum Mechanics with Minimal Length Uncertainty,” ArXiv, Submitted on 12 Aug 2009. El artículo tiene poco interés general, pero los físicos disfrutarán viendo cómo se rederiva la física “cuántica” de un oscilador armónico simple siguiendo la argumentación original de Heisenberg a partir de su relación de incertidumbre, pero utilizando la relación de incertidumbre generalizada que incorpora una distancia mínima.

La teoría de cuerdas ofrece un camino que “bordea” el problema de la escala de Planck en física gracias a la dualidad T (también llamada simetría de espejo) entre distancias R y 1/R con un mínimo alrededor de la escala de Planck. La física a una distancia menor que la escala de Planck en realidad corresponde a física a una distancia mayor que ésta. Las distancias menores que la escala de Planck son sólo una apariencia en el formalismo matemático de la teoría de cuerdas sin realidad física alguna. De esta manera la teoría de cuerdas “preserva” la física que conocemos aplicándola hasta (casi) la escala de Planck.

El regalo de cumpleaños de Gödel a Einstein

Dibujo20090615_Godel_universe_light_cones_general_relavity_and_spacetime_map

Un libro celebraría el 70 cumpleaños de Einstein en 1949. Gödel decidió escribir un artículo en el que resolvería un problema planteado por Gamow en la revista Nature en 1946. Le costó casi 3 años de trabajo, pero valió la pena. Un modelo cosmológico para un universo en rotación consistente con la relatividad general en el que una persona puede viajar a su propio pasado. Un problema que sólo un genio podía resolver, el regalo ideal para su amigo Einstein, con quien gustaba pasear en Princeton. El artículo fue enviado por Gödel al editor del libro, Schilpp, justo en el último momento (tras varias cartas de disculpa por el retraso). La historia del modelo cosmológico de Gödel nos la cuenta magistralmente Wolfgang Rindler, quien ya la contó en una conferencia en 2006 celebrando el centenario del nacimiento del propio Gödel, en el artículo que recomiendo “Gödel, Einstein, Mach, Gamow, and Lanczos: Gödel’s remarkable excursion into cosmology,” American Journal of Physics 77: 498–510, June 2009.

El universo sin materia se denomina substratum. Los modelos cosmológicos estándares cumplen el Principio Cosmológico, por el cual el substratum se asume perfectamente homogéneo e isótropo en todo momento. Un universo de este tipo es inestable y se expande. El modelo cosmológico de Gödel es homogéneo pero no es isótropo y logra evitar la expansión, es estacionario pero rota de forma rígida a un velocidad menor que la velocidad de la luz en el vacío. Un universo rotante que viola el principio de Mach, la materia que contiene puede rotar o no hacerlo, pero compatible con la relatividad general. Lo más sorprendente de este universo es que permite curvas espaciotemporales cerradas. Un observador que se mueva suficientemente rápido, más que la velocidad de rotación del universo (que es menor que la velocidad de la luz) puede retornar al pasado (en el tiempo de su reloj propio). Uno mismo puede volver a su propio pasado y suicidarse. Paradójico. Esta violación de la causalidad nos indica que este universo no es realizable físicamente. La gran crítica de Einstein al modelo de su amigo Gödel. Sin embargo, Gödel se defendió alegando que las curvas espaciotemporales tienen un radio mínimo y los cálculos indican que es enorme. Se requeriría un tiempo desmesurado para poder regresar al pasado. En la práctica nadie puede vivir lo suficiente para lograrlo.

Los físicos que no conozcan el modelo cosmológico de Gödel agradecerán (y entenderán) su métrica dada por

Dibujo20090615_Godel_universe_metric_with_proper_rotation_rate_and_cosmological_constant

Como vemos, la velocidad (lineal) de rotación (\Omega) es menor que la velocidad de la luz (c), donde a es el radio del universo. Este universo está caracterizado por una constante cosmológica negativa (\Lambda) y una curvatura (K) también negativa. Es un universo que rota en el mismo sentido que crece la variable \phi. ¿Qué distribución de materia conduce a este universo? Un gas de “polvo” modelado por un fluido perfecto pero sin presión.

La contribución de Gödel a la Festschrift de Einstein (publicación que celebra el cumpleaños de algo o alguien) es un universo sin sentido pero compatible con la teoría de Einstein, que nos recuerda que una solución matemática de unas ecuaciones físicamente correctas no es necesariamente realizable físicamente. Un universo con un reloj absoluto, con un centro y un eje de rotación, un universo al fin y al cabo que no es más que un regalo de cumpleaños para hacer pensar a Einstein sobre su propia teoría. El regalo que solo un genio de la talla de Gödel podía ofrecer a Einstein. 

Sobre la vida de Kurt Gödel se ha dicho mucho (quizás La mente más maravillosa del siglo XX). Sobre sus dos teoremas de incompletitud se ha escrito, casi, demasiado (Carlos nos los explica muy bien aquí Gödel en una cáscara de nuez: Primer Teorema de Incompletitud y Gödel en una cáscara de nuez: Segundo Teorema de Incompletitud, y Teorema de Completitud). ¿Te resulta muy técnico el trabajo de Carlos? Un resumen breve. El teorema de incompletitud de Gödel, básicamente, es equivalente a la paradoja del mentiroso: “Esta frase es falsa.” Si es verdadera, es falsa. Si es falsa, es verdadera. La frase es simultáneamente verdadera y falsa. Gödel toma una teoría T consistente (todo lo que se puede demostrar a partir de ella es verdad) y completa (todo lo verdadero se puede demostrar a partir de ella) y un teorema en dicha teoría, G, autorreferencial que afirma que “G no se puede demostrar usando la teoría T.” Si G se pudiera demostrar con los axiomas y las reglas de inferencia de T, entonces G es un teorema demostrable en T, pero entonces se contradice a sí mismo y es falso, por lo que T no puede ser una teoría consistente. Si T es consistente, entonces G es verdad y no se puede demostrar en T, es decir, T no es completa. En este sentido G es verdad pero indemostrable. La teoría T debe ser incompleta, hay afirmaciones verdaderas que no son demostrables. En general, en toda teoría habrá afirmaciones verdaderas (nadie sabe si todas serán autorreferenciales) que no son demostrables. Más aún, habrá infinitas verdades no demostrables, ya que añadir cualquier verdad no demostrable a la teoría conducirá a una nueva teoría con nuevas verdades indemostrables. El poder de lo autorreferente.

Energía oscura y constante cosmológica

Me ha gustado el artículo de T. Padmanabhan, “DARK ENERGY AND ITS IMPLICATIONS FOR GRAVITY,” ArXiv preprint, 16 July 2008 . El artículo propone que los problemas de qué es la energía oscura en el universo y el problema de la constante cosmológica son completamente independientes entre sí. La idea me gusta. Permítaseme parafresear su introducción.

El universo más simple que podemos imaginar contiene solamente materia visible (bariones) y radiación (energía). En el modelo matemático más sencillo del universo en expansión desde el big bang hay una densidad crítica (ρc) por encima de la cual el universo es abierto y se expande eternamente y por debajo de la cual es cerrado y acabará contrayéndose en un big crunch. La densidad de la materia bariónica (ρb) y de la radiación (ρr) se normalizan respecto a la densidad crítica dando lugar al parámetro adimensional Omega, sea Ob (=ρb/ρc) u Or (=ρr/ρc) para la materia bariónica y para la radiación, respectivamente, siendo O el valor total para el universo. Si O>1 es abierto, si O<1 es cerrado, y si O=1 es el universo es plano. Hasta principios de los 1980s se pensaba que el valor correcto del parámetro O (densidad de “contenido” del universo) era menor de la unidad, aunque algunos autores “gustaban” de un valor O=1.

Sin embargo, las observaciones astronómicas desde mediados de los 1970s indican que la mayoría de la materia en el universo no es bariónica, no es visible, es materia oscura. Es decir, la densidad de materia Om en el universo es fundamentalmente materia oscura Oo en lugar de materia visible Ob. Más aún, a principios de los 1980s se desarrolló el modelo inflacionario, el universo en sus primeros instantes sufre una expansión exponencial, que tiene como consecuencia la preferencia por un valor O=1 (valor crítico). Durante los 1980s, los cosmólogos teóricos preferían un modelo con O=Oo=1, aunque los datos astronómicos de los cosmólogos observacionales sugerían que Om=Oo=0.2-0.3. Sólo a finales de los 1980s y principios de los 1990s algunos teóricos sugirieron que podría existir alguna forma o componente de densidad de energía “oscura” Oe que reconciliará el resultado inflacionario O=1 con los datos experimentales Om=0.2-0.3. Los primeros análisis indicaban que este tipo de “energía” estaba distribuida uniformemente por todo el universo y que tenía una presión negativa (responde de forma antigravitatoria).

Este era el estado de las cosas hasta finales de 1990s, cuando las observaciones de supernovas Ia como candelas para medir distancias grandes mostró que la expansión del universo actualmente se está acelerando, lo que se puede explicar con una componente de energía oscura Oe=0.60-0.75. Cuando se trata esta energía como un fluido, su presión es negativa (si su densidad de energía es positiva). La elección más sencilla para explicar esta energía oscura es la existencia de una constante cosmológica en las ecuaciones de Einstein de la gravedad. Este término en dichas ecuaciones actúa como un fluido con presión negativa, compatible con las observaciones.

Dibujo20130207 composition of the cosmos

El resultado es un universo con una composición, cuando menos, extraña. La densidad de radiación (energía “visible”) es ridícula, Or=0.00005, la densidad bariónica (materia “visible”) es muy pequeña, Om=0.04, la densidad no bariónica (materia “oscura”) tiene Oo=0.26 y la energía oscura tiene Oe=0.70. Como no sabemos qué es la materia oscura y no tenemos una explicación “buena” para la energía oscura, el 99.6% del universo no es desconocido.

En relatividad general la aceleración de la expansión del universo está controlada por la suma de la densidad más 3 veces la presión, (ρ+3p) y no solamente la densidad ρ. Cuando (ρ+3p)>0, la gravedad total resultante es atractiva y la expansión se desacelera. Por el contrario, cuando (ρ+3p)<0 la gravedad muestra efectos “repulsivos” y la expansión del universo se acelera. En otras palabras, si la energía oscura domina sobre la materia, genera suficiente presión negativa para que el universo acelere su expansión. Ese es el resultado experimental observado por el corrimiento al rojo del espectro de las supernovas.

El nuevo modelo de “cómo parece que son las cosas” es muy bueno a la hora de predecir cosas y concuerda con un gran número de observaciones cosmológica independientes, las mas importantes son las siguientes:(a) Pequeñas fluctuaciones cuánticas en la distribución de energía en los inicios del universo fueron amplificados por una inestabilidad gravitatoria lo que las llevó a formar el núcleo de las futuras grandes estructuras del universo (galaxias, cúmulos, etc.) que existen hoy en día. La amplificación se produjo gracias a un periodo inflacionario de expansión exponencial. Las fluctuaciones cuánticas amplificadas son las fluctuaciones del campo de energía responsable de ésta, llamado campo inflatón, cuya naturaleza exacta actualmente es una incógnita.
(b) Aunque desconocemos el modelo exacto del inflatón, con lo que carece de poder predictivo per se, los posibles modelos tienen parámetros ajustables que permiten que el campo de fluctuaciones cuánticas tenga un espectro gaussiano caracterizado por un espectro de potencia compatible con las observaciones del fondo cósmico de microondas obtenidas por la sonda WMAP. Las observaciones de gran precisión de WMAP confirman este escenario (o mejor, el escenario se puede adaptar fácilmente a las observaciones).
(c) Simulaciones numéricas de la posible evolución de las pequeñas perturbaciones en el campo del inflatón permiten observar universos con características estadísticas para la materia bariónica (la visible) muy similares (estadísticamente, he dicho) a las observadas astronómicamente.
(d) Más aún, la cantidad de deuterio (hidrógeno pesado) estimada en el universo es compatible con una nucleosíntesis primordial en un universo con los parámetros previamente descritos. La nucleosíntesis “prueba” el universo cuando tenía sólo unos pocos minutos, mientras que el fondo cósmico de microondas lo prueba con varios cientos de miles de años. Que ambas observaciones sean compatibles es una prueba muy importante de lo razonable del modelo.

En palabras de Padmanabhan, “aunque no entendemos nuestro universo, hemos tenido mucho éxito en parametrizar nuestra ignorancia en términos de unos números bien elegidos.”

El mayor problema de nuestra comprensión de nuestro universo es el la energía oscura. El modelo más sencillo para la energía oscura considera que no es un fluido de presión negativa (que tendría una ecuación de estado p=w.ρ con w=−0.8 ) sino que es un valor no nulo de la constante cosmológica λ (con ecuación de estado p=−ρ, es decir, w=−1). Sin embargo, esto acarrea un nuevo problema, el problema de la constante cosmológica. Si adimensionalizamos las ecuaciones de Einstein para obtener un escala “natural” para la constante cosmológica, utilizando unidades de Planck, el único valor razonable para la escala de λ es 10^(−123), sí, un valor 123 órdenes de magnitud menor que la unidad. Esto ha llevado a mucha gente a creer que la constante cosmológica es exactamente cero. Pero las observaciones indican que su valor es no nulo. ¿Por qué la constante cosmológica tiene un valor no nulo tan pequeño?

Normalmente el valor nulo de una constante está relacionado con una simetría en las ecuaciones (alguna magnitud que se conserva de forma exacta). Sin embargo, no se conoce tal magnitud asociada a λ=0 (no la hay en las ecuaciones de Einstein). Por ejemplo, que el fotón tenga masa en reposo exactamente cero está relacionada con la simetría o invarianza de fase en el electromagnetismo (electrodinámica cuántica). La supersimetría, aún no descuberta experimentalmente pero que está en los objetivos del próximo LHC del CERN, asegura que λ=0, a alta energía, pero esta simetría está rota a baja energía y no puede explicar dicho valor en un contexto cosmológico.

Finalmente, hay otro problema importante en relación a la constante cosmológica que aparece frecuentemente en la literatura científia, ¿por qué ahora? Por qué en “nuestra” época del universo la contribución de la energía oscura a la densidad del contenido del universo (la enegía oscura) es comparable a la energía del resto de la materia del universo. hat could be called the “why now” problem of the cosmological constant. Según, Padmanabhan una teoría capaz de predecir el valor numérico actual de λ, debe también resolver el problema de por qué ahora su valor es comparable al resto de la densidad de energía. Actualmente tal teoría no existe.

Actualmente no tenemos ninguna teoría que explique los valores de las densidades de las componentes del universo. Ni ρr cuyo valor lo conocemos por la temperatura del fondo de microondas, para la que no tenemos ninguna teoría que explique por qué vale 2.73 ºK cuando han transcurrido cierto número de miles de millones de años desde que se formaron las galaxias. Ni tampoco tenemos ninguna teoría que explique el cociente de ρr/ρb, ni … En resumen, necesitamos nuevos datos experimentales pero también necesitamos nuevas “mentes”, nuevos “genios” que pongan los puntos sobre las íes en estos acuciantes problemas cosmológicos.

¿Realmente la expansión del universo se está acelerando? (o nunca hay que descartar otras hipótesis)


dibujo13mar2008aceleracion.jpg

La expansión acelerada del universo, aparentemente causada por la misteriosa energía oscura, puede deberse a una mala interpretación de la homogeneidad de la distribución de materia en el Universo, o así se afirma en el artículo de George Ellis, “Cosmology: Patchy solutions,” Nature 452, 158-161, 13 March 2008, que revisa varios artículos recientes sobre este tema. La energía oscura causa problemas más “gordos” que el problema que resuelve, la aparente aceleración de la expansión detectada en los estudios de supernovas tipo Ia utilizadas como candelas para medir las distancias en el universo lejano (a grandes corrimientos Doppler). ¿Puede explicarse esta expansión sin necesidad de nueva física, sea energía oscura, constante cosmológica no nula o la famosa quintaesencia (un tipo de anti-gravedad)? Estudios recientes han encontrado una explicación alternativa mucho más sencilla: la no homogeneidad de la distribución de materia en nuestro entorno cercano dentro del Universo puede ser la responsable de la aparente “segunda” inflación en la nos encontramos.

Las soluciones de las ecuaciones de Einstein para la gravedad a escala de todo el Universo tienen soluciones muy sencillas si se supone que la materia está distribuida de forma homogénea (de la misma forma en todas partes) e isótropa (de la misma forma mirando en todas direcciones). Esta hipótesis es consistente con las observaciones (claro, a gran escala, como en el fondo de microondas cuando quitamos el efecto de la vía láctea y los efectos de la velocidad de la Tierra, muy bien ilustrado aquí) pero no es una consecuencia de las ecuaciones sino el llamado Principio Cosmológico (también llamado de Copérnico): Las características del Universo cercano no son especiales de ninguna forma, sino típicas del resto del Universo en su totalidad.

El Principio Cosmológico es “razonable” pero no ha sido verificado experimentalmente. No es fácil. Este principio es consistente con las medidas de distancia más lejanas (gracias a las supernovas Ia) sólo si alguna forma de energía oscura existe. Sin embargo, investigaciones recientes han mostrado que si obviamos el Principio de Copérnico y consideramos que nuestra distribución de materia local (“cercana” a nosotros) es especial, entonces la energía oscura no es necesaria.
dibujo13mar2008aceleracionmilagro.jpg
La primera posibilidad es que inhomogeneidades locales en la distribución de materia requieren un proceso de promediado de las ecuaciones de Einstein a escala pequeña que conduce a una fuerza repulsiva (“backreaction” o retroreacción), un término que ha de ser añadido a las ecuaciones “suavizadas” que modelan el Universo a gran escala (véase, p.ej., Syksy Rasanen, “Evaluating backreaction with the peak model of structure formation,” ArXiv preprint, 31 Jan 2008). Sorprendentemente, los resultados de este término repulsivo son similares a los de la energía oscura.

Claro, estas inhomogeneidades locales también afectan a nuestras observaciones cosmológicas de fuentes lejanas, que sufren un proceso de lente gravitatoria (enfoque) que puede cambiar significativamente la luminosidad aparente de fuentes lejanas. Aunque los resultados dependen de la distribución exacta de materia en nuestro entorno local (algo no conocido con detalle) hay varias distribuciones compatibles con los resultados observados para supernovas Ia de gran corrimiento al rojo (gran z).

Investigadores como Teppo Mattsson, “Dark energy as a mirage,” ArXiv preprint, revised version 23 Dec 2007, han encontrado una interpretación “natural” de los efectos observados en la anisotropía del fondo de microondas, la nucelosíntesis de los elementos, el corrimiento hacia el rojo de las supernovas Ia lejanas y la expansión de Hubble, entre otros efectos, que son compatibles con cierto tipo de vacíos de materia cercanos y una distribución de materia en el Universo de un 90% de materia oscura y un 10% de materia (bariónica), nada de energía oscura, y un Universo de unos 14.8 mil millones de años. Es decir, si vivimos en una “burbuja casi vacía” entonces la energía oscura es un espejismo.

La misma idea, que estamos en un región del Universo con una densidad anormalmenet baja, en una burbuja “vacía” y por tanto rodeados del resto del Universo con “más” materia, ya había sido presentada en el artículo de revisión de la francesa Marie-Noëlle Célérier, “The Accelerated Expansion of the Universe Challenged by an Effect of the Inhomogeneities. A Review,” ArXiv preprint, 7 Jun 2007.

Por supuesto, estas ideas “no convencionales” que están en contra del stablishment en Cosmología han sido recibidas con gran excepticimo por la mayoría de cosmólogos en activo. Aún así, como se comenta en Stephon Alexander, Tirthabir Biswas, Alessio Notari, Deepak Vaid, “Local Void vs Dark Energy: Confrontation with WMAP and Type Ia Supernovae,” ArXiv preprint, 1 Mar 2008 , la verificación experimental de la existencia de estas inhomogeneidades locales, aunque es difícil, no es imposible y promete eliminar la “odiosa” energía oscura, cuyas propiedades físicas nos resultan extremadamente difíciles de “comprender” y “aceptar” (requieren términos de energía negativa, anti-gravitatorios, …).

Si fue una “desagradable” sorpresa la energía oscura hace 10 años, quizás pronto (el lanzamiento de Planck está previsto por la ESA para el 31 de octubre de 2008 ) descubramos una nueva sorpresa, pero esta vez más “agradable”, no estabámos tan equivocados en 1998 sobre el Universo como lo estamos ahora.

¿Quieres publicar más de 30 artículos al año? Hazte ElNaschieno (o mejor, hazte editor y publica en tu propia revista, pero que tenga alto índice de impacto, eh!!!)

dibujo11mar2008elnaschie.png

M.S. El Naschie, editor de Chaos, Solitons & Fractals, revista internacional de Elsevier con un índice de impacto de 2’042 (ISI JCR 2006), es un gran “monstruo” de la fabricación de artículos cual galletas fueran. Un día a mediados de los 1990s decidió incrementar su propio C.V. exageradamente, auto-publicándose artículos en su “propia” revista. Y lo ha logrado. Por supuesto, como único autor… claro está.

Por ejemplo, en el Sample Online Issue (hoy es el Volume 35, Issue 1, Pages 1-212, January 2008 ) tenemos: 25 artículos de los cuales ¡¡seis!!, sí, has leído bien, ¡¡6!! artículos están escritos por el propio El Naschie (más del 20%). En concreto:

2. “String theory, exceptional Lie groups hierarchy and the structural constant of the universe,” Pages 7-12, M.S. El Naschiei
4. “Super-symmetric quantum gravity inverse coupling from the Exceptional Lie symmetry groups hierarchy,” Pages 38-39, M.S. El Naschie
7. “Notes on exceptional lie symmetry groups hierarchy and possible implications for E-Infinity high energy physics,” Pages 67-70, M.S. El Naschie
8. “Exceptional Lie groups hierarchy and some fundamental high energy physics equations,” Pages 82-84, M.S. El Naschie
11. “Noether’s theorem, exceptional Lie groups hierarchy and determining 1/α 137 of electromagnetism,” Pages 99-103, M.S. El Naschie
25. “Symmetry group prerequisite for E-infinity in high energy physics,” Pages 202-211, M.S. El Naschie

Como podéis observar la mayoría de los arítculos de El Naschie de los últimos años (empezó siendo un especialista en dinámica no lineal y caos en sistemas vibratorios elásticos y mecánicos, problemas de buckling en barras) son sobre la teoría de “E-infinito”, un modelo fractal del espacio-tiempo, que junto a mucha “numerología”, le permiten explicar ciertos “números” del Modelo Estándar (número de partículas, masas de partículas, tipos de simetrías, etc.) y del Modelo Cosmológico Estándar (número de partículas en el universo, características del campo de inflación, aceleración actual de la inflación, etc.).

 

Las ideas de El Naschie difícilmente se pueden publicar en otras revistas, pues son muy poco ortodoxas. Quizás por ello ha decidido auto-publicarse en su propia revista. Muchos de sus artículos son cortitos y se “repiten” significativamente.

¿Quieres publicar en Chaos, Solitons, & Fractals? Tienes dos opciones. Hacer un buen trabajo en Dinámica No Lineal y campos relacionados, o hacerte ElNaschieno y ponerte a trabajar en sus exotérica teoría E-infinito, él quedará encantado y te los aceptará sin problemas. Ya tiene cierto número de seguidores… ¿quieres apuntarte?

¿Cuál es el índice-h de El Naschie? O mejor, el auto-índice-h, pues la mayoría de sus publicaciones más citadas son los últimos años y han sido auto-citadas. Pero bueno, sin descontarlas, tiene un índice-h de 29 (a fecha de hoy).

¡¡Qué envidia!! Si fuera más joven me haría ElNaschieno… pero ahora mismo me tengo que conformar con publicar sólo 2 o 3 artículos al año. Qué le vamos a hacer, no soy tan “listo” como él.

¡¡ AAAHHH !! Queréis saber qué opina el propio El Naschie sobre su GRAN trabajo investigador, os recomiendo la entrevista que le hicieron como Investigador Altamente Citado.