Lisa Randall, las dimensiones extra del espaciotiempo y los resultados del LHC en el CERN

Me ha sorprendido descubrir que aún no he escrito ninguna entrada sobre el libro de Lisa Randall, «Universos ocultos. Un viaje a las dimensiones extras del cosmos,» Acantilado, 2011 (la versión original en inglés es de 2004). Lo leí al poco de llegar a las librerías en Málaga, recién salido del horno, lo devoré y me gustó, sobre todo a partir del capítulo 17, cuando Lisa nos habla de su propio trabajo (desde 1998). Aunque no me gusta como abre los capítulos con «cuentos» que no vienen a cuento, me ha gustado los resúmenes que pone al final de cada capítulo, que permiten volver a ojear el libro a tiro fijo (como acabo de hacer). La escritura de Lisa es fácil de leer y la traducción es excelente (comparada con las pésimas traducciones de muchos otros libros de divulgación de la física teórica).

Lisa nos cuenta en el capítulo 17 cómo desarrolló junto a Raman Sundrum su famosa teoría RS (por Randall-Sundrum). Su idea es que las partículas del modelo estándar están en una brana 4D y las partículas supersimétricas están «secuestradas» en otra brana 4D diferente a la nuestra, ambas formando parte de un universo 5D (llamado bulk). Esta idea ofrece una explicación bastante elegante a la rotura de la supersimetría. Lo bueno es que esta teoría realiza predicciones a baja energía que se pueden buscar en los grandes aceleradores de partículas, como el LHC. Acumulando unos 100 /fb de colisiones protón contra protón a 14 TeV c.m. (en el centro de masas) se puede estudiar esta teoría hasta una escala de energía entre 2 y 4 TeV (depende de un parámetro llamado escala de curvatura).

Sigue leyendo

La electrónica de transformación basada en el control de la masa efectiva del electrón

La óptica de transformación está de moda. Tras la acústica de transformación, ahora nos proponen la electrónica de transformación. Te recuerdo, la óptica de transformación se basa en los metamateriales que permiten controlar las propiedades efectivas del índice de refracción, susceptibilidad eléctrica y permeabilidad magnética del material gracias a un diseño adecuado de su microestructura. En la electrónica de transformación la idea es controlar la masa efectiva de los electrones y huecos que se propagan en el material utilizando un diseño similar. En lugar de usar un metamaterial se utiliza una superred (superlattice) semiconductora en la que la masa efectiva de los portadores de carga presentan una fuerte anisotropía. La óptica de transformación permite el desarrollo de materiales muy exóticos como superlentes o capas de invisibilidad. En la electrónica de transformación nos proponen la fabricación de materiales en los que los electrones se comportan de forma efectiva como partículas sin masa, cuando se mueven en ciertas direcciones, lo que permitirá desarrollar dispositivos ultrarrápidos (no limitados por la movilidad de los electrones y huecos), con alta conductividad (que a baja temperatura es independiente de la temperatura) y con una respuesta no lineal fuerte. Todas estas propiedades los hacen fascinantes a la hora de desarrollar multitud de nuevos dispositivos para aplicaciones prácticas con las que ahora solo podemos soñar. Obviamente, la electrónica de transformación aún es solo una propuesta teórica, no demostrada mediante experimentos. Nos lo cuentan Mario G. Silveirinha, Nader Engheta, «Transformation Electronics: Tailoring Electron’s Effective Mass,» arXiv:1205.6325, 2012.

Sigue leyendo

Metamateriales hiperbólicos que permiten estudiar la causalidad en el espaciotiempo de Minkowski

Los metamateriales y la óptica de transformación están de moda pues permiten diseñar dispositivos fascinantes como lentes perfectas, capas de invisibilidad y objetos negros perfectos. Un metamaterial fabricado e iluminado con un haz láser en la aproximación de rayos extraordinarios (es decir, paralelos al eje de anisotropía) permite desarrollar un análogo óptico al concepto de espaciotiempo de Minkowski en 2+1 dimensiones y con él análogos físicos a agujeros negros, agujeros de gusano, propulsores (warp drive) de Alcubierre y cuerdas cósmicas. En estos sistemas una de las coordenadas espaciales del metamaterial tridimensional (por ejemplo la vertical) se comporta como tiempo y las otras dos (las transversales) como espacio, con lo que se simulan métricas de Minkowski solo en 2+1 dimensiones. El problema es que la luz en este medio puede propagarse por la coordenada que hace de tiempo (la vertical) en ambas direcciones, violando la causalidad (los eventos del «futuro» simulado pueden afectar a los eventos del «pasado» simulado). Igor I. Smolyaninov (Univ. Maryland, EEUU) propone un nuevo diseño de metamaterial hiperbólico «causal» que presenta una ruptura de la simetría PT (combinación de la simetría de reflexión en un espejo y la inversión temporal), lo que garantiza que la luz solo se puede propagar en una de las direcciones a la largo de la coordenada espacial que hace de tiempo. Con ello, el espaciotiempo de Minkowski que se simula en el material conserva la causalidad. La propuesta es puramente teórica y las figuras se han obtenido utilizado una simulación en COMSOL, sin embargo, el autor cree que estos metamateriales son realizables físicamente. Habrá que estar al tanto en los próximos años. El artículo técnico es Igor I. Smolyaninov, «Modeling of causality with metamaterials,» arXiv:1210.5628, Subm. 20 Oct 2012.

Frank Wilczek propone la existencia de cristales de tiempo

¿Qué es un cristal? Un sistema de átomos cuyo estado de mínima energía es periódico en el espacio. Un cristal de tiempo es un sistema de átomos cuyo estado de mínima energía es periódico tanto en espacio como en tiempo. Quizás habría que llamarles cristales de espacio y tiempo, o simplemente cristales oscilantes, pero Frank Wilczek, en un alarde de genialidad, ha decidido llamarles cristales de tiempo. Un nombre realmente sugerente. Sus dos últimos artículos en Physical Review Letters estudian la física clásica y la física cuántica de los cristales de tiempo. Lo más sorprendente es que se publica en el mismo número de PRL un artículo que presenta un esquema de cómo se puede fabricar un cristal de tiempo utilizando trampas magnéticas anulares de iones a muy baja temperatura, similares a las utilizadas por Wineland, Premio Nobel de Fïsica 2012; en esta propuesta, los iones forman un cristal debido a su repulsión eléctrica de Coulomb y rotan de manera permanente en el estado fundamental debido al campo magnético aplicado mediante técnicas láser. Según los autores, la rotación permanente de los átomos es robusta y podría ser observada mediante experimentos. Con el Premio Nobel de Física aún fresquito sobre estas tecnologías, muchos físicos experimentales ya estarán pensando en cómo implementar estas ideas y ser los primeros en lograr fabricar cristales de tiempo (o cristales de espacio y tiempo, nombre preferido por Tongcang Li et al.). Nos lo cuenta Jakub Zakrzewski, «Viewpoint: Crystals of Time,» Physics 5: 116, October 15, 2012, que se hace de los artículos de Alfred Shapere, Frank Wilczek, «Classical Time Crystals,» Phys. Rev. Lett. 109: 160402, October 15, 2012 [PDF gratis], Frank Wilczek, «Quantum Time Crystals,» Phys. Rev. Lett. 109, 160401, October 15, 2012 [PDF gratis], y Tongcang Li, Zhe-Xuan Gong, Zhang-Qi Yin, H. T. Quan, Xiaobo Yin, Peng Zhang, L.-M. Duan, Xiang Zhang, «Space-Time Crystals of Trapped Ions,» Phys. Rev. Lett. 109, 163001, October 15, 2012 [PDF gratis].

La idea de Frank Wilczek parte de uno de los temas de moda hoy en día, la rotura espontánea de la simetría (que es el fenómeno responsable de que el campo de Higgs cambie de propiedades por debajo de cierta energía crítica y se acople a todas las partículas fundamentales dándoles masa). En la rotura de la simetría significa que la solución (estable) a una ecuación matemática tiene menos simetría que una solución genérica a dicha ecuación (o si se prefiere, que las soluciones que preservan toda la simetría son inestables y decaen en soluciones estables que pierden parte de dicha simetría). No hay que irse a la teoría cuántica de campos para observar este ubicuo fenómeno, por ejemplo, las órbitas elípticas de Kepler para un planeta en el campo gravitatorio con simetría esférica producido por el Sol son un ejemplo de rotura de la simetría, pues las órbitas no tienen la simetría esférica del campo. En este caso no se trata de una rotura espontánea de la simetría porque la palabra «espontánea» se usa cuando el fenómeno le ocurre al estado fundamental (o de mínima energía) de la teoría.

En la Naturaleza, el ejemplo más conocido de rotura espontánea de la simetría son los cristales, en los que la simetría continua de traslaciones de los átomos en el espacio está rota y en su lugar aparece la simetría discreta periódica del cristal. Alfred Shapere (Univ. Kentucky, Lexington, EEUU) y Frank Wilczek (Massachusetts Institute of Technology, Cambridge, EEUU) proponen que la rotura espontánea de la simetría también permite que el estado fundamental de un sistema clásico de átomos puede ser periódico en tiempo, de manera similar a como en un cristal es periódico en espacio, a lo que llaman cristales clásicos de tiempo. En estos sistemas, los átomos en el estado fundamental se encuentran oscilando o rotando de forma periódica. Puede parecer que es imposible lograrlo, ya que el estado de mínima de energía de un sistema que puede rotar debería ser no rotar (estar quieto), pero si la relación entre la velocidad y el momento es no lineal, la energía puede ser una función multivaluada del momento y tener un mínimo en el que la velocidad no es cero. Obviamente, el problema es descubrir un sistema real que tenga una relación entre la velocidad y el momento tan exótica como para ser no lineal.

Frank Wilczek en un segundo artículo extiende esta idea a los cristales de tiempo cuánticos y descubre que hay fenómenos cuánticos que permiten que el estado fundamental se encuentre rotando u oscilando. Para ello considera un sistema anular descritos por una ecuación de Schrödinger no lineal cuyas soluciones de tipo solitón (ondas solitarias que mantienen su forma al propagarse) pueden acoplarse a un campo magnético externo de tal forma que en el estado fundamental dichos solitones rotan de forma permanente. Wilczek nos propone que un anillo superconductor que puede soportar una corriente eléctrica permanente en su estado de mínima energía podría permitir una realización física de este sistema gracias a que la fase superconductora se comporta como un condensado de Bose-Einstein que puede presentar solitones en ciertas circunstancias; obviamente, su propuesta es más teórica que práctica y Wilczek no considera los problemas de ingeniería que acarrea fabricar dicho sistema.

Una propuesta mucho más sencilla es la realizada por Tongcang Li (Univ. of California, Berkeley, EEUU) y sus colegas. Un sistema de átomos neutros con una interacción mutua atractiva (aunque sea débil) se puede acoplar un láser (con técnicas de óptica cuántica similares a las que han recibido el Premio Nobel de Física 2012) para emular el efecto de un campo magnético. Si estos átomos (por ejemplo, de berilio) se enfrían a muy baja temperatura hasta que se condensan en un estado de Bose-Einstein (para el berilio serían unos nanokelvin) en un trampa con forma de anillo (que el grupo de Wineland ya ha utilizado en alguno experimentos), el efecto del láser crearía vórtices en el condensado que se pondrían a rotar, emulando el movimiento de los solitones propuesto por Wilczek. El artículo de Li et al. explica bastantes detalles técnicos de su propuesto, a la vista de los cuales parece que es factible con las técnica actuales.

Zakrzewski nos recuerda que aunque los cristales de tiempo suenan próximos a una máquina de movimiento perpetuo, hay una gran diferencia: en los cristales de tiempo el movimiento periódico y eterno de los átomos ocurre en el estado fundamental del sistema y por tanto no se puede extraer trabajo (ni energía útil) de dicho sistema. La realización física de los cristales de tiempo no viola ninguna de las leyes de la termodinámica. ¿Para qué podrían servir entonces? Quizás podrían usarse como relojes a escala cuántica, aunque lo más interesante podría ser utilizarlos como análogos físicos para estudiar la rotura espontánea de la simetría en sistemas cuánticos.

La teoría de la relatividad extendida más allá de la velocidad de la luz de Hill y Cox

Fórmula relativista de adición de velocidades.

En matemáticas se llama prolongación de una función a la extensión de su dominio más allá de sus singularidades, que se comportan como frontera entre el dominio original y el extendido. Normalmente, la prolongación requiere incluir algunos cambios de signo en la definición de la función extendida para evitar que aparezcan valores imaginarios puros u otros números complejos. La matemática de la teoría de la relatividad puede ser aplicada a partículas que se mueven a una velocidad mayor que la de la luz (llamadas taquiones) si aceptamos que la masa y la energía de estas partículas pueden adoptar valores imaginarios puros. El problema es que no sabemos qué sentido físico tienen estos valores imaginarios. Un nuevo artículo ha copado algunos medios por presentar una extensión de la teoría de la relatividad a sistemas de referencia superlumínicos basada en una prolongación de sus ecuaciones. El artículo de Hill y Cox no ofrece ninguna justificación física y obviamente no existe ningún experimento que puede refutar sus ideas (por tanto, no se trata de una teoría en el sentido de Popper). Sin embargo, creo que merece la pena dedicarle una entrada en este blog para aclarar estas ideas, pues hay cierta confusión al respecto en los medios que se han hecho eco de la noticia. El artículo técnico es James M. Hill, Barry J. Cox, «Einstein’s special relativity beyond the speed of light,» Proc. R. Soc. A, published online 3 October 2012.

Hay tres cosas a tener en cuenta a la hora de realizar una prologación de la teoría de la relatividad especial de Einstein a velocidades superluminínicas. Lo primero, hay que prolongar varias funciones que presentan diversas singularidades, por ello, no existe una única solución; Hill y Cox presentan dos posibles prolongaciones y comentan los argumentos por los que prefieren una de ellas (sus argumentos son matemáticos, no físicos). Lo segundo, la prolongación de una función requiere extenderla hasta el infinito y hay que imponer una condición de cierre (una condición de contorno en el infinito) que normalmente introduce algún parámetro libre, cuya valor es arbitrario; en la primera versión de la teoría de Hill y Cox se selecciona el momento de la partícula para velocidad infinita, cuya única ventaja es que la masa de la partícula es un número real a todas las velocidades, y en la segunda se selecciona un valor finito para la masa de la partícula a velocidad infinita. Y lo tercero, la prolongación de una función requiere algún tipo de guía, siendo lo habitual preservar algún invariante; en el caso de Hill y Cox se ha utilizado la fórmula de adición de velocidades de Einstein que no es singular cuando se aplica más allá de la velocidad de la luz.

Fórmula relativista de adición de velocidades indicando las regiones donde el resultado es superlumínico (naranja y amarillo).

La prolongación de la teoría de la relatividad para velocidades 0 ≤ v ≤ c, a velocidades c < v < ∞, requiere una condición matemática para v = ∞. Hill y Cox utilizan como guía la fórmula de adición de velocidades de Einstein, U = (u+v)/(1+uv/c²), que para v = ∞ implica que uU=c². La razón que esgrimen es que esta fórmula no es singular para v=c, como otras fórmulas de la teoría de la relatividad; ello no quita que presente una singularidad para uv=-c² (las dos hipérbolas que se observan en la figura que abre esta entrada). El resultado de esta fórmula es superlumínico |U|>c, en ciertas regiones del plano (u,v), indicadas en naranja y amarillo en la figura de arriba, siendo sublíminico |U|<c, en el resto del plano, regiones indicadas en azul y verde. La idea de Hill y Cox es que la prolongación del resto de las fórmulas de la relatividad de Einstein se ha de realizar de tal forma que se preserve como invariante la relación  uU=c² para v = ∞. Esta idea matemática no tiene una interpretación física clara, siendo el argumento más firme en contra de la nueva teoría.

La fórmula más emblemática de la teoría de la relatividad de Einstein es E=mc², para p=v=0 (donde m es la masa y p es el momento lineal). ¿Qué fórmula proponen Hill y Cox para v = ∞? La prolongación analítica se puede realizar de muchas formas pero Hill y Cox nos ofrecen dos posibilidades diferentes. La primera, que es la que más les gusta a ellos, se basa en la siguiente idea. Si la masa m es una propiedad intrínseca de la partícula que caracteriza su energía en reposo, entonces debe haber un valor fijo del momento p que caracteriza su energía a velocidad infinita. Por tanto, E=pc para v = ∞. Esta fórmula ad hoc implica que en la fórmula E(v)=m(v)c², la «masa» m(v) es un número real para todas las velocidades dado por m(v)=m(0)/(1-(v/c)²)1/2, para 0 ≤ v ≤ c, y m(v)=(p/c)/((v/c)²-1)1/2, para c < v < ∞. Por el contrario, la segunda posibilidad se basa en asumir que además de la masa en reposo m, la partícula se caracteriza por un valor de la masa  m para velocidad infinita, con lo que la segunda fórmula cambia a m(v)=(mv/c)/((v/c)²-1)1/2, para c < v < ∞.

En resumen, se trata de un artículo matemático curioso que extiende la teoría de la relatividad de Einstein a sistemas inerciales que se mueven a velocidad arbitraria, menor, igual o mayor que la velocidad de la luz. No hay una justificación física de las fórmulas que se presentan, pues no hay ningún experimento físico que sirva de guía (Hill y Cox confiesan que el origen de este artículo fue la noticia de los neutrinos superlumínicos en OPERA). Considerar la fórmula de adición de velocidades de Einstein como válida a todas las velocidades no parece un mal principio, pero los autores no discuten qué significado físico pueden tener las singularidades que aparecen en dicha fórmula para uv=-c².

Por cierto, quizás te lo estés preguntando, ¿viola la causalidad la nueva teoría? Los autores no lo discuten en su artículo y nos indican en sus conclusiones que será tema de futuras investigaciones. Pero como es obvio no hay que pensar mucho para darse cuenta de que la causalidad es violada en las regiones naranja y amarilla de la figura de arriba. ¿Permite la nueva teoría los viajes en el tiempo hacia el pasado? Obviamente, los permite (basta recordar el antiteléfono de Tolman, 1917, para ver que no está prohíbido). ¿Quiere esto decir que se puede descartar la teoría desde un punto de vista físico? Pues así es, al menos en mi opinión. Pero, recuerda, el artículo de Hill y Cox no discute estos escabrosos asuntos de su teoría (los relega a líneas futuras de investigación). ¿Por qué no? Quizás para que no fuera rechazado por un revisor sin más. Evitando acercarte al veneno que puede matarte quizás logres sobrevivir a sus efluvios.

Nota dominical: Lev D. Landau propuso las estrellas de neutrones antes del descubrimiento del neutrón

Lev Davídovich Landau (1908-1968) recibió el Premio Nobel de Física en 1962 por su teoría matemática de la superfluidez del helio, pero sus contribuciones a la física fueron múltiples. Entre ellas destaca su teoría sobre la existencia de estrellas de neutrones, que Landau desarrolló en febrero de 1931. Habló de dicha teoría en marzo de 1931 con Niels Bohr (1885-1962) y León Rosenfeld (1904-1974). Rosenfeld, en una conferencia Solvay en 1973, no recordaba bien la fecha de la reunión y dijo que fue en 1932 tras la publicación del descubrimiento del neutrón por James Chadwick. Pero la fecha no cuadra con los datos históricos. Landau no estuvo en Copenhague en 1932 (visitó a Bohr entre el 25 de febrero y el 19 de marzo de 1931) y Bohr no se enteró del descubrimiento del neutrón hasta la segunda mitad de marzo de 1932 (recibió una carta de Chadwick fechada el 24 de febrero, pero estaba de viaje y no pudo leerla). Nos aclara esta curiosa historia un nuevo artículo de Yakovlev, que afirma con rotundidad que Landau descubrió la idea de las estrellas de neutrones antes del descubrimiento del neutrón. Por cierto, la idea del neutrón es de Ernest Rutherford (1871-1937) y se suele fechar en 1920. El artículo sobre esta historia es es Dmitry G. Yakovlev, Pawel Haensel, Gordon Baym, Christopher J. Pethick, «Lev Landau and the conception of neutron stars,» arXiv:1210.0682, Subm. 2 Oct 2012. También recomiendo las transparencias de la charla de D.G. Yakovlev, «Landau and Neutron Stars,» Ladek Zdroj, February 2008.

Landau visitó a Bohr en Copenhague tres veces antes de 1933. La primera entre el 8 de abril y el 3 de mayo de 1930, la segunda entre el 20 de septiembre y el 20 de noviembre 20 de 1930 y la tercera entre el 25 de febrero y el 19 de marzo de 1931 (esta última vez gracias a una beca Rockefeller que le gestionó el propio Bohr). Landau volvió a visitar a Bohr en Copenhague entre el 18 de septiembre y el 3 de octubre de 1933, y entre el 1 de junio y el 8 de julio de 1934. Landau no volvió a viajar fuera de la URSS después de 1934 (salvo un viaje a Checoslovaquia en 1963 para recibir tratamiento médico tras el terrible accidente de tráfico del 7 de enero de 1962 que puso fin a su carrera científica). Bohr visitó a Landau en la URSS tres veces: mayo de 1934, junio de 1937 y de paso en 1961.

Landau envió su famoso artículo «Sobre la teoría de las estrellas» el 7 de enero de 1932 a la revista Zeitschrift der Physikalische Sowjetunion, la primera revista soviética de física que publicaba artículos en otros idiomas, aparte del ruso, y fue publicado el 29 de febrero de 1932; curiosamente, la última línea del artículo publicado dice: «febrero de 1931, Zurich,» lo que sugiere que el artículo fue escrito entonces y que por alguna razón se retrasó su envío a una revista. El artículo tiene dos partes. En la primera, Landau calcula la masa máxima de una enana blanca (el famoso límite de Chandrasekhar). Destaca que Landau obtiene el valor 1,5 M⊙ (masas solares), valor muy próximo al actual, 1,44 M⊙, a diferencia del valor obtenido con anterioridad por Chandrasekhar, 0,91 M⊙. En la segunda parte, Landau estudia lo que el llama estrellas densas, en las que los «núcleos atómicos en contacto mutuo forman un núcleo gigante,» y que ahora llamamos estrellas de neutrones. Obviamente, muchos expertos consideran que afirmar que Landau, con solo 23 años, anticipó la existencia de las estrellas de neutrones es bastante discutible. Aún así, su cálculo de la masa crítica de estas estrellas es bastante correcto.

Por cierto, Chadwick descubrió el neutrón gracias a un experimento inspirado en un artículo de los Joliot Curie publicado el 28 de enero de 1932. Además, el primer modelo teórico de los núcleos atómicos como compuestos de protones y neutrones se propuso en abril de 1932 por Ivanenko. La primera predicción explícita de las estrellas de neutrones (con este nombre) fue hecha por Walter Baade y Fritz Zwicky en diciembre de 1933, casi dos años después del descubrimiento del neutrón (su objetivo era explicar la enorme energía liberada en las explosiones de supernovas).

Más información sobre Landau en este blog: «El gran genio de la física rusa del siglo XX, Lev Davídovich Landau (o el más rojo entre los rojos),» 4 febrero 2008.

Gravedad unimodular, constante cosmológica y energía oscura

¿Gravita el vacío? El efecto de la energía potencial del vacío equivale a una constante cosmológica con un valor 120 órdenes de magnitud mayor que el valor medido en los experimentos (si interpretamos la energía oscura como constante cosmológica), en concreto, un valor proporcional al cuadrado de la masa de Planck. ¿Se puede modificar la teoría de la gravedad de Einstein para que el vacío no gravite? La opción más sencilla es la gravedad unimodular, introducida en 1919 por el propio Albert Einstein, una simplificación de las ecuaciones de la gravedad obtenida fijando el determinante de la métrica a la unidad. Gracias a este pequeño detalle técnico solo gravita la parte de traza nula del tensor de energía-momento, es decir, la energía potencial no gravita, solo gravita la energía cinética.

En la gravedad unimodular el vacío no gravita y el valor «natural» de la constante cosmológica Λ es cero. ¿Cómo resolvemos entonces el problema de la energía oscura? Muy fácil, en las ecuaciones de la teoría aparece una constante de integración λ que hace el papel de constante cosmológica, pero cuyo valor se fija en las condiciones iniciales del universo (al inicio del big bang). La gravedad unimodular es una manera elegante de meter bajo la alfombra todos los problemas asociados a la constante cosmológica. Pero no todo son ventajas; aún no sabemos si la gravedad unimodular es compatible con todos los experimentos y tests que ha superado la gravedad de Einstein; de hecho, para muchos de ellos, las predicciones de la gravedad unimodular aún no han sido calculadas.

Todo esto viene a cuento por el reciente artículo técnico enviado a ArXiv el jueves pasado por Mario Herrero-Valea (@Fooly_Cooly) y su director de tesis Enrique Álvarez, ambos del Instituto de Física Teórica UAM/CSIC, Madrid. En dicho artículo demuestran que la teoría de Einstein y la unimodular coinciden en el límite de gravedad débil para fuentes arbitrarias (con anterioridad solo se había demostrado para fuentes estáticas), es decir, que esta última supera todos los tests de la primera en el régimen de campo débil. Un gran paso adelante, aunque todavía quedan muchos detalles por estudiar, como la evolución de los modelos cosmológicos en dicha teoría, o su cuantización (hay ciertos indicios de que podría ser más sencilla que en el caso de la teoría de Einstein). El artículo técnico es Enrique Álvarez, Mario Herrero-Valea, «Unimodular gravity with external sources,» arXiv:1209.6223, Subm. 27 Sep 2012.

Recomiendo consultar también a Enrique Alvarez, «The weight of matter,» arXiv:1204.6162, Subm. 27 Apr 2012. En cuanto al problema de la cuantización de la teoría, recomiendo a Lee Smolin, «Quantization of unimodular gravity and the cosmological constant problems,» Phys. Rev. D 80: 084003, 2009 [arXiv:0904.4841].

Por cierto, prometí escribir esta breve entrada en Amazings Bilbao 2012 (Naukas Bilbao 2012) con objeto de incentivar al propio Mario a escribir una entrada al respecto en su propio blog. Mario, ahora el guante está en tu mano de Stringers.

Conferencia de Francis: «El bosón de Higgs: Mitos y Realidades» en la Sociedad Malagueña de Astronomía

Hoy martes 25 a las 20:30 en el salón de la Sociedad Malagueña de Astronomía tendrá lugar la conferencia con titulo «El bosón de Higgs: Mitos y Realidades» a cargo del Dr. Francisco R. Villatoro del Dpto Lenguajes y Ciencias de la Computación de E.T.S. Ingenieros Industriales (Universidad de Málaga). Anuncio en la web de la SMA.

«Sipnosis: El año 2012 pasará a los anales de la historia de la física por el descubrimiento del bosón de Higgs, la partícula asociada al campo responsable de que las demás partículas adquieran masa. Esta noticia científica tan importante ha suscitado muchas dudas entre el público general que los medios han tratado de aclarar, aunque con poco éxito a la vista del gran número de «mitos» que se han construido alrededor de la física del campo de Higgs.

El Dr. Francisco R. Villatoro revisará los más importantes, como la relación de la masa con la gravedad y la del Higgs con el vacío. Mucha gente cree que entiende qué es un electrón, pero tiene dificultades con el Higgs. Y tratará de resolver estas dudas recordando qué es un campo cuántico, una partícula, una partícula virtual, el vacío y el espín de una partícula. Y para terminar todo lo que sabemos sobre las propiedades del Higgs según la teoría, cómo puede fabricarse esta partícula en las colisiones protón contra protón en el LHC del CERN.»

¿La partícula de Wang es el nuevo bosón de Higgs?

El descubrimiento del bosón de Higgs ha dado fin a la veda para cazar partículas escalares. Los físicos teóricos han propuesto muchísimas, la mayoría demasiado exóticas para tener esperanzas de que sean cazadas por los experimentos. Algunos medios se han hecho de la noticia publicada por la Asociación de Ciencia Británica (British Science Association) que afirma que el experimento ISOLDE en el CERN buscará la partícula de Wang, que algunos califican como el «nuevo» Higgs. Esta partícula fue propuesta por Charles Wang (Universidad de Aberdeen, GB) en una teoría de la gravedad de tipo escalar-tensorial (similar a la teoría de Brans-Dicke) con objeto de explicar la gran energía que se libera en las explosiones de supernovas. En su teoría el Dr. Wang considera la influencia en una estrella de neutrones pulsante de las inestabilidades del campo escalar acoplado a la gravedad que aparece en su variante de la teoría de Brans-Dicke. En mi opinión esta teoría no tiene ningún interés físico (de hecho su artículo solo ha recibido una autocita). Más aún, no entiendo cómo es posible que ciertos medios se hayan hecho eco de una noticia con tan poca chicha. Pero como seguro que alguien me preguntará sobre la partícula de Wang, pues nada, aquí tenéis mi opinión. El artículo técnico es Charles H.-T. Wang, Paolo M. Bonifacio, Robert Bingham, J. Tito Mendonca, «Parametric instability induced scalar gravitational waves from a model pulsating neutron star,» Physics Letters B 705: 148–151, 2011 [arXiv:0905.0706]. El único artículo que lo cita es Trevor B. Davies, Charles H.-T. Wang, Robert Bingham, J. Tito Mendonça, «Parametric Instability in Scalar Gravitational Fields,» Modern Physics Letters A 27: 1230023, 2012. En los medios la noticia parte de Ian Sample, «Is the ‘Wang particle’ the new Higgs boson?,» The Guardian, 3 September 2012, quien se hace eco de Gina Maffey, «Move over Higgs,» BSA, 2012, y de «Scalar field could unlock supernova mystery,» CERN Courier, Nov 23, 2011. Yo me he enterado vía «What’s with the Wang Particle?,» In the Dark, September 11, 2012.

Sobre la nueva teoría de la gravedad que afirma explicar la energía oscura y la materia oscura

Dos profesores de matemáticas, Shouhong Wang de la Universidad de Indiana, EEUU, y Tian Ma de la Universidad Sichuan, China, han propuesto una nueva teoría de la gravedad que explica la energía oscura y la materia oscura como resultado de la distribución no uniforme de materia en el universo, dándole la vuelta al argumento de que la materia oscura es responsable de la web cósmica. Su artículo propone que el tensor energía-momento de la materia (ordinaria) no se conserva, por lo que ha de ser acompañado de un (nuevo) campo escalar asociada a la densidad de energía potencial, un nuevo tipo de energía/fuerza causada por la distribución no uniforme de materia en el universo. Esta nueva «fuerza» puede ser positiva (repulsiva) donde hay poca materia y mucho vacío, explicando la energía oscura, y negativa (atractiva) donde hay mucha materia y poco vacío, explicando la materia oscura. El gran problema de la nueva teoría es que no explica la materia oscura en los cúmulos y supercúmulos galácticos, donde ha sido observada gracias a los efectos de lentes gravitacionales. Además, a mí me recuerda mucho a una versión «cutre» de la teoría de Brans-Dicke, que también explica energía oscura y materia oscura; seguro que si tratan de hacer dinámico su campo escalar acabarán con esta bien conocida teoría (no citada en su artículo). El artículo técnico es Tian Ma, Shouhong Wang, «Gravitational Field Equations and Theory of Dark Matter and Dark Energy,» arXiv:1206.5078, Subm. 22 Jun 2012. Se han hecho eco de este artículo en «Mathematicians Offer Unified Theory of Dark Matter, Dark Energy, Altering Einstein Field Equations,» ScienceDaily, Sep. 6, 2012.