Conferencia en Madrid: «Mecánica Cuántica en la Puerta de la Cosmología»

Dibujo20121208 Mecanica Cuantica Puerta Cosmologia - conferencia Antonio Alfonso Faus

El próximo miércoles 12 de diciembre, a las 13:30 en el Aula 502 del Edificio A de la E.U.I.T. Aeronáutica, Antonio Alfonso Faus impartirá la interesante conferencia «Mecánica Cuántica en la Puerta de la Cosmología.» Antonio es profesor emérito de la Univ. Politécnica de Madrid.

Supongo que Antonio nos hablará de sus últimas publicaciones: Antonio Alfonso-Faus, Màrius Josep Fullana i Alfonso, «Seeable universe and its accelerated expansion: an observational test,» arXiv:1209.1832; Antonio Alfonso-Faus, «Expanding versus non expanding universe,» Hadronic Journal 34: 165-178, 2011, arXiv:1207.0997; y Antonio Alfonso-Faus, Marius Josep Fullana i Alfonso, «Underpinning the universe: its scales, holography and fractality,» Gravitation and Cosmology, Russian Gravitational Society 18(2), 2012, arXiv:1201.4688. Más artículos de Antonio en ArXiv.

Breve homenaje a Pedro F. González Díaz y su «energía fantasma»

Dibujo20121210 pedro felix gonzablez diaz y su libro cuentos de ninyos y fantasmas

“Los poetas verdaderos tienen pasaporte para viajar por el tiempo, hacia delante o hacia atrás, y visitar todas las épocas pasadas y futuras, siguiendo posiblemente los mismos cánones que las partículas más elementales y los campos de fuerza …” (Pedro F. González-Díaz).

El 7 de julio de 2012 falleció Pedro Félix González Díaz, profesor de Investigación en el Instituto de Física Fundamental (IFF) del CSIC. Licenciado en Ciencias Químicas en la Universidad de Granada en 1970, obtuvo el doctorado en Ciencias en la Universidad Complutense de Madrid en 1974. Ingresó en la plantilla científica del Instituto de Óptica del CSIC en 1975, donde derivó su investigación hacia la Física Teórica, con énfasis en la Relatividad General. En 1983 dedujo una cota entre la entropía y el área de los sistemas cerrados, que hoy en día se conoce como la cota holográfica; Pedro generalizó la relación de Jacob D. Bekenstein S/E≤2πR de 1981 [1], para deducir [2] la cota holográfica general S/A≤1/4, cuya igualdad se cumple para los agujeros negros, S=A/4; como suele ocurrir muchas veces con logros de físicos españoles, esta cota holográfica es más conocida como cota holográfica de Bousso, tras su redescubrimiento por Raphael Bousso [3], quien citó a Bekenstein [1], olvidando a González-Díaz [2]. En 1992 se trasladó al Instituto de Matemáticas y Física Fundamental (IMAFF), precursor del IFF, donde en concentró en la gravedad cuántica, y la cosmología clásica y cuántica. En la última década se concentró en el problema de la energía oscura, la energía fantasma y la hipótesis del multiverso.

Los artículos más citados de Pedro [4-9], todos de su «año milagroso» 2004, se centran en su teoría cosmológica basada en la llamada «energía fantasma,» un nombre sugerente donde los haya. La expansión acelerada del universo puede interpretarse utilizando la llamada constante cosmológica, la energía de vacío, en cuyo caso la expansión acelerada es eterna. La ecuación de estado para la energía oscura en este modelo es ω=p/ρ=−1. Los resultados experimentales actuales (WMAP7+BAO+SPT+SN+H0) apuntan a que la ecuación de estado podría ser  ω≠−1, aunque próxima a este valor (el satélite Planck lo confirmará o refutará en marzo de 2013). En dicho caso, la energía oscura no se puede explicar con una constante cosmológica. Si  ω>−1, la energía oscura sería la quintaesencia, y si  ω<−1, la energía oscura sería la llamada “energía fantasma” (porque sería una energía de vacío para la que la suma de la densidad de energía más la presión daría un valor negativo (p+ρ<0) y, por ello, permitiría la existencia de objetos «patológicos» en el universo, como los agujeros de gusano). La ventaja del modelo cosmológico con «energía fantasma» es que puede explicar tanto la energía oscura como la materia oscura. El gran problema de este modelo cosmológico es que los datos experimentales actuales  (WMAP7+BAO+SPT+SN+H0) apuntan a un valor  ω>−1, aunque próximo a ω=−1. El propio Pedro nos contaba su modelo en «El colapso final del Universo no es inevitable gracias a la oscuridad del cosmos,» Tendencias Científicas, 21 junio 2003.

Lo que más me gusta de los artículos de Pedro es lo sugerente de los títulos de sus artículos: «¿Está el juicio final a la vuelta de la esquina?» [1]; «No hay que tenerle miedo a la «energía fantasma» [2]; «Termodinámica fantasma» [3]; «Futuro cósmico intemporal» [8]; «Energía oscura sin energía oscura» [10]; y estos son solo  algunos ejemplos.

Referencias

[1] Jacob D. Bekenstein, «Universal upper bound on the entropy-to-energy ratio for bounded systems,» Phys. Rev. D 23: 287–298, 1981.

[2] Pedro F. González-Díaz, «Bounds on the entropy,» Phys. Rev. D 27: 3042–3043, 1983.

[3] Raphel Bousso, «A covariant entropy conjecture,» Journal of High Energy Physics JHEP07: 004, 1999 [arXiv:hep-th/9905177].

[4] Pedro F. González-Díaz, «K-essential phantom energy: doomsday around the corner?,» Physics Letters B 586: 1-4, 2004 [arXiv:astro-ph/0312579].

[5] Pedro F. González-Díaz, «You need not be afraid of phantom energy,» Physical Review D 68: 021303, 2003 [arXiv:astro-ph/0305559].

[6] Pedro F. González-Díaz, Carmen L. Sigüenza,»Phantom thermodynamics,» Nuclear Physics B 697: 363-386, 2004 [arXiv: astro-ph/0407421].

[7] Pedro F. González-Díaz, «Axion phantom energy,» Physical Review D 69: 063522, 2004 [arXiv:hep-th/0401082].

[8] Pedro F. González-Díaz, «Achronal cosmic future,» Physical Review Letters 93: 071301, 2004 [arXiv:astro-ph/0404045].

[9] Pedro F. González-Díaz, José A. Jiménez-Madrid, «Phantom inflation and the «Big Trip»,» Physics Letters B 596: 16-25, 2004 [arXiv:hep-th/0406261].

[10] Pedro F. González-Díaz, «Dark energy without dark energy,» AIP Conf. Proc. 878: 227-231, 2006 [arXiv:hep-th/0608204].

Nota dominical: La curiosa historia de la cromodinámica cuántica (QCD)

Dibujo20121208 energy dependence of strong interaction - QCD coupling

«It is well known that theoretical physics is at present almost helpless in dealing with the problem of strong interactions. We are driven to the conclusion that the Hamiltonian method for strong interactions is dead and must be buried, although of course with deserved honour.» Lev D. Landau (c. 1960).

Muchos físicos teóricos parecen desesperados porque los experimentos no encuentran «nueva física» más allá del modelo estándar. Quizás este es el mejor momento para recordar el estado de la física de partículas en 1961. La teoría cuántica del campo electromagnético, la electrodinámica cuántica (QED), era todo un éxito, pero utilizaba un procedimiento matemático, la renormalización, que nadie entendía y que disgustaba incluso a sus descubridores (que la calificaban de «procedimiento para esconder los infinitos debajo de la alfombra»). La versión V-A de la teoría de Fermi para la interacción débil también era un éxito a nivel experimental, pero a nivel teórico era inconsistente para energías altas (aunque no fueran alcanzables en los experimentos). La interacción fuerte estaba en un estado deplorable, más allá de la clasificación de los hadrones de Gell-Mann y Zweig basada en la idea de los quarks (puras entelequias matemáticas). La mayoría de los físicos teóricos rehuía de las teorías gauge para la interacción fuerte (cuyo único éxito era la QED) y preferían ideas como el bootstrap o la democracia nuclear en el contexto de la teoría de la matriz S.

Todo se clarificó a finales de los 1960 gracias a los experimentos. La colisión de electrones de alta energía contra núcleos atómicos y nucleones (protones y neutrones) demostró que estaban compuestos de partículas (partones les llamó Feynman) que no interaccionaban entre sí. Lo más obvio era que los partones fueran los quarks, pero nadie entendía cómo era posible que a cortas distancias (o energía y momento grandes) se comportaran como partículas libres, mientras que a distancias más grandes (o energía y momento más pequeños) estuvieran ligados por una interacción muy fuerte. La conjetura entre los físicos teóricos era que las teorías cuánticas de campos no podían ser asintóticamente libres. Coleman y Gross propusieron demostrar esta conjetura de forma general a dos de sus estudiantes de doctorado, Politzer y Wilczek, quienes bajo la atenta guía de Gross demostraron en 1973 que la conjetura era falsa (por ello recibieron el Premio Nobel de Física en 2004). Las teorías de Yang-Mills no abelianas son asintóticamente libres (la QED es la excepción, por ser abeliana).

La teoría de la interacción fuerte, la cromodinámica cuántica (QCD), es asintóticamente libre porque los gluones tienen carga de color, mientras que la QED no lo es porque los fotones son neutros para la carga eléctrica. La teoría de la relatividad de Einstein implica que el vacío de una teoría cuántica de campos cuyos bosones gauge no tengan masa cumpla la relación εµ = 1 donde ε es la permitividad eléctrica, µ es la permeabilidad magnética y se ha usado c=1 (la expresión dimensional es εµ = 1/c²). En la QED el apantallamiento de la carga eléctrica implica que ε > 1, por lo que el vacío de la QED actúa como un material diamagnético (µ < 1). En la QCD los gluones tienen dos colores y actúan como dipolos permanentes de color (µ > 1), por lo que la teoría predice el anti-apantallamiento de la carga de color (ε < 1); este resultado se da para 3 colores si el número de sabores (o generaciones) de quarks es menor de 17.

En 1972, Fritzsch y Gell-Mann mencionaron la posibilidad de que la teoría de los gluones fuera no abeliana, aunque el nombre de cromodinámica cuántica aparece por primera vez en un artículo de Fritzsch, Gell-Mann y Minkowski en 1975 (una nota a pie de página sugiere “A good name for this theory is quantum chromodynamics”).

Referencias para profundizar.

[1] Gerhard Ecker, «Quantum Chromodynamics,» Lectures given at the 2005 European School of High-Energy Physics, Kitzbuehel, Austria, Aug. 21 – Sept. 3, 2005 [arXiv:hep-ph/0604165].

[2] Gerhard Ecker, «The Shaping of Quantum Chromodynamics,» Quark Confinement and the Hadron Spectrum X, Munich, Oct. 8, 2012 [slides – pdf].

Hoy comienzan las IV Jornadas CPAN que reúnen en Granada a los físicos españoles de alta energía

 

«El Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN) celebra su cuarto congreso en Granada, del 26 al 28 de noviembre. Durante estos días se dan cita expertos españoles en la búsqueda del bosón de Higgs, la física de neutrinos o la física nuclear, entre otras disciplinas.» Enlace a la web de las IV Jornadas CPAN (enlace a la página Indico con las slides).

Habrá una conferencia pública en el Parque de las Ciencias de Granada el 27 de noviembre a las 19:30, con entrada libre hasta completar aforo, a cargo de Álvaro de Rújula, físico teórico del CERN y del Instituto de Física Teórica (IFT, Universidad Autónoma de Madrid-CSIC), titulada «El Higgs, la partícula maldita

«El pasado 4 de julio, los dos mayores experimentos del Gran Colisionador de Hadrones (LHC) del CERN anunciaron el descubrimiento de una nueva partícula. Es muy probable que se trate del bosón de Higgs, la partícula predicha en los años 60 del siglo pasado por, entre otros, Peter Higgs, y que sería la llave para explicar el mecanismo que origina la masa de las partículas elementales, que es tanto como decir que explicaría por qué nuestro Universo es como es. Si esta nueva partícula es el bosón de Higgs habremos encontrado la pieza que faltaba para completar el Modelo Estándar de Física de Partículas, la teoría que describe las partículas elementales y sus interacciones. Su descubrimiento ha costado más de medio siglo y ha requerido la construcción del instrumento científico más grande y complejo jamás construido, el LHC. En esta conferencia, el físico teórico Álvaro de Rújula hará un recorrido por la historia de esta búsqueda y expondrá la importancia del hallazgo de la que se ha dado en conocer como la partícula de Dios, una incorrecta traducción de La partícula maldita (The goddamn particle), el nombre con el que el Nobel Leon Lederman la bautizó en uno de sus libros por su dificultad para ser detectada.»

El proyecto Consolider CPAN 2010 aúna a 26 grupos de investigación españoles en física de altas energías. Entre ellos, los españoles que participan en el CERN, «unos 570 físicos e ingenieros españoles, 200 en el LHC, a los que hay que sumar una importante comunidad de físicos teóricos. Estos científicos se dan cita cada año en las Jornadas CPAN para compartir los avances logrados en sus respectivos campos y debatir los progresos futuros. El CPAN tiene un papel crucial, ya que sufinalidad es crear un centro estable que promueva la participación española en este tipo de grandes proyectos internacionales.»

«Las IV Jornadas CPAN de Granada cuentan con la presencia de uno de los científicos que ha dirigido la búsqueda del bosón de Higgs en el LHC. Se trata de Jim Virdee, profesor del Imperial College de Londres y anterior portavoz del experimento CMS, uno de los dos grandes detectores del acelerador de partículas del CERN.» Pero además del Higgs también se hablará de la «física del sabor» (flavor physics), de los futuros aceleradores de partículas, de la física de Astropartículas, y de la física nuclear. Además, en las Jornadas CPAN también se realizará la entrega de los terceros premios de divulgación científica que convoca el proyecto.

Por cierto, hasta el 11 de diciembre, la Facultad de Ciencias de la Universidad de Granada acoge la exposición «El instrumento científico más grande jamás construido: Una exposición del CERN

Por qué el litio tiene una estructura electrónica 1s² 2s¹ en lugar de 1s² 2p¹

La respuesta a esta pregunta parece obvia, el estado electrónico ²S = 1s² 2s¹ tiene menor energía que el estado ²P = 1s² 2p¹. Pero esta respuesta es poco satisfactoria. ¿Por qué la energía del estado ²S es menor que la del estado ²P? Los estados 2s¹ y 2p¹ son degenerados, tienen la misma energía, pero la interacción electrón-electrón y electrón-núcleo rompen la degeneración. El electrón 2p está más alejado del 1s que el 2s, por lo que la energía de interacción repulsiva electrón-electrón entre ambos debe ser menor para el 2p; como esta energía es positiva se prefiere el 2p. Pero por otro lado, el electrón 2p está más alejado del núcleo que el 2s, su interacción electrón-núcleo es menor debido al apantallamiento del 1s; como esta energía es negativa se prefiere el 2s. La explicación semiclásica habitual afirma que este segundo efecto domina sobre el primero y por ello el estado preferido es el ²S en lugar del ²P. Sin embargo, este argumento tiene un grave problema, no es verdad que el electrón 2p esté más alejado del núcleo que el 2s, como demuestra un cálculo teórico sencillo del radio medio de las funciones de onda correspondientes. Lo sorprendente es que un cálculo cuántico riguroso muestra que, a pesar del apantallamiento del 1s, el electrón 2s es preferido por la interacción repulsiva electrón-electrón que al contrario de lo que un argumento anterior indica es menor para el estado 2s que el 2p. Esta curiosa conclusión, en contra de la intuición, aparece en el artículo técnico de W. S. Stacey, F. Marsiglio, «Why is the ground state electron configuration for Lithium $1s^22s$ ?,» arXiv:1211.3240, 14 Nov 2012; me he enterado gracias a «Why Is Li Atom Ground State In a 1s2 2s Configuration?,» Physics and Physicists, Nov. 16, 2012.

Por qué un muón es una partícula inestable que se desintegra en un electrón

Un muón es un leptón cargado como el electrón, pero tiene una masa 206,77 veces mayor. El electrón es estable (hasta donde sabemos), pero el muón es inestable y se desintegra (en reposo) en un electrón en solo 2,2 μs (microsegundos). ¿Por qué el muón es inestable y el electrón es estable? La razón es sencilla, el proceso cuántico de desintegración de un muón en un electrón es irreversible. Permíteme explicarlo con un poco más de detalle, pero antes quiero recordarte que los muones producidos en los rayos cósmicos permiten verificar la ley relativista de la dilatación del tiempo (el famoso experimento de Rossi-Hall de 1940), pues al moverse a velocidades ultrarrelativistas (próximas a la de la luz) su vida media crece como indica la teoría de la relatividad de Einstein, pues su tiempo propio (en el sistema de referencia en el que el muón está en reposo). La idea de esta entrada nació de la lectura de Tommaso Dorigo, «What Makes Particles Unstable?,» AQDS, Nov 9th, 2012.

El muón es la partícula asociada a las excitaciones del campo muónico. Este campo cuántico es de tipo fermiónico, es decir, tiene cuatro grados de libertad; dos grados de libertad se excitan dando lugar al muón y los otros dos grados de libertad al antimuón (su antipartícula). Los dos grados de libertad del campo asociados al muón corresponden a sus los estados quirales del campo, el muón levógiro y el muón dextrógiro, que están mezclados gracias al campo de Higgs como corresponde a que el muón sea una partícula con masa; lo mismo ocurre con el antimuón que es mezcla del antimuón dextrógiro y del antimuón levógiro. El muón es un partícula con carga eléctrica negativa (-1) y con hipercarga débil negativa (-1 para el muón levógiro y -2 para el muón dextrógiro), por tanto es capaz de interaccionar con el campo electrodébil, es decir, con el fotón (campo electromagnético) y con los bosones débiles W y Z (campo débil). Siendo un leptón, el muón no puede interaccionar con los gluones (campo cromodinámico), pues no tiene carga de color.

La excitación del campo muónico que corresponde a un muón excita el campo electrodébil, produciendo las partículas virtuales de dicho campo (fotones y bosones débiles virtuales). Desde el punto de vista de los diagramas de Feynman, el muón emite y reabsorbe de forma constante fotones y bosones débiles. El principio de incertidumbre de Heisenberg para la energía y la duración involucrada en un proceso cuántico obliga a que todo esto ocurra en un intervalo de tiempo muy breve de tal manera que el bosón virtual no sea observable. Cuando un muón emite un bosón W virtual también emite un neutrino muónico virtual, que un poco más tarde se recombinan para dejar el muón inalterado; o lo que es lo mismo, la excitación tipo muón del campo muónico excita los campos del bosón W y del neutrino muónico, pero sin que dichas excitaciones del lugar a partículas de dichos campos. También puede ocurrir que el bosón W virtual se desintegre en un muón y un antineutrino muónico; este último se aniquila con el neutrino muónico y como resultado se recupera un muón con la misma energía y momento que el original. En estos procesos (y muchos otros que podemos imaginar utilizando diagramas de Feynman con un mayor número de bucles cerrados), el muón no cambia su naturaleza y propiedades.

Sin embargo, a veces el bosón W puede excitar el campo electrónico y el del antineutrino electrónico, es decir, el bosón W virtual puede producir un electrón y un antineutrino electrónico virtuales. En dicho caso tenemos tres partículas virtuales, el neutrino muónico, el antineutrino electrónico y el electrón. Las leyes de la física impiden que estas tres partículas se recombinan para dar un lugar a un muón, salvo que los dos últimas se recombinen para dar un W, en cuyo caso ocurre lo descrito en el párrafo anterior (recuerda que un neutrino muónico y un antineutrino electrónico no se puden aniquilar, la única posibilidad es que el antineutrino electrónico oscile a un antineutrino muónico algo que tiene una probabilidad muy baja y requiere recorrer una distancia muy larga). Por tanto, hay una probabilidad no nula de que este proceso sea irreversible, es decir, que transcurrido el tiempo permitido por el principio de incertidumbre de Heisenbreg, las tres partículas virtuales (excitaciones de los correspondientes campos que violan la relación de Einstein, E²≠(mc²)²+(pc)²) se transformen en partículas «reales» (que cumplen la relación de Einstein E²=(mc²)²+(pc)²). Ese proceso corresponde a que un muón se desintegre en un electrón, un antineutrino electrónico y un neutrino muónico.

Por qué la desintegración de un muón en un electrón es un proceso irreversible y un electrón no puede «transformarse» en un muón. Lo impide la ley de conservación de la energía y el momento. Un electrón en reposo (o a baja velocidad) tiene una masa 207 veces más pequeña que la del muón, por lo que no tiene energía suficiente para producir un muón. La única posibilidad para que un electrón produzca un muón es en el caso de un electrón ultrarrelativista, cuya energía sea mayor que la masa de un muón.

Por qué el electrón es una partícula (perfectamente) estable. Porque las leyes físicas no permiten que un electrón (en reposo) se desintegre en ninguna otra partícula de menor masa. Por supuesto, en física no se puede realizar ninguna afirmación con certeza absoluta, pues creemos que hay leyes físicas que aún desconocemos. Los límites experimentales actuales para la vida media del electrón indican que es mayor de 4,6 × 1026 años (para la posible desintegración de un electrón en un neutrino electrónico y un fotón, que obviamente violaría la ley de conservación de la carga eléctrica; esta ley se podría salvar si existiera una tercera partícula de carga negativa aún no descubierta).

Nota dominical: Los dos argentinos que descubrieron hace 40 años cómo calcular en 4+ε dimensiones

Los físicos argentinos Carlos Guido Bollini (1926-2009), a la izquierda, y Juan José Giambiagi (1924-1996), a la derecha.

Gerard ‘t Hooft y Martinus Veltman recibieron el Premio Nobel de Física en 1999 por desarrollar en 1972 el método de regularización dimensional (cómo calcular diagramas de Feynman en 4+ε dimensiones) y utilizarlo para demostrar la renormalizabilidad de la teoría electrodébil (con rotura espontánea de la simetría y campo de Higgs). Sin embargo, no fueron los primeros en descubrir la regularización dimensional.

En 1971, dos argentinos, Carlos Guido Bollini y Juan José Giambiagi innovaron una idea para regularizar divergencias en la teoría cuántica de campos perturbativa: calcular usando un espaciotiempo de 4+ε dimensiones. Aplicaron este método a partículas escalares (con espín cero). En octubre de 1971 enviaron un artículo a la revista Physics Letters B. Los editores y revisores consideraron dicho método demasiado sorprendente y rechazaron el artículo. Giambiagi llegó a decir con ironía que su artículo fue rechazado «porque no sabíamos que la dimensión del espaciotiempo es 4.» Bollini y Giambiagi escribieron otro artículo que enviaron a la revista Il Nuovo Cimento B, recibido el 18 de febrero de 1972, fue aceptado, pero apareció el 11 de noviembre de 1972 (hoy hace exactamente 40 años) [1].

El 21 de febrero de 1972, Gerard ’t Hooft, un brillante estudiante de doctorado en Utrecht (Países Bajos), y su director de doctorado Martinus Veltman enviaron un artículo a Nuclear Physics B que sugería el mismo proceso de regularización que Bollini y Giambiagi. Su trabajo era más extenso e incluía aplicaciones a las teorías de Yang-Mills. Su artículo fue publicado rápidamente y apareció el 1o de julio de 1972 [2].

Los dos argentinos reclamaron al editor de Physics Letters B con el artículo de ‘t Hooft y Veltman en la mano y lograron que se publicara su primer artículo, que apareció en dicha revista el 7 de agosto de 2012, aunque con fecha de envío el 18 de octubre de 1971 [3]. Pero ya era demasiado tarde, todo el mundo asociaba la regularización dimensional a ‘t Hooft y Veltman.

¿Conocían ‘t Hooft y Veltman al enviar su artículo [2] el artículo [1] de Bollini y Giambiagi? Lo conocían, pues aparece citado como preprint en su artículo. Además, Veltman era miembro del comité editorial de Physics Letters B, ¿conocía también el primer artículo [3]? Nadie lo sabe. Nos cuentan esta historia Wolfgang Bietenholz y Lilian Prado, «40 Años de Cálculo en 4 + ε Dimensiones,» arXiv:1211.1741, Subm. 8 Nov 2012.

Sigue leyendo

Qué significa que el bosón de Higgs es «la clave para comprender el origen de la vida y de la materia»

«España debe al CERN casi dos años de cuotas: 110 millones de euros,» El Mundo, 9 nov 2012, y Rolf Dieter Heuer, director del CERN, ha aprovechado su visita a España para «reclamar al Gobierno que salde su deuda para finales de año.» Como ya sabía Leon M. Lederman cuando escribió su famosa biografía, para que los gobiernos te hagan caso debes decir cosas grandilocuentes, aunque sean mentirijillas, así que Heuer ha dicho que «el bosón de Higgs es clave para comprender el origen de la vida y de la materia.» ¿Qué quiere decir? Para entenderlo hay que recordar que el director del Instituto de Física de Altas Energías, Matteo Cavalli-Sforza, dijo que «Heuer se encuentra en España para convencer al Gobierno de la necesidad de mantener su aportación al CERN.» Por lo que parece, se ha reunido con la Secretaria de Estado de I+D+i, Carmen Vela, para concretar la aportación española para 2013 al CERN, que será de 51,4 millones de euros. Según el Gobierno, «nunca se pensó retirar la aportación española, que ya está en el proyecto de ley de presupuestos generales del Estado.» Con esto España pagará parte de lo que debe (unos 40 millones de euros de 2011 y unos 72 millones de euros de 2012; no existían deudas previas al año 2011). «Como resultado, en el mejor de los casos, la deuda a finales de 2013 seguirá ascendiendo a 73 millones de euros.» Según Heuer: «Nadie debe olvidar que el CERN forma parte de España y España debe parte de su éxito al CERN.» Más info en El Mundo, 9 nov 2012.

¿Qué ha querido decir Heuer con sus palabras? Sin el campo de Higgs las partículas (fundamentales) no tendrían masa, el protón tendría masa, pero el electrón no la tendría, con lo que siempre se movería a la velocidad de luz y sería imposible que un electrón se ligara a un protón para formar un átomo de hidrógeno. Sin el campo de Higgs no habría átomos, ni habría materia, ni habría galaxias, ni habría planetas y ni habría seres vivos. La interacción débil no sería tan débil y todos los núcleos (formados por protones y neutrones) serían radioactivos, incluso los isótopos más ligeros del hidrógeno (como el deuterio y el tritio). La existencia de cualquier forma de vida (incluso sin átomos, solo con núcleos) sería materialmente imposible. Entonces, ¿el bosón de Higgs es la clave para comprender el origen de la vida? Obviamente, un biólogo afirmará con rotundidad que no lo es. Porque no lo es. La relación entre la vida y el bosón de Higgs es similar a la relación entre el título del libro de Lederman y el bosón de Higgs. Me apena que Heuer caiga en estas cosas cuando se trata de «reclamar al Gobierno que salde su deuda,» pero algo parecido le ocurrió a Lederman, director del difunto SSC. Me apena que se tenga que llegar a estos extremos.

Sigue leyendo

Un nuevo resultado sobre las teorías no locales de variables ocultas que son separables

Protocolo de comunicación superlumínica en una teoría cuántica «modificada» resultado de una teoría de variables ocultas con propagación de señales superlumínicas. (C) Nature Physics.

Hay muchas demostraciones de que la mecánica cuántica no puede ser explicada mediante una teoría de variables ocultas. La mayoría asume una teoría estadística basada en una mecánica clásica local (relativista) y separable, como los famosos teoremas de John von Neumann o John S. Bell. Sin embargo, las teorías no locales o no separables, que permiten la propagación de señales superlumínicas o instantáneas, son harina de otro costal. La única posibilidad de refutar estas teorías de variables ocultas es demostrar que violan alguno de los teoremas que se deducen de la mecánica cuántica, como el teorema de «no clonación» (no-cloning) o el de «no señalización» (no-signaling). Este último teorema afirma que las correlaciones cuánticas entre sistemas entrelazados separados espacialmente no permiten el envío de señales superlumínicas. Nicolas Gisin (Univ. Ginebra, Suiza) y varios colegas, entre ellos el español Antonio Acín (ICFO e ICREA, Barcelona), han demostrado que toda teoría de variables ocultas no separable que permita la propagación de señales superlumínicas, a velocidad finita, viola el teorema de «no señalización,» es decir, sin necesidad de acceder a las variables ocultas, se puede construir un protocolo que aproveche las correlaciones cuánticas entre sistemas entrelazados (en la «mecánica cuántica modificada» descrita por dicha teoría) para transmitir señales superlumínicas. Trabajos previos habían podido demostrarlo para teorías concretas, pero este nuevo trabajo tiene mayor generalidad, por lo que ha sido publicado en la prestigiosa Nature Physics y ha generado cierto revuelo mediático (en muchos casos «tergiversando» las conclusiones del trabajo técnico). El artículo técnico es J-D. Bancal, S. Pironio, A. Acín, Y-C. Liang, V. Scarani, N. Gisin, «Quantum non-locality based on finite-speed causal influences leads to superluminal signalling,» Nature Physics, Published online 28 October 2012 [arXiv:1110.3795].

Sigue leyendo

Nota dominical: Julio Palacios Martínez y los antirrelativistas de la España franquista

Vayan a secretaría y que les devuelvan el importe de la matrícula de esta asignatura. La relatividad ha muerto y estas clases carecen de sentido.” Palabras de D. Julio Palacios en su curso de relatividad en la Facultad de Ciencias de la Universidad de Madrid, pronunciadas el día que llegó a sus manos una copia del artículo de Wallace Kantor, «Direct First-Order Experiment on the Propagation of Light from a Moving Source,» Journal of the Optical Society of America 52: 978-984, 1962.

Uno de los grandes problemas de la teoría de la relatividad es que mucha gente no entiende la conexión entre física y matemáticas en dicha teoría. Mucha gente abusa de las fórmulas matemáticas de la teoría, olvidando el problema físico a partir del cual fueron derivadas, o juegan con estas fórmulas como si cualquier cosa que se derivara de ellas fuera verdad, cuando no es cierto. Cada fórmula relativista derivada para explicar un problema físico concreto es válida solo en dicho problema. Su uso en cualquier otro problema puede ser incorrecto y llevar a contradicciones con otras fórmulas. Un ejemplo muy famoso en mi ciudad, Málaga, es «La diatriba de Juan Alberto Morales contra la transformada de Einstein-Lorentz

Mucha gente olvida que la teoría de la relatividad necesitó muchos años para ser aceptada por toda la comunidad científica española (físicos, matemáticos y astrónomos). En la España franquista destaca la prolongada crítica a la teoría de Einstein por parte de Julio Palacios Martínez (1891-1970), principal figura de la Física en España en la primera mitad de la dictadura (habiéndose exiliado la mayoría de sus colegas más capaces). Palacios intentó establecer una teoría alternativa a la de Einstein, que salvase las concepciones newtonianas del espacio y el tiempo. Por supuesto, Palacios fue una excepción y gran cantidad de científicos españoles se aproximaron a la relatividad en los años de la dictadura aceptándola sin crítica. La “cruzada antirrelativista” de Palacios logró muchos apoyos entre científicos, pero también fuera del terreno científico. Lo prueba la gran extensión de su obra sobre relatividad, que presenta sus nuevas ecuaciones de transformación entre sistemas de referencia inerciales, la paradoja de los relojes, el espacio y la geometría, las constantes de la Naturaleza, la teoría de la Gravitación, la dinámica relativista, el intento de recuperación de las acciones a distancia y el éter, la influencia del análisis dimensional en su postura, etc. Para los interesados en una discusión detallada les recomiendo la lectura del cuarto capítulo de la tesis doctoral de Pablo Soler Ferrán, «La teoría de la relatividad en la física y matemática españolas: Un capítulo de la historia de la ciencia en España,» dirigida por Andrés Rivadulla Rodríguez y presentada en la Universidad Complutense de Madrid, 2009. Permíteme un breve resumen.

Sigue leyendo