Nuevo asalto de Kobkhidze contra la teoría de la gravedad emergente de Verlinde

Tres chicas saltando en la playa gracias a la gravedad emergente de Verlinde.

Archil Kobakhidze publicó en octubre de 2010 una posible refutación experimental de la teoría de Verlinde sobre la gravedad como fuerza entrópica. Sus argumentos han sido rebatidos por Chaichian et al. en un reciente artículo aceptado en Physics Letters B (ArXiv preprint), que a su vez él se ha visto obligado a rebatir. Según Kobakhidze, los experimentos con neutrones ultrafríos en un campo gravitatorio publicados en 2002 en Nature refutan la teoría propuesta en 2010 por Eric Verlinde que afirma que la gravedad es un fenómeno emergente. Hasta donde me consta, Erik Verlinde (Universidad de Amsterdam) no ha contestado personalmente a los argumentos de Kobakhidze. Las medidas de la gravedad en neutrones utilizando la ecuación de Schrödinger y un potencial newtoniano, en pleno acuerdo con la teoría de Newton (y la de Einstein), estarían en contradicción con la gravedad emergente de Verlinde. Según Kobakhidze, “estos experimentos con neutrones refutan sin ambigüedad el origen entrópico de la gravitación.” El nuevo artículo es Archil Kobakhidze, “Once more: gravity is not an entropic force,” ArXiv, 21 Aug 2011 (se ha hecho eco de este artículo KFC, “Experiments Show Gravity Is Not An Emergent Phenomenon,” ArXiv blog, 24 aug. 2011).

La razón que expone Kobakhidze para afirmar que la teoría de la gravitación de Verlinde y la de Newton dan resultados diferentes para un sistema cuántico es la siguiente. La ecuación (3.14) del artículo original de Verlinde afirma que una partícula de prueba con masa m en el campo gravitatorio generado por otra partícula de mayor masa M, está descrita por un número de microestados n(r) que depende de la distancia entre ambas masas según

n(r)=\frac{2m}{T}=\frac{4\pi r^2}{G_N}\frac{m}{M}.

Kobakhidze afirma que esta ecuación implica que la entropía de la partícula de prueba S_{N}(r) cambia con la distancia según la fórmula

\Delta S_{N}=\Delta \log\left(\frac{m}{M}N(r)\right)=\Delta \log N(r)=\Delta S =2\pi m \Delta r.

Esta fórmula describe bien la gravedad para sistemas macroscópicos pero contradice los resultados experimentales en sistemas microscópicos. El hamiltoniano cuántico asociado a esta fórmula conduce a un potencial en la ecuación de Schrödinger que difiere del newtoniano, por lo que sus soluciones difieren de los resultados verificados en los experimentos con neutrones. Chaichian et al. critican a Kobakhidze afirmando que esta última fórmula no es correcta ya que su interpretación holográfica en el marco de las ideas de Verlinde lleva a una contradicción (por lo que no puede ser una consecuencia de dicha teoría).

En el nuevo artículo, Kobakhidze se reafirma en su fórmula, la deriva de nueva manera y presenta argumentos en contra de la contradicción concreta descubierta por Chaichian et al. Según él, estos autores se confunden a la hora de contar los microestados en una pantalla holográfica y por ello su cuenta no coincide con la que implica la fórmula anterior; en este sentido sus argumentos afirmando que esta fórmula es incorrecta se caen por su propio peso. No entraré en los detalles (remito a los interesados a los artículos originales), pero sus argumentos (muy sencillos) parecen convincentes.

Habrá que estar al loro de la respuesta de Verlinde… que en este asunto parece estar más callado que una tumba.

Tras superar los 2,5 /fb de colisiones en ATLAS y CMS, el LHC del CERN entra en una nueva parada técnica de dos semanas

El lunes 22 de agosto a las 18:00 horas se paró de forma intencionada la última inyección de protones con haces estables en modo colisiones (fill #2040) para dar paso a una parada técnica (sin entrar en modo colisiones) durante un par de semanas en el Gran Colisionador de Hadrones (LHC) del CERN. Esta inyección tuvo una duración de 17:36 horas y acumuló unos 83 /pb en ATLAS y CMS. Ahora mismo ATLAS ha logrado acumular una luminosidad integrada durante 2011 de 2,65 /fb y CMS de 2,57 /fb. Durante la parada técnica se realizarán muchas pruebas y entre ellas la inyección de hasta 288 paquetes separados por 25 ns (actualmente en modo colisiones se trabaja con 1380 paquetes separados por 50 ns).

Nueva combinación no oficial de Philip Gibbs (viXra log) para la búsqueda del bosón de Higgs

Como no podía ser menos, Philip Gibbs acaba de publicar su “New Unofficial Higgs Combo,” 22 aug. 2011, utilizando los datos publicados por ATLAS y CMS ayer lunes en Mumbai, India. La nueva figura combinada (no oficial) indica que el bosón de Higgs del modelo estándar tiene una masa entre 115 y 135 GeV. Además, desaparece la señal de casi 3 sigma sobre un posible Higgs entre 125 y 145 GeV. Philip también ha publicado la combinación de los datos de LHC publicados ayer con los datos del Tevatrón publicados en julio, resultando la siguiente figura.

La diferencia más notable con la figura anterior está en la región entre 100 y 120 GeV. Pero lo más interesante es la gráfica no oficial que Philip nos presenta hoy en “Higgs Signal Plots.” Esta nueva figura presenta la diferencia entre los niveles de confianza observado y esperado para la señal del Higgs junto con las bandas estadísticas a una y dos desviaciones. La posición relativa de la línea negra con respecto a las líneas roja y verde determina la probabilidad de las dos opciones posibles, que no exista el Higgs y que sí exista. La ausencia de un Higgs corresponde a la línea negra colocada en la región indicada por cero (línea roja) y la existencia de un Higgs por su colocación en la región indicada por uno (línea negra).

Esta figura muestra que por encima de 155 GeV la señal es consistente con la ausencia del Higgs. Por debajo de 135 GeV la banda de error es tan grande que permite las dos posibilidades (presencia o ausencia del Higgs). En la región entre 135 y 150 GeV esta figura no aclara mucho, pura incertidumbre.

En resumen, Philip Gibbs está realizando un trabajo pionero muy interesante combinando figuras producidas por el LHC y el Tevatrón, algo que parece imposible que pueda realizar un aficionado (Philip es un físico británico que no trabaja en física de partículas elementales sino, creo, en la industria). Él decidió crear un servidor de preprints (http://vixra.org) competencia de ArXiv, porque en este último no le dejaban publicar sus preprints (le faltaba un aval adecuado). ViXra se creó para aceptar todo, todo sin restricciones (salvo los casos extremos de abuso). ViXra.org (cuyo nombre es una parodia del de arXiv.org) no ha tenido mucho éxito (solo se han publicado unos 2000 artículos/preprints), pero Philip creó un blog para promocionarlo que está logrando convertirse en toda una referencia en la física de partículas elementales.

El mecanismo de Higgs se observa en un material llamado aislante topológico

Un aislante topológico es un material exótico que conduce la electricidad por su superficie (por las mismas leyes físicas que en el grafeno), pero que es un aislante en su volumen interior. Por analogía física estos materiales permiten estudiar partículas de alta energía como los axiones, las partículas de Majorana y los fermiones de Dirac sin masa. T. Sato et al. han descubierto una transición de fase en estos materiales por la que los fermiones de Dirac sin masa adquieren masa de forma espontánea gracias a un proceso muy similar al mecanismo de Higgs responsable de la ruptura espontánea de la simetría electrodébil. Los fermiones de Dirac sin masa en la fase topológica del material, durante la transición a una fase no topológica, adquieren masa justo antes de desaparecer en dicha fase no topológica. Este resultado ha pillado por sopresa incluso a los propios autores del descubrimiento y ahora que está tan de moda la búsqueda del bosón de Higgs en el LHC del CERN nos recuerda que muchas de las propiedades del mecanismo de Higgs se podrán estudiar gracias a analogías físicas como ésta. El artículo técnico es T. Sato et al., “Unexpected mass acquisition of Dirac fermions at the quantum phase transition of a topological insulator,” Nature Physics, online 14 August, 2011. Más información sobre aislantes topológicos en Geoff Brumfiel, “Topological insulators: Star material,” News Feature, Nature 466, 310-311, 15 July 2010, y Charles Kane, Joel Moore, “Topological insulators,” Physics World, Feb. 2011, 32-36. En este blog ya hablamos de estos materiales en “Dopar un aislante topológico con impurezas magnéticas rompe la simetría de inversión temporal y abre una nueva vía a la espintrónica,” que tienen el honor de ser el tema de una clase especial del Dr. Sheldon Cooper en la serie de televisión “Big Bang.”  

Un aislante topológico es un material exótico que conduce electricidad por su superficie pero actúa como aislante en su volumen interior. La conducción de electrones en su superficie es similar a la observada en materiales planos como el grafeno (de un solo átomo de grosor) gracias al efecto Hall cuántico de espín, descubierto en 2004 por Charles Kane, físico teórico de la Universidad de Pensilvania, Filadelfia; Joel Moore, teórico de la Universidad de California, Berkeley, y sus colegas predijeron que podrían existir materiales tridimensionales aislantes con estas propiedades y les llamaron “aislantes topológicos.” La clave de la conducción superficial de los electrones es el acoplamiento entre la dirección de su espín y su dirección de movimiento, que vienen unívocamente determinados; la relación energía-momento está en el “cono de Dirac” igual que en el grafeno.

En 2006, Shoucheng Zhang, Universidad de Stanford en Palo Alto, California, y su equipo predijeron que un cristal de mercurio y telurio podría ser un aislante topológico. Un año más tarde Laurens Molenkamp, físico de la Universidad de Würzburg, Alemania, y su grupo lograron demostrarlo. Estos materiales son muy caros y difíciles de fabricar. En 2008 se obtuvieron aislantes topológicos basados en el bismuto, mucho más baratos y fáciles de fabricar. Hoy en día decenas de grupos de investigación estudian estos materiales exóticos que prometen gran número de aplicaciones prácticas.

El movimiento colectivo de los electrones dentro de los aislantes topológicos tiene unas propiedadees especiales que les hace ser un material ideal para realizar analogías físicas de fenómenos cuánticos relativistas. Se han observado análogos de los axiones (partículas hipotéticas predichas en los 1970), monopolos magnéticos, partículas de Majorana (fermiones neutros, sin masa e idénticos a sus antipartículas) y partículas de Dirac sin masa. Estas analogías no solo sirven para experimentar en el laboratorio con fenómenos más allá del alcance de los experimentos de alta energía, sino que también tienen aplicaciones prácticas. Por ejemplo, las partículas de Majorana son útiles en la computación cuántica topológica ya que los estados cuánticos de estas partículas que implementan los cubits son muy resistentes a la decoherencia cuántica (el efecto del entorno que impide que los ordenadores cuánticos tengan muchos cubits).

Por ahora el nuevo descubrimiento no parece tener aplicaciones prácticas más allá de ayudar a los físicos fenomenológicos a entender el mecanismo de Higgs. Sin embargo, los autores mencionan posibles aplicaciones en computación cuántica.

Objetivo cumplido: El satélite Planck logra cuatro mapas completos del fondo cósmico de microondas

El satélite Planck de la ESA, lanzado el 14 de mayo de 2009 (junto a Herschel), completó su cuarto mapa completo del cielo el 29 de julio de 2011 (necesita 6 meses para cada uno). El satélite Planck se diseñó para garantizar dos mapas completos del cielo; la parte más crítica, su sistema criogénico, se diseñó con una vida media nominal de 14 meses (tras alcanzar el punto de Lagrange L2, lo que logró el 2 de julio de 2009). El resto de los instrumentos se diseñaron para lograr cuatro mapas completos del cielo. Tras 25 meses, Planck sigue funcionando a la perfección y no hay señales de que su sistema criogénico ni sus instrumentos de medida estén dando problemas. Ya ha iniciado su quinto mapa completo del cielo, que finalizará a finales de noviembre de 2011 si todo sigue a las mil maravillas. Nadie había planificado un sexto mapa del cielo (el helio necesario para el sistema de refrigeración se estima que se consumirá a los 30 meses de operación, más o menos, a finales de enero de 2012). Si fuera posible obtener un sexto mapa del cielo la misión requerirá financiación adicional. Esta noticia es de finales de julio, pero más vale tarde que nunca. “Latest News,” Planck Science Team Home, 29 Julio 2011.

El Instrumento de Alta Frecuencia (HFI) del satélite Planck utiliza unos detectores (bolómetros que trabajan con 6 frecuencias en el rango 100-850 GHz) enfriados a -273,05°C, tan solo 0,1°C por encima del cero absoluto (-273,15°C o cero Kelvin). La ESA presume que Planck es el objeto conocido más frío en el espacio (los objetos más fríos del universo se encuentran en los laboratorios terrestres en los que se trabaja con condensados de Bose-Einstein). Planck está equipado con un sistema de refrigeración pasivo que reduce su temperatura hasta unos -230°C radiando calor al espacio y tres refrigeradores activos que reducen aún más la temperatura: un refrigerador de 20K (diseñado en el Jet Propulsion Laboratory, California, Estados Unidos), otro de 4 K (diseñado por el Rutherford Appleton Laboratory en Didcot, y Astrium, ambos en el Reino Unido) y el último de 0,1 K (diseñado por el Centre de Recherches des Très Basses Températures, en Grenoble, Francia y el Institut d’Astrophysique Spatiale, en Orsay, Francia, así como DTA Air Liquide, también en Grenoble, Francia). Este último refrigerador activo está basado en una dilución de 3He y 4He (dos isótopos del helio con el mismo número de protones pero diferente número de neutrones); en concreto, el 3He está disuelto en 4He para lograr la refrigeración. Lo que limita la vida del HFI es la cantidad de helio almacenado en los cuatro depósitos que dispone el satélite. Se estima que a finales de enero de 2012 se habrá consumido todo el helio útil. A partir de dicho momento Planck seguirá tomando datos pero utilizando solo el Instrumento de Baja Frecuencia (LFI) cuya temperatura de funcionamiento son 20 K. Se estima que esta segunda parte de la misión durará un año.

Todos los datos sobre el fondo cósmico de microondas obtenidos por Planck están embargados. En enero de 2011 se presentaron 25 artículos con los primeros resultados del satélite Planck, pero en todos los resultados se eliminaron los datos del fondo cósmico de microondas. Oficialmente verán la luz por primera vez en la conferencia “The Planck Sky: Results and perspectives,” en Bolonia, 13-17 de febrero de 2012. Hasta entonces tendremos que esperar. Lo bueno es que ya queda poco, muy poco.

Gracias a todos la revista Amazings saldrá a la calle al haberse alcanzado el 100% de financiación en Lanzanos

Todo el mundo la sabía, el día que se abriera el plazo para poder pagar con tarjeta de crédito (en lugar de vía PayPal) la revista Amazings alcanzaría el 100% de financiación en un abrir y cerrar de ojos. Y así ha sido. Dentro de unos 40 días, cuando finalice el plazo, se empezarán a imprimir los ejemplares y serán enviados a todos los que los hayáis/hayan adquirido. Anímate si no te has apuntado ya y consigue tu número. La política de Lanzanos es que hasta que faltasen 41 días para finalizar el plazo no se podría apoyar el proyecto de la Revista Amazings mediante tarjeta de crédito. Ahora ya puedes hacerlo, desde hoy mismo ya puedes. Se abrió el plazo cuando se tenía un 93% de la financiación y ahora ya se supera el 103% y sigue aumentando. El número #1 de la revista verá la luz, pronto. No pierdas la oportunidad, “porque en realidad no estarás “comprando” una revista, en este proyecto estarás siendo el protagonista, el que la ha hecho posible… muchas gracias.”

Nuevos límites de exclusión para la masa del bosón de Higgs en el LHC con hasta 2,3 /fb de colisiones

Hoy, en la conferencia Lepton Photon 2011 en Mumbai, India, se han presentado los nuevos límites de exclusión para la masa del bosón de Higgs obtenidos por los dos grandes experimentos del LHC en el CERN, ATLAS y CMS, que en algunos canales de búsqueda alcanzan la friolera de 2,3 inversos de femtobarn de datos (en concreto, el canal H→ZZ→4l en ATLAS). El nuevo límite de exclusión indica que el bosón de Higgs tiene una masa entre 115 y 145 GeV/c². ATLAS no excluye los intervalos de masa entre 232 y 256 GeV/c², entre 282 y 296 GeV/c², y por encima de 466 GeV/c². CMS no excluye los intervalos de masa entre 216 y 226 GeV/c², entre 288 y 310 GeV/c², y por encima de 400 GeV/c². Los rumores que apuntaban a que el bosón de Higgs tenía una masa alrededor de 144 GeV/c² (o en el intervalo entre 135 y 145 GeV/c²) obtenidos combinando de forma no oficial los datos de ATLAS y CMS publicados en julio no han sido confirmados. Por un lado, la combinación oficial de los datos de ATLAS y CMS no se ha publicado (parece ser no estará lista hasta dentro de un par de semanas). Por otro lado, las señales de un Higgs con dicha masa en las combinaciones de ATLAS y CMS por separado, con casi el doble de datos en muchos canales, son menos claras que hace un mes; no han desaparecido, pero son menos claras, lo que podría ser indicativo de que se trata de simples fluctuaciones estadísticas. Estas nuevas figuras muestran el buen estado de la búsqueda del Higgs en el LHC y de sus dos colaboraciones principales, ATLAS y CMS. ¿Por qué no se ha publicado el resultado combinado ATLAS+CMS con datos de julio? Según Philip Gibbs, se esperaba que dicho resultado mostrara un exceso claro para un Higgs con una masa de 144 GeV, pero desde el CERN podrían haber preferido no mostrar este resultado combinado para evitar que muchos medios hagan apuestas prematuras sobre un Higgs con dicha masa. Quizás tenga razón. Lo que está claro es que la combinación no oficial es suya y que pronto publicará otras nuevas con los nuevos datos.

En relación a las figuras de ATLAS, puedes encontrar más información en “ATLAS advances in the search for the Higgs and New Physics,” ATLAS Experiment, 22 August 2011 y en el artículo técnico The ATLAS collaboration “Update of the Combination of Higgs Boson Searches in 1.0 to 2.3 /fb of pp Collisions Data Taken at √s = 7 TeV with the ATLAS Experiment at the LHC,” ATLAS-CONF-2011-135, August 21, 2011; las transparencias de la charla de Aleandro Nisati (INFN – CERN) “Higgs Searches at ATLAS,”  ya están disponibles en la web [Slides in PDF]. En relación a las figuras de CMS, puedes encontrar más información en CMS News, “New CMS Higgs Search Results for the Lepton Photon 2011 Conference,” August 22nd 2011, y en las transparencias de la charla de Vivek Sharma (Universidad de California, San Diego), “Higgs Searches at CMS,” Lepton Photon 2011, Mumbai, 22 august, 2011 [Slides in PPTX y Slides in PDF].

Una breve explicación para los más despistados. El bosón de Higgs es una partícula predicha por la teoría del modelo estándar de las partículas elementales. En concreto, la unificación electrodébil de las interacciones electromagnética y débil utiliza el llamado mecanismo de Higgs para explicar por qué a baja energía se observan dos interacciones separadas pero a alta energía están unificadas en una sola. El mecanismo de Higgs explica por qué los bosones débiles W y Z tienen una masa enorme (unas 90 veces la masa del protón) mientras que el fotón tiene masa en reposo nula. Como el fotón tiene masa nula, aparece una partícula neutra de espín cero (partícula escalar), el bosón de Higgs, que interacciona (de forma no lineal) consigo mismo y se dota a sí mismo de masa; esta partícula se llama bosón de Higgs porque, aunque el me. Hay una gran evidencia experimental (pruebas irrefutables) de la unificación electrodébil por lo que nadie duda de ella. Como la simetría electrodébil a baja energía está rota (electromagnetismo e interacción débil están separadas), pocos tenemos dudas de que el bosón de Higgs existe y será encontrado en el LHC del CERN.

El mecanismo de Higgs además de dotar de masa a los bosones débiles W y Z, también permite dotar de masa al resto de las partículas del modelo estándar (fermiones y quarks). Las partículas con masa interaccionan con el bosón de Higgs y adquieren masa (en lenguaje llano, una partícula “se come” un Higgs y adquiere masa). Si la constante de interacción entre una partícula y el bosón de Higgs es λ, entonces la partícula adquiere una masa M=v λ/√2, donde ves la energía a la que se produce la ruptura de la simetría electrodébil, que se estima en unos 246 GeV. Nadie sabe el porqué pero para el quark top esta fórmula da una predicción muy buena de su masa si se utiliza λ=1 (los límites experimentales indican que λ=1,0±0,1). Por alguna razón la constante de acoplamiento entre el Higgs y el quark top es igual a la unidad.

El modelo estándar no predice la masa del bosón de Higgs porque esta masa depende de cómo interaccione el bosón de Higgs consigo mismo (en lenguaje llano, un Higgs “se come” a otro Higgs para adquirir masa). Aunque no predice su masa, fijado un valor concreto para dicha masa, el modelo estándar predice todas las demás propiedades del bosón de Higgs con gran precisión (por ejemplo, la probabilidad de su producción y/o desintegración en cualquier modo (canal) posible). Gracias a ello sabemos que encontrar el bosón de Higgs es muy difícil (la probabilidad de producirlo en el Tevatrón o el LHC es muy baja y se requiere acumular muchísimas, billones, de colisiones). Más aún cuando el acelerador de partículas LEP2 del CERN, en el que colisionaban electrones y positrones hasta septiembre de 2001, demostró que el bosón de Higgs tiene una masa en reposo mayor de 114,4 GeV/c². Una masa enorme que ha hecho casi imposible pensar en buscar el Higgs en el Tevatrón del Fermilab (cerca de Chicago) hasta llegado el año 2008. Desde entonces la búsqueda del Higgs se ha convertido en uno de los temas estrella de la física de partículas elementales.

La búsqueda de una partícula elemental predicha por el modelo estándar es mucho más fácil que la búsqueda de una partícula predicha por otros modelos de física más allá del modelo estándar porque sus propiedades se pueden calcular con precisión (no es fácil hacerlo pero hay muchos físicos que saben como hacerlo y lo están haciendo). Para cada posible valor de la masa del bosón de Higgs, el modelo estándar predice que es lo que se observará en las colisiones protón-antiprotón del Tevatrón o en las colisiones protón-protón del LHC, suponiendo que el bosón de Higgs existe y tiene dicha masa, y suponiendo que el bosón de Higgs no existe. Comparando ambas predicciones podemos excluir la existencia de un bosón de Higgs con cierta masa. Este proceso requiere un análisis estadístico y los resultados se obtienen con cierto nivel de confianza estadística, normalmente se usa el 95% (CL), lo que significa que hay menos de una posibilidad entre veinte de que el bosón de Higgs tenga cierto valor de la masa. El análisis estadístico requiere combinar las predicciones teóricas para varios canales de desintegración con los resultados observados en los experimentos. En el Tevatrón se está buscando el Higgs en casi 20 canales o modos de desintegración, pero en ATLAS solo se están utilizando 9 canales.

Mi aclaración sobre las figuras que abren esta entrada no era muy rigurosa así que he editado los comentarios (gracias a Alberto Ruiz que en los comentarios ha destacado mis errores). Estas dos figuras obtenidas por CMS son similares a las gráficas que abren esta entrada, pero se centran en dos canales de búsqueda del Higgs concretos, la desintegración en dos fotones (ideal para estudiar un Higgs de baja masa, pero que todavía no es capaz de excluir al bosón de Higgs en ningún rango de masas) y la desintegración en dos bosones W (ideal para estudiar un Higgs de mayor masa, que es capaz de excluir al Higgs). [Entre comillas indico las palabras de Alberto]. Estas “gráficas muestran el limite al 95% de C.L. del cociente entre la sección eficaz observada (línea continua) o esperada (línea discontinua) y la que se obtiene de la teoría” (la línea horizontal roja). “Se muestran esos límites como función de la masa del bosón de Higgs. En el caso de la esperada (el numerador de ese cociente) se refiere a la hipótesis nula, es decir, sin bosón de Higgs.” “La diferencia entre línea continua y discontinua es que la continua se basa en la observación real, los datos que se tienen, mientras que la discontinua se basa en lo que uno esperaría dadas las características del detector y del método. Esta última la que se suele estudiar primero, para conocer la sensibilidad del experimento. La continua se obtiene después, es decir se analiza un examen “ciego” antes de ver lo que proporcionan los datos, a fin de no estar sesgado el método.”

“Si el valor de la línea continua está por debajo de la unidad quiere decir que el Higgs, con esa masa, está excluido al 95%, o, dicho de otro modo, que la probabilidad de existencia del bosón de Higgs a esa masa es menor del 5%.” Cuanto más baja esté la línea, con mayor probabilidad quedará excluido el Higgs. “Como la línea discontinua se ha realizado con la hipótesis nula, cuando pasa por debajo de la unidad nos indica que el método utilizado es sensible (al 95% de CL) a la observación de la existencia del bosón de Higgs.” Por ejemplo, los datos de CMS y ATLAS son sensibles al rango de masas mayor de 130 GeV (hasta por encima de 440 GeV), sin embargo los datos experimentales solo permiten excluir al Higgs en el rango de masas mayor de 145 GeV (hasta un poco por encima de 215 GeV).

Cuando la línea discontinua está por encima de la unidad para cierta masa significa que aún no se han acumulado suficientes colisiones para observar o descartar el Higgs con dicha masa. Por ejemplo, en la figura de arriba que muestra el canal de desintegración H→γγ en el que CMS ha analizado 1,66 /fb de colisiones, aún no se han acumulado suficientes colisiones; dicha desintegración del Higgs es muy poco probable y muy difícil de observar. En la otra figura de arriba, la que muestra el canal de desintegración H→WW en el que CMS ha analizado 1,55 /fb de colisiones, se han acumulado suficientes exclusionese para excluir el Higgs en el intervalo entre 136 y 200 GeV, sin embargo los datos experimentales solo lo excluyen en el intervalo entre 147 y 194 GeV.

Tanto el resultado esperado como el resultado observado tienen cierta incertidumbre. Por costumbre se acompaña la figura de exclusión de masa del Higgs con una bonita banda brasileña (con los colores de la bandera brasileña). La banda verde corresponden a una incertidumbre estadística de una desviación típica y la línea amarilla a dos desviaciones típicas (en física de partículas un descubrimiento requiere cinco desviaciones típicas). Si la línea continua se separa mucho de la línea discontinua indica que hay una fluctuación estadística respecto a la hipótesis nula o que se esconde algo interesante respecto al bosón de Higgs para dichos valores de la masa. Por ejemplo, para la región alrededor de 144 GeV la línea continua está por encima de la unidad y es mayor de dos desviaciones típicas respecto a la línea discontinua. Una fluctuación de dos sigma, incluso de tres sigma, suele ser una fluctuación estadística (salvo en los casos excepcionales en los que es la primera señal de un descubrimiento). Un bosón de Higgs con una masa e unos 144 GeV implicaría que la línea continua baje por debajo de la unidad en la región de masas por debajo de 140 GeV, algo que no se observa en las figuas que abren esta entrada (aunque el número de colisiones acumulado por CMS sería sensible a ello por encima de 130 GeV).

Finalmente, “cuando se descubra el Higgs lo más lógico es que en torno a su valor de masa, la línea continua se mantenga por encima del valor de 1, mientras que la discontinua estará por debajo” (cuanto más abajo más clara será la señal que apunta al descubrimiento del Higgs). El rumor de este verano sobre la posible existencia de un Higgs en la región alrededor de 144 GeV (entre 135 y 145) se debe a que en dicha región se observa que la línea continua está un poco por encima de la unidad mientras que la línea discontinua está a más de dos desviaciones (sigmas) por debajo de la unidad. Las nuevas figuras de ATLAS y CMS que abren esta entrada confirman este punto, aunque con menos claridad de lo que se esperaba tras los resultados publicados en julio. Quizás todo sea una simple fluctuación estadística. Os he mostrado arriba las figuras de CMS de los canales  H→γγ y H→WW porque como se puede ver en la figura del primero hay un exceso muy claro alrededor de 140 GeV y en la segundo sin embargo dicho exceso no se observa. Quizás el origen del exceso observado en las figuras que abren esta entrada sea el exceso en el canal H→γγ, para el que los experimentos del LHC aún no tienen suficientes colisiones acumuladas como para tener una sensibilidad suficiente (la línea discontinua está entre 2 y 4).

En opinión de Alberto, “no tiene sentido” hablar todavía de pruebas que apunten al Higgs. “Si el Higgs tuviese 144 GeV, la línea negra estaría por encima de 1, hacia el valor de 144 GeV, y por debajo para el resto, si se tiene suficiente sensitividad en el resto, lo cual no será tan sencillo, sobre todo para masas en torno a 120 GeV.” Ahora mismo la línea no baja como debería, lo que descarta esta posibilidad, según Alberto de forma rotunda. Los resultados que se publicarán en diciembre de 2011 y en febrero de 2012 descartarán definitivamente un Higgs de 144 GeV, o lo confirmarán fuera de toda duda. Para entonces se espera alcanzar una sensibilidad por encima de 120 GeV y justo por debeja de los 140 GeV se alcanzará una sensibilidad superior a 4 sigma.

Todavía es pronto para lanzar las palomas al vuelo o ponerse a tañer las campanas. La búsqueda del bosón de Higgs es como novela por entregas que estamos disfrutando día a día, casi en directo. Nada similar ocurrió con la búsqueda del quark top o con ninguna otra partícula elemental predicha por el modelo estándar.

Más información en CERN Press Release, “LHC experiments present latest results at Mumbai conference,” 22 August 2011. El próximo miércoles 25 de agosto habrá una rueda de prensa en Mumbai en la participará el director general del CERN, Rolf Heuer.

Me he enterado tarde… pero hay un webcast del CERN con las charlas de Lepton Photon 2011 en directo.

Estas figuras muestran la significación estadística (CLs) con la que se excluye el bosón de Higgs del modelo estándar, tanto para CMS (arriba, con banda brasileña) como para ATLAS (abajo). Estas figuras permiten ver dónde se excluiría el bosón de Higgs sin en lugar de usar un criterio del 95% se utilizara otro criterio (el 90% o el 99%). Donde el valor presentado por estas figuras sea más pequeño más confianza se tiene a que la exclusión observada es más fiable.

Esta figura muestra los límites de exclusión para la masa del Higgs si existieran 4 generaciones de partículas. La figura excluye al 95% C.L. un Higgs con una masa en el intervalo 120-600 GeV, aunque la línea discontínua (valor teórico esperado) lo excluiría en el intervalo 116-600 GeV). La verdad es que no se ve nada claro pero parece que el exceso está entre 1 y 2 sigma. Si el bosón de Higgs fuera encontrado con una masa mayor de 120 GeV entonces esta figura excluiría una cuarta generación de partículas elementales.

Esta entrada ha tenido una vida accidentada, ya que he cambiado el título y gran parte de los contenidos durante esta mañana. Quizás haya futuros retoques, conforme hoy mismo se vayan publicando nuevos resultados sobre el Higgs que merezcan ser reportados…

La noticia sobre el Higgs en otros blogs/medios: Fermi National Accelerator Laboratory and Brookhaven National Laboratory, “LHC experiments eliminate more Higgs hiding spots,” Symmetry Breaking, August 22, 2011.

Quisiera destacar la interesante entrada de  Tommaso Dorigo, “New ATLAS Limits On Higgs Mass,” A Quantum Diaries Survivor, August 22nd 2011, que nos destaca la siguiente figura de ATLAS (que aparece en el artículo que mencio al principio de la entrada). El artículo de Tommaso, como siempre, merece la pena.

Esta figura publicada por ATLAS muestra el nivel de confianza (valor p) de compatibilidad entre los datos esperados, si hay un bosón de Higgs con cierta masa, y los datos experimentales observados. En el eje horizontal aparece la masa del bosón de Higgs. En el eje vertical hay dos curvas. La curva en negro el valor p observado para la compatibilidad entre los datos observados y el fondo de colisiones (ruido) esperado; la curva discontinua es el valor p esperado en ATLAS si hubiera un bosón de Higgs con la masa correspondiente. Una señal de la posible existencia de un bosón de Higgs con cierta masa se mostrará en esta figura como la coincidencia de ambas curvas. Para la fluctuación observada alrededor de 140 GeV, esta figura muestra que si se trata de un bosón de Higgs con esta masa entonces ATLAS ha tenido muy mala suerte (palabras de Tommaso) ya que se esperaba un exceso con más de tres desviaciones estándar y solo se obtuvieron unas dos. Según Tommaso esto indica claramente que dicha señal no está en los datos. Para Tommaso es mucho más interesante el “exceso” que se observa entre 125 y 130 GeV (flecha verde central); el exceso aparece en el gráfico donde se espera que tendría que aparecer si hubiera un Higgs allí, ya que las dos curvas negra y discontinua coinciden allí. Por supuesto, también hay otra coincidencia (primera flecha verde) alrededor de 100 GeV donde LEP2 descarta un Higgs con mucha confianza.

PS (24 ago. 2011): Geoff Brumfiel, “Higgs signal sinks from view,” News, Nature, 22 august 2011: “The Higgs boson, the most sought-after particle in all of physics, is proving tougher to find than physicists had hoped.”

El LHC del CERN y la nueva era en la física de partículas elementales

En física de partículas, el número de colisiones que se almacenan en disco para su análisis posterior se denomina “luminosidad integrada” y se mide en unidades llamadas inversos de femtobarn (denotado /fb o fb−1). El LHC del CERN durante todo el año 2010 acumuló unos 0,04 /fb; ahora mismo el LHC está acumulando el doble de colisiones cada día. Ya se han alcanzado los 2,5 /fb y se estima que a finales de octubre se llegarán a los 5 /fb, si no surge ningún problema inesperado. En la última gran conferencia sobre física de partículas, la EPS HEP 11 de finales de julio, se presentaron resultados obtenidos tras analizar un 1/fb de datos; para la próxima conferencia importante, Lepton Photon 2011 (Mumbai, India), que se iniciará mañana lunes, 22 de agosto, se presentarán los resultados obtenidos con 2 /fb de datos. En muchos análisis, como la búsqueda del bosón de Higgs, la diferencia es enorme. Por ejemplo, uno de los resultados más esperados, la combinación ATLAS+CMS, cada experimento con 1 /fb de datos, que ha requerido casi un mes de trabajo, será muy similar al resultado obtenido por cada experimento por separado, cada uno con 2 /fb de datos.

La era del LHC es muy diferente a la del Tevatrón. En el Tevatrón del Fermilab se combinan los resultados de sus dos experimentos (DZero y CDF) cada 6 meses, más o menos; la combinación requiere más o menos un mes de análisis y gracias a ella se obtiene un resultado similar a analizar el doble de colisiones. Sin embargo, en el LHC del CERN combinar los resultados de ambos experimentos tiene poco sentido práctico (ahora mismo); se acumuló 1 /fb a finales de junio y se necesitó un mes para analizar dichas colisiones en cada experimento por separado, ATLAS y CMS, cuyo resultado se publicó a finales de julio; pero mientras se analizaban dichas colisiones se acumularon nuevas colisiones que casi duplicaron en número a las anteriores. La combinación ATLAS+CMS ha necesitado otro mes de trabajo, pero se ha realizado en paralelo con el análisis de las nuevas colisiones. Como resultado a finales de agosto tenemos un resultado combinado ATLAS+CMS equivalente a 2 /fb y un resultado por separado de cada experimento también con 2 /fb de colisiones.

El tempo de la era del LHC, vivace, hace parecer lento al Tevatrón. A partir de 2015 se espera acumular unos 100 /fb al año en el LHC del CERN con colisiones a 14 TeV c.m.; el Tevatrón ya sólo será un recuerdo, un recuerdo de una época en la que la física de partículas tenía un aire larghissimo, comparado con el prestissimo que alcanzará el LHC. Las noticias en los medios y los blogs como éste tendrán que adaptarse a una nueva época en la física de partículas elementales. Por supuesto, todo volverá a un moderato, quizás un moderato espressivo o un allegreto grazioso.

¿Qué podemos esperar de la conferencia en Mumbai entre el 22 y el 27 de agosto? Según “ATLAS Presents New Results at Lepton Photon 2011,” ATLAS Experiment Blog, August 17, 2011, la Colaboración ATLAS presentará resultados con 2 /fb (unos 140 billones de colisiones protón-protón) para las búsquedas del bosón de Higgs, la supersimetría y un gran número de otras búsquedas de física más allá del modelo estándar. Varios físicos de ATLAS bloguearán y tweetearán (valgan los neologismos), casi en directo, los resultados que se presentarán. La conferencia Lepton Photon 11 (The XXV International Symposium on Lepton Photon Interactions at High Energy) será muy excitante, sin lugar a dudas y en este blog trataré de mantenerte informado al respecto.

Atención, pregunta: ¿Debe un estudiante de doctorado impartir clases mientras desarrolla su tesis?

En España, un estudiante de doctorado que recibe una beca por 4 años, puede impartir clase durante los últimos 2 años. Siempre surge la pregunta, qué es mejor para el estudiante, dedicarse solo a su tesis doctoral (investigación) o compaginarla con la docencia. Muchos eligen la segunda opción porque para llegar a ser Profesor Contratado Doctor se requiere un mínimo de docencia. Un estudio publicado en Science sobre los proyectos de investigación solicitados en EE.UU. por estudiantes de doctorado indica que los doctorandos que comparten investigación y docencia realizan propuestas de mayor calidad que los que solo se dedican a la investigación. Feldon et al. han estudiado doctorandos STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) y han encontrado que la metodología en investigación de los doctorandos que imparten docencia es mucho mejor, por ejemplo a la hora de generar hipótesis comprobables y diseñar experimentos válidos. Más aún, los estudiantes mejoran sus propuestas después de impartir un solo curso (según las estadísticas de Feldon et al. la mejoría es independiente de que sea su segunda propuesta). En opinión de Feldon et al. todos los doctorandos deberían impartir clase durante el desarrollo de su tesis doctoral para mejorar su investigación, sin importar si acabarán o no como profesor. El artículo técnico es David F. Feldon1 et al., “Graduate Students’ Teaching Experiences Improve Their Methodological Research Skills,” Science 333: 1037-1039, 19 August 2011.

¿Qué opinas al respecto? La cultura académica de las universidades estadounidenses es muy diferente a la cultura de otros países, ¿crees que las conclusiones de Feldon et al. son extrapolables a tu país (pongamos que hablo de España)? ¿Explica mejor su investigación propia alguien que explica a sus alumnos cierta asignatura que puede que no tenga nada que ver con dicha investigación?

Dmitri V. Skobeltsyn, el hombre que descubrió la antimateria y se lo contó a Dirac en 1927

Cuando uno piensa en la antimateria piensa en la ecuación de Dirac y en el positrón descubierto por Anderson. Pocos recuerdan a Dmitri V. Skobeltsyn (1892-1990), quien entre 1923 y 1926 observó en una cámara de niebla rayos cósmicos con la masa del electrón pero con carga opuesta, resultado que publicó en 1927. ¿Conocía Dirac en 1927 el descubrimiento de Skobeltsyn? El historiador de la ciencia Norwood Russell Hanson afirmó en un artículo de 1961 que Dirac le dijo en 1955 que una vez asistió a una charla en el Instituto Cavendish, entre 1926 y 1927, en la que Skobeltzyn describió su descubrimiento de los “electrones que se movían hacia atrás.” Dirac afirmó que esta charla no le influyó en su teoría del electrón, de hecho, dice que la recordó tras el descubrimiento del positrón realizado por Anderson en 1932; Dirac afirmó en 1955 que en 1932 pensaba que el descubrimiento del “electrón positivo” (positrón) era una descubrimiento soviétivo. Sin embargo, Skobeltsyn no utilizó en su artículo (ni Hanson cree que en su charla) la palabra “electrón que se mueve hacia atrás” (backward electron); dicho término fue utilizado por primera vez por el matrimonio Joliot-Curie (que también descubrió el positrón en 1932). ¿Jugó la memoria una mala pasada a Dirac? Hanson afirma que tras hablar con Skobeltsyn él tampoco recordaba haber hablado de “backward electrons” antes de 1932. Skobeltsyn nunca obtuvo el Premio Nobel de Física, que Paul Adrian Maurice Dirac obtuvo en 1933 y Carl David Anderson en 1936. Quizás la memoria de Dirac le jugó una mala pasada, o quizás Skobeltsyn es otro ejemplo de la cruda realidad de la historia de la ciencia. El artículo técnico de Norwood Russell Hanson es “Discovering the Positron (I),” The British Journal for the Philosophy of Science 12: 194-214, Nov. 1961. El artículo con el descubrimiento es D. Skobelzyn, “Die Intensitätsverteilung in dem Spektrum der γ-Strahlen von Ra C,” Zeitschrift für Physik 43: 354-378, 1927. La imagen que abre esta entrada (parte derecha) es una copia de una figura de dicho artículo (las placas originales no se han conservado).

Hay algo importante que debemos recordar. El descubrimiento del positrón por parte de Anderson el 2 de agosto de 1932 no fue resultado de la teoría del positrón de Dirac (publicada en 1931). Anderson afirmó que no conocía dicho artículo en 1932 y que ni siquiera comprendía el libro de Dirac sobre Mecánica Cuántica de 1930 (“The Principles of Quantum Mechanics”), ni menos aún el artículo original con la teoría del electrón de 1928 (“The Quantum Theory of the Electron”). Según Anderson, él empezó a comprender dichos trabajos gracias a un artículo de Blackett y Occhialini en 1933. Más aún, el descubrimiento de Anderson en 1932 encontró gran número de detractores que se resistían a admitir la existencia de un electrón positivo (entre ellos Bohr y Rutherford). Sin embargo, Anderson siempre replicó que la única explicación posible a su observación era la existencia de un electrón positivo. Tras la confirmación de la observación por otros, en 1933 ya eran muy pocos los que tenían dudas al respecto.

Un descubrimiento tan importante y al mismo tiempo tan “sencillo” como la observación del positrón en los rayos cósmicos tuvo muchos antecedentes. De hecho, Robert Andrews Millikan publicó en 1931 unas fotografías de cámara de niebla que mostraban un electrón y un protón (según Millikan), como en la figura central de arriba. Sin embargo, una de las fotografías era difícil de interpretar (aparece a la derecha en la figura de arriba). Millikan pensaba que era un protón con una energía de 450 meV (milielectrónvoltio) y un electrón de 27 meV, sin embargo, la ionización de la traza de la partícula indica que se trata de un electrón y un positrón. Millikan, en lugar de pensar en un electrón de carga positiva, creyó que la fotografía demostraba que la teoría de la ionización en cámaras de niebla era errónea y proponía corregirla con un término dependiente de la energía (solo aplicable a las trazas de los protones). También observó positrones (la aniquiliación de un electrón y un positrón) en 1929 el físico chino Chung-Yao Chao [wikipedia] siendo estudiante de doctorado en el CalTech bajo la dirección de Millikan; Chao defendió su tesis en 1930, pero no fue capaz de interpretar correctamente su observación.

Pero retornemos a Dmitri Vladimirovich Skobeltsyn [wikipedia; obituario en Physics Today], eminente físico soviético especialista en rayos cósmicos, Premio Stalin (1950) y Héroe Socialista (1969). Skobeltsyn, tras enterarse del descubrimiento del efecto Compton, decidió utilizar el retroceso de electrones por dicho efecto para estudiar los rayos cósmicos en una cámara de niebla de Wilson. Gracias a esta idea descubrió los “electrones raros” que parecían tener una carga positiva opuesta a la del electrón. Incapaz de entender que había descubierto la antimateria, decidió acudir en 1927 a los laboratorios de Marie Curie en París (donde su hija y su yerno, la pareja Joliot-Curie, también descubrirían el positrón). Ni Skobeltsyn ni los Joliot-Curie fueron capaces de dar el paso que supo dar Anderson, afirmar rotundamente que la única explicación posible para sus fotografías de cámaras de niebla era un electrón positivo (el título del artículo de Carl D. Anderson, “The Positive Electron,” Phys. Rev. 43: 491–494, 1933).

PS: Dos lectores se han sorprendido de que los esposos Joliot-Curie utilizaran en 1932 el término “electrones que se mueven hacia atrás” (Oscar lo asociaba a Stueckleberg en 1941 y alejandro a Wheeler sobre las mismas fechas). Como una imagen vale más que mil palabras, os copio una fotografía comentada que Joliot y Curie enviaron a Bohr el 26 de abril de 1932 y que se preserva en los archivos de la Correspondencia Científica de Bohr para la Historia de la Física Cuántica (Bohr Scientific Correspondence at the Archives for History of Quantum Physics – AHQP).

La figura es de muy baja calidad, pero en la parte de abajo se ve claramente la idea de que los positrones son como “electrones que se mueven hacia atrás” que los esposos Joliot-Curie publicaron en su artículo “Sur la nature du rayonnement pénétrant excite dans les noyaux légers par les particules α,” C. R. Acad. Sci. Paris 194: 1229–1232, 1932. No he podido leer el artículo original, pero por lo que parece al menos la fotografía de la cámara de niebla aparece en dicho artículo, junto con el comentario sobre los “electrones que se mueven hacia atrás.” Esta imagen y más información sobre la contribución de los esposos Joliot-Curie a la física temprana del positrón en Matteo Leone, Nadia Robotti, “Frédéric Joliot, Irène Curie and the early history of the positron (1932–33),” European Journal of Physics 31: 975-987, 2010.

Por supuesto, Oscar y Alejandro tienen razón: Feynman, Stueckleberg, Wheeler y otros apostillaron que los positrones son como “electrones que se mueven hacia atrás” en el tiempo.