Lo último en la búsqueda del Higgs: El límite de exclusión combinado ATLAS+CMS del LHC en el CERN

Ya es oficial, el bosón de Higgs, si existe, tiene una masa entre 114 y 141 GeV/c2 al 95% C.L.;  más aún, en la región de masas permitida hay pequeños excesos, de solo 1,6 σ, que podrían ser una fluctuación estadística o la primera señal del Higgs. Ya es oficial porque se ha publicado la nueva gráfica de exclusión del bosón de Higgs del LHC en el CERN que combina las colisiones de sus dos grandes detectores, ATLAS y CMS. Como en el caso de la búsqueda del Higgs en el Tevatrón del Fermilab, donde se combinan los datos de las colisiones de sus dos detectores, CDF y DZero, estas combinaciones permiten duplicar el número de colisiones estudiadas de forma efectiva. Muchos esperábamos que la combinación del LHC se publicara en agosto de 2011, pero hemos tenido que esperar hasta el 18 de noviembre; la ha presentado Gigi Rolandi, “Higgs Status and combinations,” HPC 2011, y el artículo técnico es The ATLAS and CMS Collaborations, “Combined Standard Model Higgs boson searches with up to 2.3 fb−1 of pp collision data at 7 TeV at the LHC,” ATLAS-CONF-2011-157, CMS PAS HIG-11-023, November 14, 2011 (las tablas 3-6 presentan los valores numéricos de todos los datos dibujados en la figura de arriba para facilitar su uso). Gigi comenta que también se van a combinar los datos del LHC con los del Tevatrón, pero que dicho resultado no aparecerá hasta el verano próximo, cuando también se publique la última figura de exclusión del Higgs del Tevatrón utilizando todas sus colisiones (unos 10 /fb por experimento). En febrero, o quizás marzo, del año que viene se publicarán también los nuevos límites de exclusión (separados) de ATLAS y CMS con los más de 5 /fb de colisiones de 2012.

Comparando el resultado del LHC (curva negra con puntos) con el del Tevatrón (curva azul continua) se observa que con 8 veces menos colisiones analizadas el LHC obtiene un resultado mejor para masas entre 120 y 200 GeV, aunque el Tevatrón gana para masas bajas entre 110 y 120 GeV. En este sentido ambos experimentos se complementan y una combinación LHC+Tevatrón resulta interesante. Por supuesto, cuando se analicen todas las colisiones del LHC obtenidas en 2012 los resultados serán comparables, pero al LHC le costará mucho incrementar su sensibilidad para masas muy bajas (próximas a 115 GeV).

Este nuevo resultado quizás no sorprenda a muchos, sobre todo porque es similar al que ya obtuvo Philip Gibbs en su blog, como nos comenta en detalle en “New Higgs Combinations Released,” viXra log, Nov. 18, 2011; Philip también se atrevió a combinar LHC+Tevatrón, es decir, ATLAS+CMS+CDF+DZero. El trabajo de Philip se basa en un análisis estadístico que no tiene en cuenta en detalle las fuentes de los errores en los datos, pero que gracias al teorema central del límite obtiene un resultado bastante bueno de una forma muy rápida. El análisis técnico del nuevo artículo es mucho más complicado. Los datos de cada canal de búsqueda del Higgs tanto en ATLAS como en CMS son combinados y se construye una curva de exclusión para dicho canal con un buen control del error. Cada una de estas combinaciones con su error es combinada a su vez hasta obtener la figura final. Lo más difícil en esta combinación es el control preciso de los errores sistemáticos que se cometen, que requiere un uso intensivo de CPU para el análisis. El protocolo detallado para realizar este análisis se publicó este verano, en agosto, pero se han necesitado varios meses para ponerlo en marcha y llevarlo a cabo con éxito. Si algún día se quiere proclamar la exclusión del Higgs (o su descubrimiento) en los datos combinados de ATLAS+CMS este proceso ha de ser llevado a cabo con absoluto rigor.

Muchos se han hecho eco de este nuevo resultado de exclusión del Higgs, como Geoff Brumfiel, “Higgs hunt enters endgame. Large Hadron Collider could soon deliver a clear verdict on missing boson,” Nature News, 18 November 2011 [Scientific American]; Jester, “New Higgs combination is out,” Résonaances, Nov. 18, 2011; Peter Woit, “Higgs Non-News,” Not Even Wrong, Nov. 18, 2011; y Tommaso Dorigo, “LHC Combination Of Higgs Limits: MH<141 GeV,” A Quantum Diaries Survivor, Nov. 19, 2011.

Por cierto, Peter Woit (y Jester) apuntan a rumores que afirman que uno de los experimentos (ATLAS o CMS) no ha observado excesos en los nuevos datos de colisiones alrededor de 120 GeV, aunque el otro experimento ha encontrado un pequeño exceso en el canal ZZ->4l. Por supuesto, los rumores son solo eso, rumores. También se rumorea que se pueda publicar algo al respecto en diciembre de este año (mi opinión es que lo dejarán para febrero o marzo de 2012).

Explicación de la figura que abre esta entrada (aunque muchos ya la conocen). La curva negra muestra, en función de la masa del Higgs, el cociente entre la sección transversal según los experimentos (bajo la hipótesis de que no han observado el Higgs) y las predicciones del modelo estándar. La sección transversal es más o menos la probabilidad de producción del Higgs en las colisiones. El valor unidad corresponde a la predicción del modelo estándar, de tal forma que valores inferiores a la unidad indican que el Higgs debería haberse observado y no ha sido observado. Valores por encima de la unidad indican que no se han acumulado suficientes colisiones para poder decidir la cuestión. La figura de exclusión de masas para el Higgs se interpreta de forma estadística: todos los puntos de la curva negra que están por debajo de la unidad corresponden a valores de la masa del Higgs que se excluyen con una confianza estadística del 95%. Por ello, caso de que el Higgs tuviera una masa concreta se esperaría que la curva negra tuviera un valor algo por encima de la unidad para dicha masa, rodeado por valores inferiores a la unidad; la anchura de la región por encima de la unidad depende de la masa y de las incertidumbres en el análisis de los colisiones, siendo para 120 GeV de unos 5 GeV y para 140 GeV de unos 10 GeV.  

La banda brasileña (verde y amarilla) corresponden a los valores esperados (línea negra a trazos) según los modelos teóricos de los experimentos ATLAS y CMS bajo la hipótesis de que no existe el Higgs. Las desviaciones de la línea negra continua respecto a la línea a trazos que se encuentren dentro de la banda brasileña son compatibles con fluctuaciones estadísticas en el análisis y no pueden ser utilizadas para obtener conclusiones sobre la búsqueda del Higgs. En la figura se observan algunas desviaciones por encima de la banda amarilla, lo que implica excesos reseñables, pero la mayoría son muy pequeños y están colocados donde la sensibilidad de los datos no permite extraer conclusiones fiables. En concreto se observan fluctuaciones hacia arriba alrededor de 120 GeV y entre 135 y 150 GeV. Para interpretar estos excesos conviene ver la figura de abajo, que muestra el “mejor ajuste” de la sección transversal del Higgs en unidades del modelo estándar, incluyendo una banda azul a 1 sigma (un valor próximo a la unidad, curva roja, indica un bosón de Higgs como el del modelo estándar, y un valor próximo a cero, curva azul marino, excluye un bosón de Higgs del modelo estándar). El exceso alrededor de 120 GeV significa que podría haber un Higgs del modelo estándar con dicha masa, pero el exceso entre 135 y 150 GeV requiere que el Higgs tenga una sección transversal mucho menor que la predicha por el modelo estándar. Por ello, por ahora, los excesos apuntan a un Higgs con una masa de unos 120 GeV, aunque todavía es pronto y habrá que esperar unos meses para que se decida la cuestión.

PS (23 nov. 2011): Lectura recomendada. Muy sensata. Pauline Gagnon, “Where do we stand on the Higgs boson search?,” Quantum Diaries, 23 Nov. 2011.

17 pensamientos en “Lo último en la búsqueda del Higgs: El límite de exclusión combinado ATLAS+CMS del LHC en el CERN

  1. Dices: “Ya es oficial, el bosón de Higgs, si existe, tiene una masa entre 114 y 141 GeV/c2 al 95% C.L.; más aún, en la región de masas permitida hay pequeños excesos, de solo 1,6 σ, que podrían ser una fluctuación estadística o la primera señal del Higgs.”(…)
    Sólo una precisión,…”Si existe, y el SM es la teoría válida, incluso a cualquier energía alta”. Hay gente que considera que el Higgs está fuertemente acoplado, por ejemplo, o teorías BSM como el technicolor, los modelos preónicos y algunos otros modelos de compositeness ( little Higgs) pueden construirse con una masa del Higgs elevada y menor de 1 TeV.
    Creo que es necesario que se comente esto, aunque sea en un comentario, porque la masa de los neutrinos signfica que hay algo en el SM que no se entiende debido a que el SM es una teorífa efectiva y deberá ser modificado para la fenomenología que está por venir. La hipótesis del “desierto” me parece con cada dato más improbable. Y una cosa más,
    el “triggering” del LHC descarta TODO lo que no es potencialmente SUSY o el Higgs, así que los datos hay que tomarlos con mucha cautela.
    A mí realmente me preocuparía que fuese cierto por alguna razón el Higgs invisible ( y que no viéramos absolutamente nada en el LHC porque el Higgs fuera superpesado y las nuevas partículas estuvieran inaccesibles a las energías del LHC). El escenario pesadilla para muchos. Hay quien dice que los datos de precisión lo hacen implausible, pero los datos de precisión parten de la hipótesis de que el SM es correcto. Y probablemente lo es, pero como teoría efectiva tiene una escala, y sabemos que dicha escala de ruptura electrodébil es baja. El año que viene va a ser decisivo. Si se cubre la zona de baja masa sin un pico del Higgs, será un golpe durísimo a nuestro conocimiento de Física de partículas. Entre otras cosas, el fantasma o idea de que el Higgs estaba cerca con los últimos datos de LEP estaría equivocado. No obstante, tendremos que esperar.
    El año que viene por estas fechas, si no antes, habrá veredicto sobre el SM y el SM Higgs. ¿No os parece sutil cómo la Naturaleza oculta la partícula escalar? Jejeje.

    • Gracias Juan, tienes razón, debo poner una coletilla cada vez que hablo del Higgs y aclarar que me refiero al “Higgs del modelo estándar mínimo” y que con ello asumo que el modelo estándar mínimo es válido hasta la escala de los TeV que puede explorar el LHC (más allá no sabemos nada). Por defecto, y cuando no pongo coletilla, como es habitual, me refiero a él (Higgs del MSM).

      “Hay gente que considera que el Higgs está fuertemente acoplado.” Confieso que es la teoría que a mí más me gusta. Pero no hablo mucho de ello para no meter “ruido” en este blog y que los lectores se confundan.

      “Si se cubre la zona de baja masa sin un pico del Higgs, será un golpe durísimo a nuestro conocimiento de Física de partículas.” Cierto y será un golpe revolucionario. Pero como bien dices, “no obstante, tendremos que esperar.”

      “¿No os parece sutil cómo la Naturaleza oculta la partícula escalar?” Recuerdo haber leído hace tiempo varios argumentos teóricos que apuntaban a que una partícula escalar fundamental (o elemental) no puede existir (caso de existir debería ser compuesta). Leí bastante de esto alrededor del 2004 (cuando leí mucho sobre el Higgs como una partícula de tipo solitón), pero ahora no recuerdo los argumentos que esgrimían (tendría que rescatar mis notas de aquella época, que tras mi última mudanza estarán perdidas entre una marabunta de papeles).

  2. Y atención, cada minuto que pasa sin descubrirse el bosón de Higgs, y quiero decir un SM Higgs, es algo bueno, porque significa que hay mucho pescado sin vender en el mundo de la Física de Altas Energías. Otra cosa bien diferente es relativa a los modos de desintegración del Higgs. Si no se encuentra en canales de desintegración electrodébil, y sus modos de desintegración a ZZ y WW o incluso a 2 fotones es muy bajo, es una prueba evidentemente de Física BSM. Así que un no-descubrimiento del Higgs puede ser igualmente divertido y challenging, porque si el Higgs se desintegra vía modos de desintegración que desconocemos, llevará tiempo identificar los canales de producción adecuados. Yo confío bastante en mis colegas del CERN. Saben hacer su trabajo.

    • Cuidado, físico, si el bosón de Higgs no existe (interpreto que quieres decir que no existe ningún tipo de bosón de Higgs, ni partícula compuesta, in campo de Higgs, ni nada de nada), entonces todo es mucho más complicado pues hay que explicar toda la física del bosón de Higgs (que influye en muchísimas cosas que han sido verificadas en los experimentos) y sin utilizar el campo de Higgs nadie sabe cómo hacerlo, todavía.

      Lo que mucha gente cree es que el bosón de Higgs del modelo estándar mínimo no existe (pues es demasiado sencillo para ser cierto) y dicha gente cree en alguna alternativa, es decir, en uno o varios “primos del Higgs,” es decir, esta gente cree que lo correcto es un modelo más complicado que el del Higgs pero con Higgs (incluso las teorías Higgsless tienen un campos de Higgs más complicado que el del modelo estándar).

      En resumen, lo sencillo es que el Higgs del SM exista y lo complicado (para el SM y todos los físicos) es cualquier otra opción.

      • Como siempre, es algo sesgado debido al mainstream y los prejuicios que tenemos. Feynman solía decir que en una ciencia experimental, como es la Física, y ciertamente conservadora, mucho de lo que hacemos a nivel teórico, por no decir todo que es una total exageración, depende de los preconceptos y prejuicios que se tengan. Koide y Yershov tienen modelos que explican la existencia de la fenomenología actual de partículas y predicen algunas nuevas partículas, por ejemplo, con modelos preónicos. No son populares porque son muy ad hoc, y además nadie ha tratado con interés de solucionar los problemas de tales modelos como otros sí se han afrontado con SUSY y el Higgs potential. Un Higgs inexestente o con modos de desintegración inesperados es un reto experimental gordo.

  3. Pregunta a Francis: ¿la energía oscura no es necesariamente antientrópica? lo pregunto en el sentido de que comprobada ya la aceleración incrementándose del espacio-tiempo cósmico, la entropía termodinámica nos dice que la energía tiende al desorden y agotamiento, además se sabe o cree saber que existe decaimiento en lo que se conoce de la energía gravitatoria; entonces ¿de dónde saldría ese extra de energía impulsando la aceleración si no de algo desconocido no contingente relacionado al big-bang (dios, motor primero, etc.)? Espero haber sido claro, gracias.
    El bosón aún sigue in utero, la partera de la historia está haciendo lo correspondiente al alumbramiento. Saludos y no dejes de producir este blog de contenidos insuperables.

    • Macbeth, ¿qué quieres decir con “antientrópica”? La segunda ley de la termodinámica afirma que la entropía del universo en su conjunto crece conforme el tiempo transcurre, la energía oscura no afecta a este fenómeno termodinámico. No sabemos por qué la entropía tendría que ser mínima en el origen del universo y máxima al final del universo. Este problema raya lo metafísico. Roger Penrose trata de contestar a dicha cuestión en su reciente libro “Ciclos del tiempo,” que te recomiendo si quieres profundizar en estas cuestiones. Pero te indico que su propuesta es muy discutible y muchos físicos dudan de ella.

      “La entropía termodinámica nos dice que la energía tiende al desorden y agotamiento.” No entiendo esta afirmación. La entropía crece porque el número de estados alcanzables por un sistema con una energía dada crece con el tiempo. Las palabras “desorden” y “agotamiento” son un abuso del lenguaje.

      “Además (…) existe decaimiento en lo que se conoce de la energía gravitatoria.” No entiendo qué quieres decir, ¿que la energía gravitatoria no se conserva y se disipa?

      “¿De dónde saldría ese extra de energía impulsando la aceleración?” No entiendo por qué mezclas energía con entropía. Son conceptos muy diferentes.

      La entropía es un concepto que conocemos bien en sistemas termodinámicos cerrados con un entorno bien definido. El universo no tiene entorno. Así que cualquier extrapolación del concepto de entropía al universo en su conjunto es mera especulación (aunque a Penrose, Hawking y muchos otros físicos “especulardores” les encante hacerlo). Aplicar la segunda ley de la termodinámica al universo en su conjunto es metafísica, no física.

      • Como he comentado, la Termodinámica normal no parece adecuada para el formalismo cuántico, del que de una forma u otra la constante cosmológica, o energía del vacío, es una expresión física. Por eso me gustaría señalar:

        a) I. Prigogine investigó la física de los sistemas termodinámicos abiertos y en no-equilibrio, generalizando las leyes termodinámicas a sistemas abiertos, como el que puede ser el Universo que observamos ( otra cosa sería que existan los multiversos de la interpretación de Everett realmente, parece descabellado, pero la Historia nos ha enseñado que hay momentos en los que se amplía nuestra imagen de “Cosmos”).

        b) Para sistemas complejos, no necesariamente se debe considerar que la función llamada entropía es extensiva y función del volumen ( de hecho el principio holográfico, tomado en serio, indica que es proporcial al área, no el volumen). Ha habido y hay una discusión muy interesante sobre la “consistencia” física y realidad de la termodinámica y física estadística no-extensiva. Pero si una persona como Gell-Mann y otros han dedicado los últimos años a estudiar las termodinámicas y estadísticas de Tsallis y otras varias, es algo para ser intersante.

        YO no estoy de acuerdo en que sea fácil de discernir que el Universo es un sistema abierto o cerrado, pero sí considero que es esencial establecer la importancia y consistencia de las clases de entropías que son físicamente admisibles. Este campo está en relación con el “nuevo” enfoque entrópico de la gravedad y las otras fuerzas, el paradigma de la física como información ( clásica y cuántica), la teoría de sistemas, la propia Mecánica Cuántica y la Teoría Cuántica de Campos, la física de agujeros negros, y tangencialmente, la existencia de dimensiones extra, o la teoría de no-partículas/no-gravedad de Georgi. Vivimos en un Poliverso interconectado y las leyes físicas más universales posibles deben ser capaces de explicar cosas muy diferentes.

        Francis, podrías sacar un post sobre Termodinámica y Física Estadística no-extensiva. Creo que podría ser interesante. No es algo que se conozca mucho, a pesar de que tiene y va a tener muchas aplicaciones en el futuro cercano, y hay gente que no es para nada crackpot: Tsallis, GellMann, y otros varios. ¿Qué opinas? Además, no recuerdo que hayas hablado de ese tópico en ninguno de tus posts.

        Un saludo.

      • Isaac Asimov solía mezclar energía con entropía, en su cuento 1956 The Last Question lo hace con mucha soltura. La neguentropía no aparece en sus relatos que recuerde yo.

  4. “Además, no recuerdo que hayas hablado de ese tópico en ninguno de tus posts. ”

    Juan, este tema ya lo he seguido hace unas semanas.

    Si lo ha tratado, por lo menos, respecto a la propuesta de Erik Verlinde:

    https://francisthemulenews.wordpress.com/2011/08/24/nuevo-asalto-de-kobkhidze-contra-la-teoria-de-la-gravedad-emergente-de-verlinde/

    https://francisthemulenews.wordpress.com/2011/07/13/la-mecanica-cuantica-como-fenomeno-holografico-emergente-a-partir-de-la-entropia-en-la-teoria-de-verlinde/

    Hace unos meses, antes de conocer este Blog, ya tuve conocimiento de este hombre, y descargue su trabajo:

    On the Origin of Gravity and the Laws of Newton

    Del 6 de Junio de 2010.

    …………………………………

    Lo poco que puedo decir es que llegué a ello a través del ‘it from bit’.

    Rigurosamente hablando, a día de hoy, no hay conexión entre nuestros conceptos de energía o fuerza por un lado, e información por otro.

    Los ejemplos que Verlinde pone en su trabajo (Gomas elásticas) en realidad provienen de energía de enlaces de moléculas.

    La variación de entropia, no es la causa, es el efecto.

    Por eso , en mi modesta opinión, creo que no es correcto.

    Mientras no se enlace de modo riguroso el concepto de informacion con el de energia, y a dia de hoy no lo he visto, no se hace nada serio.

    Saludos.

    Javier.

  5. Gracias por la recomendación de Ciclos del Tiempo de Penrose, y por la certeza volcada en la frase “aplicar la segunda ley de la termodinámica al universo en su conjunto es metafísica, no física” no lo tenía tan claro así y eso aunque el universo esté cerrado y creándose/expandiéndose a un mismo tiempo. Sí, suelo abusar del lenguaje a falta de certezas y ecuaciones formales. Para el 2012, y luego de escribir sobre flujos de Ricci en la conjetura Poincaré sobre Calabi-Yau y los descubrimientos de Brian Greene; y luego de escribir sobre termodinámica y física estadística con funciones entropía no-extensivas a pedido de Juan González Hernández, verdaderamente abusando de vuestra paciencia pido escribas sobre qué avances hubo tras cien largos años o más en lo que se conoce como Principio de Mach (empiriocriticista el tipo) y observadores no desligados (no ab-solutos, no inerciales) en el acoplamiento de masas respecto al medio acoplante.
    Practicamente ningún avance no vale por toda respuesta. No molesto más y hasta luego.

  6. Aclaración: con respecto a “se sabe o cree saber que existe decaimiento en lo que se conoce de la energía gravitatoria” me refería a la disminución en la estabilidad orbital de ciertos astros producto de la transformación del tensor de energía-impulso en radiación de fondo gravitatoria; hasta ahora es inamovible y la conservación de la energía no se discute. Perdón por mi incorrecta formulación.

Los comentarios están cerrados.