¿Por qué aún se publican nuevos artículos que analizan los datos de colisiones de 2010 en el LHC del CERN?

Nos responde esta pregunta y otras similares la Dra. Pauline Gagnon (CERN/Univ. Indiana), la una física experimental en un mar de físicos teóricos (en el KITP el 24 de junio de 2011), en su charla “A Few Basic Facts Theorists Might Want to Know About an LHC Experiment: Using the Search for Lepton Jets from Hidden Valley Models as an Example” [vídeo y transparencias]. Os recomiendo su charla, muy clara y muy interesante, sobre todo a los que sois más teóricos que experimentales. Permitidme algunos extractos.

Todavía se siguen publicando algunos análisis de las colisiones protón-protón que se obtuvieron en el LHC del CERN entre marzo y octubre de 2010. ¿Por qué se publican ahora análisis con menos de 40 /pb de datos cuando ya hay acumulados en 2011 más de 1100 /pb de nuevas colisiones? La razón es muy sencilla: la publicación de un análisis concreto requiere un riguroso proceso de revisión dentro de cada colaboración y cuando hay más 3000 físicos en cada una (como en ATLAS y en CMS), este proceso requiere mucho tiempo; no es fácil contentar a todo el mundo, pero es obligatorio hacerlo, contestando todas las indicaciones o cuestiones de todos los miembros de la colaboración, porque ellos acabarán siendo coautores de dicho trabajo. Este proceso puede ser más rápido o más lento dependiendo del análisis concreto y por qué no decirlo, también de la suerte. Como todos los autores de artículos científicos sabemos bien, el tiempo que dure una revisión por pares es imposible de estimar, a veces es muy rápida y otras veces lenta en extremo. En las colaboraciones del LHC del CERN pasa exactamente lo mismo.

¿Por qué unos artículos que analizan todas las colisiones de 2010 buscando ciertos objetos publican resultados con 35 /pb y otros con 37 /pb, o 40 /pb? Este baile de números puede parecer extraño al lego pero está bien justificado. Los datos de colisiones grabados en disco se parten en trozos con las colisiones entre 1 y 3 minutos, llamados “bloques de luminosidad” (“luminosity blocks“). Cada subgrupo de análisis selecciona entre estos bloques los que cumplen ciertos criterios de calidad y desechan los que no los cumplen. Por tanto cada subgrupo analiza un número diferente de bloques de luminosidad y publica un análisis con una cantidad diferente de colisiones seleccionadas. Hay muchos criterios de calidad pero el más importante es la estabilidad de los detectores de cada experimento. Tanto ATLAS como CMS tienen un gran número de detectores de diferente tipo montados en capas concéntricas que se utilizan para detectar partículas de diferente tipo. Detectores para fotones, para electrones, para muones, etc. Un grupo que analiza desintegraciones en fotones desecha los bloques de luminosidad en los que los detectores de fotones no están estables, pero no tiene ningún problema cuando los detectores de electrones o de muones no lo están. Por ello la luminosidad integrada total que analiza (y luego publica) un subgrupo es diferente de la analizada por otro diferente; también se reduce el número de datos cuando se combinan análisis de diferentes grupos pues hay que hacer la intersección entre todos los criterios de calidad.

¿Por qué a más colisiones es más fácil detectar los procesos raros? Recuerda que hay que buscar ciertos tipos de procesos (la señal) en un fondo de múltiples procesos (el ruido). Si hay 50 veces más datos de colisiones, tanto la señal (S) como el ruido (B) se incrementan en un factor de 50, pero la incertidumbre estadística en el ruido se reduce en un factor √50 (la raíz cuadrada de 50). Por tanto el cociente S/√B crece en un factor aproximado a 7. La incertidumbre en el fondo se reduce como la raíz cuadrada del número de datos y gracias a ello las señales de procesos muy poco probables se detectan (o descartan) conforme el número de colisiones crece. A finales de 2011 se espera obtener al menos unos 3 /fb de datos, es decir, unas 75 veces más datos que en el año 2010, lo que permitirá mejorar los límites de incertidumbre en los procesos raros en un factor de ~8,5 (será un mayor porque la combinación de ATLAS y CMS equivale tener el doble de datos). Por ejemplo, qué puede suponer esto en la búsqueda del Higgs. La figura de abajo muestra el resultado de la primera búsqueda del bosón de Higgs por parte de ATLAS, publicado en junio de 2011. La banda gris por debajo de la línea negra continua indica que aún no se excluye ningún intervalo de masas. Para finales de año, una sensibilidad entre 6 y 10 veces mayor significa que la banda gris subirá (o los datos bajarán) hasta alcanzar la banda roja, es decir, se excluirá gran parte de todo el intervalo de masas en el eje horizontal (hay que observar la raya discontinua que corresponde al valor esperado según los modelos teóricos ya que la curva continua oscila alrededor de dicha línea sujeta a la incertidumbre estadística). La curva negra fluctuará y cambiará de forma. Este ejercicio es solo para ilustrar cómo afecta el incremento en el número de datos de colisiones.

El fondo esperado en el análisis de las colisiones se obtiene gracias a simulaciones de Montecarlo. Hay que recordar que cualquier cambio importante en las condiciones de funcionamiento del LHC requiere reajustar los parámetros de los simuladores de Montecarlo (lo que requiere entre 1 y 2 meses de trabajo). ¿Qué condiciones? Por ejemplo, la energía en el centro de masas de las colisiones (este año es de 7 TeV c.m., pero algunas voces reclaman para 2012 un incremento a 8 TeV c.m.). También es importante recordar que a mayor luminosidad son apilan más colisiones de baja energía (pile-up) porque los protones no son partículas elementales sino compuestas (mayor luminosidad se obtiene al pasar de inyectar paquetes con una separación de 75 ns a 50 ns). Los algoritmos de reconstrucción de las trayectorias de las partículas encuentran más problemas conforme el número de colisiones apiladas crece.

En resumen, os recomiendo la charla de Pauline Gagnon, “A Few Basic Facts Theorists Might Want to Know About an LHC Experiment” [video, slides].

2 pensamientos en “¿Por qué aún se publican nuevos artículos que analizan los datos de colisiones de 2010 en el LHC del CERN?

  1. Disculpadme por usar esta entrada para ponerme en contacto, contigo Francis y con el resto, pero no veo la forma de hacerlo de otro modo aun no teniendo nada que ver con su contenido. Me gustaría que echáseis un vistazo a esto (si no lo habéis visto):
    -http://www.elpais.com/articulo/sociedad/Academicos/denuncian/estatuto/burocratiza/Universidad/elpepisoc/20110709elpepisoc_4/Tes
    -http://www.peticionpublica.es/PeticaoVer.aspx?pi=EstatPDI
    Un saludo

Los comentarios están cerrados.