Qué significan cinco sigmas para el descubrimiento del bosón de Higgs

Casi todos los lectores de este blog saben que cuando los indicios sobre la existencia de un bosón de Higgs alcancen cinco sigmas se podrá afirmar que ha sido descubierto. Sin embargo, lo que casi todos ignoran es que la frase anterior, escrita como tal, es mentira. Qué significan “cinco sigmas” a secas, nada en absoluto. Hay que clarificar los parámetros de la hipótesis, es decir, en el caso de la existencia del bosón de Higgs hay que especificar en que intervalo de masas se han alcanzado cinco sigmas de significación estadística. Este intervalo de masas es diferente en el Tevatrón, que buscó el Higgs en el intervalo entre 100 y 200 GeV, y en el LHC, donde además depende de la energía de las colisiones, ya que a 7 TeV c.m. (año 2011) se buscó el Higgs en el intervalo entre 100 y 600 GeV, mientras que a 8 TeV c.m. (año 2012) se está buscando entre 100 y 800 GeV.

¿Por qué no buscar el Higgs donde creemos que está, digamos entre 115 y 135 GeV? Porque desde un punto de vista estadístico se estaría sesgando la búsqueda, con lo que fluctuaciones estadísticas muy probables entre 100 y 800 GeV, parecerían muy excepcionales en un intervalo tan pequeño. Las cinco sigmas de significación estadística deben ser globales si queremos ser rigurosos. Cinco sigmas de significación estadística local solo son del agrado de los blogueros a los que nos encanta propagar rumores con poco fundamento (estadístico, valga la redundancia).

¿Cuál es el intervalo de masas más adecuado para estudiar la hipótesis de la existencia del Higgs? La pregunta del millón de dólares no tiene una respuesta clara. En los anuncios oficiales de la dirección del CERN (así ha sido durante 2011) se ha utilizado el intervalo de masas completo utilizado en la búsqueda (recuerda, entre 100 y 600 GeV en 2011, intervalo que llegará en 2012 hasta los 800 GeV). ¿Se trata de la decisión más adecuada? No importa, se trata de la decisión más conservadora y la que más información aporta a los físicos, pues cinco sigmas en un intervalo tan grande no solo implica un descubrimiento, sino también la ausencia de otros primos del Higgs (reafirmando de forma indirecta que se trata del único bosón de Higgs predicho por el modelo estándar). ¿Por qué no usar en su lugar el mismo intervalo de masas utilizado por el Tevatrón? Pues porque no es necesario. A finales de año, incluso en el intervalo más grande disponible se podrá proclamar un descubrimiento a cinco sigmas, para qué molestarse entonces en reducir dicho intervalo antes de tiempo.

¿Qué significa todo esto en relación al anuncio del próximo miércoles 4 de julio? El anuncio oficial de diciembre de 2011 fue muy pesimista y no llegó ni a dos sigmas de significación estadística global en todo el intervalo entre 110 y 600 GeV para los dos grandes experimentos del CERN (en concreto, 1,5 sigmas en CMS, aunque alcanzó 2,2 sigmas en ATLAS). Si pensamos que es más razonable un intervalo pequeño alrededor de 125 GeV, la significación crece hasta 3,6 sigmas en ATLAS y hasta 2,6 sigmas en CMS. Y si además combinamos estos resultados con los del Tevatrón y los de LEP2, podemos estar hablando de unas 4 sigmas (solo con los datos disponibles a fecha de diciembre de 2011). Esto es casi un descubrimiento, por eso muchos blogs y yo mismo creemos que era una señal muy firme del Higgs (aunque dicha señal apunta a un primo del Higgs). Por supuesto, esta significación local es muy discutible, pues implica un sesgo (busco donde sé que se encuentra y asumiendo que se encuentra allí). Es mucho más fiable una significación global en todo el intevalo de búsqueda en el que puedo buscar, lo que oficialmente hace la dirección del CERN para no mojarse las manos.

Imagina que el próximo miércoles, 4 de julio, los dos grandes experimentos del LHC, llamados ATLAS y CMS, ofrecen indicios sobre la existencia del Higgs a cuatro sigmas (de confianza estadística para la hipótesis de que el Higgs existe en un intervalo entre 100 y 600 GeV). Combinando ambos indicios se superarán las cinco sigmas, lo que significa que se podría proclamar oficialmente un descubrimiento. ¿La dirección del CERN proclamará un descubrimiento oficial del Higgs? En mi opinión no, no lo harán. Sin realizar la combinación de forma rigurosa, no será utilizada de forma oficial.

¿Deberían combinarse los datos de ATLAS y CMS antes de publicarlos por separado? Quizás sí, es una cuestión de opiniones, pero no se hará. No se hará porque no es necesario hacerlo. En diciembre de 2012, ambos experimentos tendrán indicios sobre el Higgs a más de cinco sigmas y por tanto ambos proclamarán un descubrimiento. La combinación de sus colisiones no se realizará hasta 2013 (quizás no se publique hasta el verano de 2013).

¿Por qué no se acelera todo el proceso? Porque no merece la pena hacerlo. El trabajo teórico de Higgs tiene casi 50 años, el LHC se propuso hace unos 30 años, su diseño y construcción ha costado unos 20 años, y solo llevamos un año y medio tomando datos. ¡Solo 18 meses! La búsqueda del Higgs en el LHC acaba de empezar y confirmar de forma definitiva que se trata de la partícula predicha por el modelo estándar costará unos 20 años. ¿Por qué van a tener prisa las autoridades del CERN? ¿A quién le importa lo que algunos digan? Las cosas son así y así seguirán, ¿por qué han de cambiar?

Como nos cuenta Aidan Randle-Conde, “Why we shouldn’t combine Higgs searches across experiments,” USLHC, Quantum Diaries, June 28th 2012, la razón por la que dos experimentos están buscando el Higgs en el LHC es porque si uno de ellos proclama un descubrimiento, no estará confirmado hasta que otro lo confirme (o lo refute). Por eso, muchos experimentos se diseñan a pares, ATLAS y CMS en el LHC, CDF y DZero en el Tevatrón, UA1 y UA2 en el SPS, Belle y BaBar, etc. Combinar la información de dos experimentos en competencia solo tiene sentido una vez se ha proclamado el descubrimiento por separado en cada uno de ellos. En el Tevatrón nos hemos acostumbrado a que las combinaciones de CDF y DZero se publicaran muy poco después de su publicación por separado, quizás por la presión del LHC, en un intento desesperado por ser los primeros, pero no podemos considerar que esa costumbre excepcional deba ser la regla a seguir; el Tevatrón solo debe ser considerado como la excepción que confirma la regla: solo se combinan los datos de experimentos en competencia mutua cuando ambos han proclamado un descubrimiento. En mi opinión, así se hará en el LHC del CERN.

Lo de siempre, aunque no tenga nada que ver. Que te salgan 5 caras seguidas no significa que la moneda esté trucada y tenga dos caras. Puede que sí, puede que no. Pero que te salgan 50 caras seguidas apunta de forma muy firme a ello. Mirar solo 5 tiradas de 10 monedas da poca información sobre cuáles están trucadas y cuales no; mirar 50 tiradas de una sola moneda da mucha más información sobre si está trucada o no. Pero las sigmas se pueden calcular tanto en un caso como en otro. No es lo mismo 5 sigmas en el primer caso, que 5 sigmas en el otro.

Por todo ello la dirección del CERN prefiere una significación estadística global. ¿Qué harán el próximo miércoles? No creo que cambien de chaqueta en el último momento (como suelen hacer los políticos), sobre todo teniendo en cuenta que en diciembre de 2012 , salvo que ocurra una catástrofe, podrán afirmar que el Higgs existe con una significación global superior a 5 sigmas (y una local cercana a 10 sigmas en algunos canales en el intervalo de 120 a 130 GeV o similar). Por supuesto, ofrezco mi opinión, tan discutible como la de cualquiera.

Mucho hablar de sigmas, pero ¿qué son las sigmas de confianza en la validez de una hipótesis? Nos lo contó Aidan Randle-Conde, “A sigma here, a sigma there…,” Quantum Diaries, 9 May 2012. La palabra “sigma” se refiere a la desviación estándar, denotada por la letra griega del mismo nombre, σ. En el caso más sencillo podemos considerar una distribución gaussiana de probabilidad (también llamada distribución normal). Tomando una con media cero y desviación estándar igual a la unidad, diremos que un dato está desviado más de una sigma de la media si están en la zona rayada de la figura (su módulo es mayor que la unidad). La probabilidad de una fluctuación estadística sea responsable de señal a una sigma es igual a alrededor del 32%. De manera similar la probabilidad de fluctuaciones a dos, tres, cuatro y cinco sigmas más allá de la media es del 5%, 0,3%, 0,005% y 0,00005%, respectivamente.

En los experimentos de física de partículas hay dos fuentes de desviaciones respecto a las predicciones del modelo estándar, por un lado, los errores debidos a fluctuaciones estadísticas y los errores sistemáticos debidos a que calcular las predicciones por ordenador no se puede hacer de forma exacta, y por otro lado, la presencia de una nueva partícula o de una ley física que hace que la Naturaleza difiera de las predicciones teóricas. Para distinguir ambas posibilidades se utiliza el número de sigmas comparado con la probabilidad de que una fluctuación estadística explique dicho resultado. Esta probabilidad depende los parámetros de la hipótesis que se esté estudiando (por ejemplo, el intervalo de masas considerado en el caso del Higgs).

Esta figura muestra la simulación de 100 resultados de una distribución gaussiana junto a la banda de una sigma. Se pueden ver claramente fluctuaciones a dos sigmas de origen puramente estadístico. Si en lugar de 100 resultados tuviéramos 1000, habría alguna fluctuación a tres sigmas. Conforme el número de realizaciones del experimento crece, la probabilidad de observar un punto alejado de la media por un gran número de sigmas crece.

En el caso del bosón de Higgs encontrar una fluctuación estadística a tres sigmas en el intervalo de energías entre 100 y 800 GeV es mucho más probable que encontrarla en un intervalo entre 117 y 127 GeV, por ello el número de sigmas se corrige para tener en cuenta el efecto de la longitud del intervalo. Por tanto,  si observamos una señal a cinco sigmas locales entre 117 y 127 GeV no significa que tengamos un descubrimiento, ya que dicha señal observada en el intervalo entre 100 y 800 GeV se reduce a menos de cuatro sigmas globales. O lo que es lo mismo, una señal a cinco sigmas globales que permite proclamar un descubrimiento es una señal a más de siete sigmas locales lo que nos hace estar muy seguros de lo que parece que estamos observando realmente está ahí.

Espero haber aclarado un poco este tema (hacerlo de forma rigurosa requiere recordar las técnicas matemáticas de contraste de hipótesis y hoy no quiero ser más matemático de la cuenta).

Anuncios

Una revisión informal de la historia de la partícula de Higgs

Mucha gente dice que mi blog es muy técnico y difícil de entender. La verdad es que para mí no es fácil utilizar un lenguaje sin jerga. Esta entrada es informal y muchos físicos me tirarán de las orejas, pero así es como le conté a un buen amigo, periodista, hace solo unos días, la historia del Higgs. Lo dicho, quizás os guste o quizás no.

El problema original que resolvió Higgs es teórico, buscar los límites de un teorema matemático que entonces conocían (y preocupaba a) muy pocas personas en todo el mundo, el teorema de Nambu-Goldstone. El teorema predecía que el universo estaba plagado de partículas sin masa que nadie había observado. Si así fuera, no existiríamos, pero como existimos, tenía que haber una puerta trasera para salir del entuerto. Planteado alrededor de 1960, la solución se obtuvo en 1964 (por los pocos a los que preocupaba resolver esta tontería, ex-alumnos de Nambu y Goldstone, obviamente).

Como resultado de la solución tenía que existir una partícula (la de Higgs), pero no importaba que nadie la hubiera observado porque su masa era arbitraria y por tanto podía ser tan grande que no afectase en nada en absoluto a toda la física conocida entonces. Problema resuelto, todos nosotros podíamos existir (bueno, ya existíamos, pero me entendéis…)

Para qué servían estas ideas. Para nada. Una chorrada técnica más. Hasta que dos alumnos de Goldstone, llamados Weinberg y Salam aplicaron en 1967 la idea de Higgs a una teoría propuesta por Glashow en 1961. Nadie les hizo ni caso. Imaginaos qué chorrada. Puro exotismo teórico. De hecho, Weinberg abandonó esta línea de trabajo porque no llevaba a ninguna parte y se puso a trabajar en cosmología; muchos habréis leído su famoso libro de divulgación “Los tres primeros minutos del universo.”

Pero resulta que en 1971 uno de los pocos que trabajaban en estas chorradas (había poquísimos en todo el mundo), le mandó a uno de sus alumnos, uno de los mayores genios de la historia reciente, ‘t Hooft, que resolviera un sencillo ejercicio: demostrar lo que todo el mundo sabía, que la teoría de Weinberg-Salam-Glashow era incorrecta y no servía para nada (en lenguaje técnico que no era renormalizable). El ejercicio de Veltman estaba orientado a entrenar a ‘t Hooft en el estudio de la renormalizabilidad de la gravedad cuántica para un gravitón masivo (problema mucho más duro que también resolvió el chaval, que hoy ya es Premio Nobel).

La enorme sorpresa fue que la teoría era renormalizable (gracias a las técnicas inventadas por Veltman y a que ‘t Hooft utilizó un programa de ordenador para hacer los cálculos, el mismo que ahora, mejorado, utilizan muchos físicos jóvenes). Gracias a esta propiedad se podían realizar cálculos con la teoría de Weinberg-Salam-Glashow (antes la teoría no servía para nada porque nadie podía calcular nada con ella). Lo maravilloso fue que los cálculos coincidían con la realidad. En 1973 ya se sabía que tenía que ser la teoría correcta, porque era la única que describe todo lo que conocemos, la única capaz de hacerlo, entonces y ahora, porque aún sigue siéndolo.

Poder calcular las predicciones de una teoría es maravilloso porque permite demostrar que la teoría es incorrecta. Se calcula todo lo que predice, se comprueba que falla y listo, ya nos podemos poner manos a la obra y desarrollar una teoría mejor. Pero aquella teoría, llamada modelo estándar, no ha fallado nunca.

Nunca quiere decir nunca. Eso sí, la teoría permite añadir o quitar ciertas cosas. Los neutrinos pueden tener masa o no tenerla. La navaja de Ockham prefiere que no la tengan, pero nada prohíbe que la tengan. Cuando se descubrió que la tenían, pues nada, ningún problema se mete y punto (todavía no sabemos bien cómo hacerlo porque hay dos opciones, que los neutrinos sean partículas de Dirac o de Majorana, pero no importa en esta historia).

Sin embargo,  también hay cosas que no podemos poner o quitar a la ligera. Una de ellas es el llamado mecanismo de Higgs. Sabemos que existe, está demostrado en los experimentos y funciona a las mil maravillas. En palabras sencillas este “mecanismo” es equivalente a que, a baja energía el electromagnetismo y la fuerza nuclear débil están separadas, pero a alta energía están unificadas. Más de 40 años de experimentos (más o menos desde 1973) lo han demostrado fuera de toda duda. A baja energía son dos fuerzas separadas. A alta energía son una única fuerza. Estoy simplificando las cosas, pues a alta energía son también dos fuerzas, pero otras dos diferentes que a baja energía; los detalles no son importantes y el nombre que se usa es fuerza electrodébil, que alude a una unificación con “pegamento” (el mecanismo de Higgs).

La versión más sencilla del mecanismo de Higgs (la original de 1964) predice la existencia de una partícula, el bosón de Higgs. Hay versiones más avanzadas que predicen varios bosones de Higgs, e incluso que no predicen ninguno. Bastan pequeños retoques en la teoría (“pequeños” quiere decir que ha costado 40 años dominarlos a la perfección y que los físicos teóricos jóvenes si no los dominan suspenden los exámenes y no reciben su título universitario).

El mecanismo de Higgs es maravillosamente simple pues solo tiene un parámetro libre (en su versión mínima) y todo se calcula a partir de dicho número. Solo un número. ¡Qué maravilla! ¿Cuál es ese número? El número mágico es la masa del bosón de Higgs. Este número puede ser cero, infinito o cualquier otro número. Bueno, ya Higgs sabía en 1964 que no es cero (no existiríamos) y que el número más grande posible es la masa más grande compatible con el modelo estándar, la masa de Planck. Pero para la teoría da lo mismo que el número sea 1 GeV, 100 GeV, 10 TeV, o 1019 GeV (la masa de Planck). He dicho para la teoría, pero no para el experimento.

La existencia del Higgs influye en las demás partículas y esa influencia permite saber más o menos cuál es su masa. Alrededor de 1985 se pensaba que la masa estaba entre 1 GeV (0,001 TeV) y 10.000 GeV (10 TeV), por eso el SSC (Superconducting Super Collider) se diseñó para alcanzar colisiones hasta 40 TeV. En 1995 (tras el descubrimiento del quark top) se pensaba que la masa estaría entre unos 10 GeV y unos 1000 GeV. Por la parte baja, unas decenas de GeV, se pensaba que LEP y luego LEP 2 podrían descubrirlo, pero al final solo descubrieron que la masa es mayor de 114,4 GeV. Por la parte alta, se diseñó el LHC con colisiones hasta 14 TeV para poder explorar hasta los 2000 GeV y se pensaba que el Tevatrón con colisiones de casi 2 TeV podría descubrir el Higgs con una masa hasta unos 200 GeV. No fue así. Resulta que el Higgs tiene una masa alrededor de 120 GeV, la región inalcanzable para LEP2 y la región más difícil para el Tevatrón.

El LHC ha tenido suerte, dentro de la mala suerte que es tener un accidente gravísimo como el de 2009. Funcionando a medio gas, con colisiones a 7 TeV hasta 2011 y a 8 TeV en 2012 puede descubrir un Higgs con una masa alrededor de 120 GeV en poco tiempo (solo unos años). Además, está funcionando a las mil maravillas. Este año, el LHC está explorando el rango de masas entre 110 y 800 GeV. El año pasado explorando entre 100 y 600 GeV observó una señal alrededor de 125 GeV. Si se confirma, conoceremos ese parámetro que nos falta, la masa del bosón Higgs (o de uno de los bosones, pues solo importa que sea el que menos masa tenga, con eso basta para que todo funcione a las mil maravillas).

¿Cuántas colisiones hay que analizar en el LHC para descubrir el Higgs? El número es “fácil” de calcular (un físico teórico joven debería ser capaz de calcularlo tras unas semanas de trabajo hasta segundo orden (de la teoría de perturbaciones), es decir, hasta NLO). Por supuesto, calcular a tercer orden NNLO (u otros cálculos más avanzados, como los NLL) son temas de investigación en la actualidad; para sorpresa de muchos, yo entre ellos, los cálculos NLO y NNLO difieren casi en un 50% cuando se esperaba una diferencia menor del 5%. No es que sea difícil realizar estos cálculos, pero requiere mucho tiempo de ordenador, mucho tiempo, y por tanto se requiere cierta “experiencia” para guiar los cálculos del ordenador y hacerlos en un tiempo razonable.

Cuando se realiza este cálculo (que a NLO está publicado por doquier) lo que se descubre es que aún no hay colisiones suficientes para un descubrimiento (del bosón de Higgs del modelo estándar mínimo). Hay muchos primos del bosón de Higgs para los que sí hay colisiones suficientes y muchos otros para los que nunca habrá colisiones suficientes en el LHC.

¿Qué se dirá el 4 de julio? No lo sé. Pero quien piense que se publicará el descubrimiento definitivo del Higgs debe saber que no puede ser el Higgs del modelo estándar, será uno de sus primos. La estadística nunca miente. Siento decepcionarte, pero no quiero engañarte. El anuncio no será más gordo que el de diciembre de 2011. La razón es muy sencilla, se han analizado un número insuficiente de colisiones para asegurar 100% un descubrimiento. A lo más, se ratificará la señal ya observada, lo que para los físicos es muy importante, pero recuerda mis palabras, desde el CERN en la rueda de prensa dirán que todavía no se puede asegurar al 100% que el Higgs existe.

Hay muchos rumores, pero siendo realistas, 5 sigmas de significación local no es suficiente para que los directores del CERN proclamen un descubrimiento. Ellos son así. No quieren volver a cometer el error de Carlo Rubbia en 1984 (cuando proclamó con un número de colisiones insuficiente que el quark top había sido descubierto con una masa de unos 40 GeV). La significación global es imposible que alcance 5 sigmas, los números no salen (esto es como sumar 2+2, por mucho que quieras no da 22), al menos antes de diciembre de 2012 (y siempre que todo vaya viento en popa y a toda vela en el LHC; crucemos los dedos).

Recuerda que esto es como cuando se supo que la Tierra era “redonda” y se le podía dar la vuelta. Maravilloso. Un gran descubrimiento. Pero hasta que alguien no intentó darle la vuelta no se hicieron descubrimientos de verdad. Aquí pasa lo mismo. Una partícula que parece ser el Higgs es solo eso, un candidato a ser el Higgs. Estudiar su física en detalle requiere una fábrica de Higgs que produzca miles al año (no bastan unos pocos, menos que los dedos que tenemos para contarlos).

Cassini observa pruebas de un océano líquido a 100 km de profundidad en Titán, el mayor satélite de Saturno

La superficie helada de Titán, la mayor luna de Saturno, se mueve siguiendo el ritmo de las mareas como si se encontrara encima de un inmenso océano líquido (que se encontraría a 100 km de profundidad bajo la superficie). Así lo ha descubierto la sonda Cassini tras medir el campo gravitatorio de esta luna en seis sobrevuelos realizados entre 2006 y 2011. Titán orbita alrededor de Saturno con un periodo de 16 días y posee una atmósfera compuesta sobre todo de nitrógeno, con algo de metano y en menor cantidad algunos hidrocarburos. El nuevo océano descubierto bajo la superficie podría ser el responsable de la existencia de esta atmósfera. ¿Podría haber vida en este océano bajo la superficie? Los exobiólogos creen que no, ya que se trata de un océano más frío de lo que permitiría la bioquímica de la vida  de forma sostenible. Cassini seguirá tomando datos de Titán durante los próximos cinco años, lo que nos permitirá conocer mejor sus propiedades. Nos lo cuenta Richard A. Kerr, “Cassini Spies an Ocean Inside Saturn’s Icy, Gassy Moon Titan,” Science 336: 1629, 29 June 2012, haciéndose eco del artículo técnico de Luciano Iess et al., “The Tides of Titan,” Science Express, Published Online June 28 2012. Más información en Teresa Guerrero, “Un océano de agua líquida bajo la superficie de Titán,” El Mundo, 28 junio 2012.

Los conos en la retina de los peces elefante forman un cristal fotónico que les permite ver colores a través de aguas turbias

Los cristales fotónicos son materiales ópticos estructurados que repiten cierto patrón en una escala nanométrica, por debajo de la longitud de onda de luz. En la Naturaleza son muy comunes (por ejemplo, en los ópalos o en las alas de las mariposas). Se publica hoy en Science que los conos (fotorreceptores) de la retina de los peces elefante (Gnathonemus petersii) se agrupan formando macrofotorreceptores de tipo cristal fotónico. Gracias a ello se incrementa su sensibilidad para detectar estímulos coloreados en un ambiente muy ruidoso, permitiéndoles ver colores a través de las aguas turbias del hábitat en el que viven. El artículo técnico es Moritz Kreysing et al., “Photonic Crystal Light Collectors in Fish Retina Improve Vision in Turbid Water,” Science 336: 1700-1703, 29 June 2012.

Este vídeo muestra una reconstrucción tridimensional de cómo 6 conos (células fotorreceptoras) se agrupan formando un macrorreceptor hexagonal con forma de copa o jarrón. Las paredes de esta copa están formadas por cristales de guanina y melanina. Os recuerdo que en la retina hay dos tipos de fotorreceptores, los bastones (para ver en blanco y negro) y los conos (para ver en color). Los bastones permiten ver en un ambiente muy oscuro, pero los conos son “ciegos” en dicho ambiente. Por ello de noche no podemos distinguir bien los colores y vemos como en blanco y negro. Los macrorreceptores de la retina de los peces elefante permiten que sus conos sean capaces de ver colores en un ambiente con una luz muy tenue, como el agua turbia. Ya se sabía que algunos peces podían ver colores en estas circunstancias, pero no se conocía la razón última.

El nuevo artículo en Science propone una solución muy razonable a este problema, que se ha comprobado con simulaciones por ordenador mediante el método de diferencias finitas en el dominio del tiempo (FDTD). La parte interior de las “copas” formadas por los sesis conos, gracias a la presencia de cristales de guanina y melanina, actúa como un espejo parabólico que amplifica la luz en ciertas regiones donde se encuentran fotopigmentos para los colores verde (536 nm) y rojo (615 nm). Gracias a ello, los peces Gnathonemus son capaces de observar colores rojos en aguas muy turbias. La Naturaleza, gracias a la evolución por selección natural, encuentra soluciones sorprendentes que ofrecen muchas oportunidades a los ingenieros especializados en biomimética.

Hoy se ha publicado el nuevo JCR 2011 de Thomson Reuters

Como todos los años, me hago eco de la publicación del nuevo Journal of Citations Reports (2011 JCR Science Edition).  Los que publicamos artículos, tenemos la obligación de actualizar los índices de calidad de nuestras publicaciones aparecidas en 2011, que hasta hoy solo tenían información sobre 2010. Nature (36,280) vuelve a estar por encima de Science (31,201), algo que ya viene ocurriendo desde 2007. España cuenta con 78 revistas (en el Science JCR), cuando en el 2010 JCR solo tenía 73. Como ya sabéis me gusta la categoría de ciencia multidisciplinar, os dejo los primeros 10 puestos.

Como bien sabéis la utilidad del 2011 JCR está en la comparación de revistas dentro de un área de conocimiento concreta. Las comparaciones generales son odiosas. A los que tengáis acceso en España (vía la FECYT) os animo a ojear las categorías que más os atañan, aunque sin olvidar que no debemos abusar del índice de impacto (aunque la ANECA lo haga por nosotros).

En mi área de conocimiento “natural,” que es MATHEMATICS, APPLIED, vuelve a reinar SIAM Review con una diferencia cada más abultada (pasa de 6,620 a 10,020). Me alegra, porque ha habido desviaciones no deseadas en los últimos años (gracias a la ingeniería del índice de impacto por parte de los editores de ciertas revistas de “segunda”). Revistas “patológicas” como Chaos, Solitons & Fractals vuelven al redil (después de estar por encima de 3 hasta 2009, fictioso, obviamente, ahora tiene 1,222, cuando tuvo 1,268 en el 2010 JCR, un valor mucho más natural para el impacto real de esta revista); o como el International Journal of Nonlinear Scienes and Numerical Simulation que lleva una caída abismal como muestra la siguiente figura (en mi opinión su índice de impacto natural es del orden de la unidad, no más y porque publican en ella muchos “lobbies” de chinos).

 Por cierto, ¿cómo ha quedado PLoS ONE, la gran revista de acceso gratuito en la que todo el mundo quiere publicar? La aprovecharé para explicar qué es el índice de impacto, que quizás mucha gente no conoce o no recuerda cómo se calcula.

El cálculo del índice de impacto es muy sencillo. Se suman todos los artículos publicados por la revista en los dos últimos años (en el 2011 JCR serán 2010 y 2009); en el caso de PLoS ONE son 11.125, sí has leído bien, más de once mil artículos. Se suman el número de artículos publicados en 2011 en revistas del 2011 JCR que han citado a algún artículo de la revista publicado en 2009 o 2010. En el caso de PLoS ONE, 45.521 artículos de 2011 (tanto de PLoS ONE como de otras revistas) han citado a los anteriores artículos. Finalmente, se obtiene el índice de impacto como el cociente entre ambos números. En el caso de PLoS ONE resulta 4,092, lo que no está mal.

Lo importante es la posición de la revista en las categorías (o áreas de conocimiento) a las que pertenece. En el caso de PLoS ONE solo pertenece al área de BIOLOGY y se encuentra en la posición número 12 de un total de 84, es decir, en el primer cuartil. Por cierto, en este área la revista mejor impactada es PLoS Biology, que alcanza un índice de impacto de 11,452.

Bueno, no sé qué más decir; además ahora tengo que actualizar mi currículum vitae.

PS (29 junio 2012): Álvaro Cabezas, “Las revistas españolas en los JCR 2011,” Primer Cuartil (Q1), 29 Junio 2012, nos recuerda que “Los JCR de Thomson Reuters recogen este año el índice de impacto de 10.677 publicaciones, de los cuales 528 lo reciben por vez primera. Son 127 las revistas españolas incluidas, en concreto 78 revistas corresponden al índice de Ciencias (SCI) y 54 al de Sociales (SSCI), cinco están en ambos índices, lo que significa en el caso del SCI cinco y en el del SSCI seis revistas más que el año anterior. (…) El dato anómalo en lo que respecta a las revistas españolas lo encontramos este año en la Revista de Psicodidáctica, editada por la Universidad del País Vasco, que ha aumentado su factor de impacto espectacularmente, desde el 0,815 hasta el 2,667, alzándose a la sexta posición en su categoría (Psychology, Educational). (…) A nivel internacional, por vez primera una revista supera los 100 puntos de factor de impacto (CA – A Cancer Journal for Clinicians; 101,780); [además] PLoS One, pese a su absurda política de publicación indiscriminada se mantiene con un índice por encima de cuatro. (…) Finalmente, la polémica este año la podemos tener con la desconocida revista turca Energy Education Science and Technology que alcanza un impacto de más de 31 puntos, por encima de Science, y que con una evidente falta de escrúpulos (autocitación del 90% y vida media de citas de solo 1,5 años) es la candidata número uno a ser expulsada del ISI ipso facto.”

PS (30 junio 2012): Los interesados en ver el listado de todas las revistas incluidas en el JCR pueden consultar este PDF. Las nuevas revistas que han sido incluidas aparecen en este otro PDF. Como nos cuenta Richard Van Noorden, “Record number of journals banned for boosting impact factor with self-citations,” Nature News Blog, 29 Jun. 2012, “Thomson Reuters ha excluido este año 51 revistas del 2011 JCR, cuando solo fueron excluidos 34 en 2010, 26 en 2009, 20 en 2008, y solo 9 en 2007. Casi todos han sido excluidos porque tienen un número excesivo de autocitas (“an anomaly in citation stacking”). Hay 140 revistas con un índice de autocitas superior al 70% que están en la sala de espera. ¿Cuál es el número normal de autocitas? 4/5 de todas las revistas tienen un porcentaje de autocitas menor del 30%.

Un ejemplo de cómo funciona la exclusión por autocitas. La revista Journal of Biomolecular Structural Dynamics (JBSD) ha sido excluida del 2011 JCR porque su índice de impacto subió de 1,1 en 2009 hasta 5,0 in 2010. Thomson Reuters solicitó al editor que explicara la razón de su éxito. Por lo que parece el editor decidió en 2009 recomendar a todos los autores de nuevos artículos que relacionaran su trabajo con el presentado en artículos recientes publicados en JBSD (supuestamente con objeto de mejorar la formación de los jóvenes estudiantes de doctorado que empiezan a leer la revista). Obviamente, la revista ha sido excluida del 2011 JCR por mala praxis del editor. El editor ha decidido cambiar de política (ya no apoyará la formación de los jóvenes doctorandos) y espera que dicho cambio le permita volver a entrar en el JCR (durante un par de años estará siendo vigilada y si corrige su mala praxis volverá a entrar en 2012 o en 2013).

¿Por qué no elimina Thomson Reuters las autocitas del cálculo del índice de impacto? Desde hace 3 años, el JCR incluye tanto el índice de impacto con autocitas como sin ellas. Por lo que parece, estadísticamente están bien correlacionados, luego no “merece la pena” utilizar solo el índice sin autocitas; según Thomson Reuters significaría un cambio fundamental en los cálculos del índice de impacto para corregir un problema que casi no existe.

 

Para los españoles que leen esto, les recuerdo que desde la ANECA todavía no han descubierto que el JCR incluye el índice de impacto de las revistas sin autocitas; espero que no lo descubran (por si acaso).

PS (01 julio 2012): En las revistas españolas también hay ingeniería del índice de impacto: Topo, “JCR 2011. Todo se pega. Ahora le toca manipular a la Revista de Psicodidáctica,” Un nombre al azar, Julio 01, 2012.

La teoría electrodébil, el bosón de Higgs y su historia

Mucha gente que afirma a la ligera que el bosón de Higgs podría no existir (e incluso que de hecho no existe) no tiene ninguna duda sobre la unificación electrodébil. Creen a pies juntillas que el electromagnetismo y la interacción débil están unificadas a alta energía, aunque no exista el bosón de Higgs. Esta contradicción es curiosa, pues sin el campo de Higgs la unificación electrodébil se hunde en el fango (la teoría no es renormalizable). A baja energía la interacción electromagnética y la débil son muy diferentes entre sí; la constante de acomplamiento electromagnética, α, es mucho mayor que la débil, sea α/(MW)2  o  α/(MZ)2, ambas están gobernadas por la misma constante adimensional α, siendo la única diferencia que los bosones vectoriales W y Z tienen masa y el fotón no la tiene. A alta energía la interacción electrodébil unifica ambas fuerzas imponiendo una simetría que afirma que Mϒ=MZ=MW (en realidad estas partículas a alta energía reciben como nombres A y B, pero esto es un detalle menor).  El campo de Higgs es el encargado de romper esta simetría a una energía v=246 GeV y separar el comportamiento del fotón y los bosones W y Z. El bosón de Higgs es consecuencia natural del campo de Higgs. Que alguien piense que no existe el bosón de Higgs, pero sí el campo de Higgs, en mis cortas miras, es muy poco natural. Obviamente, hay muchas propuestas teóricas, retruques técnicos para evitar lo natural, pero cuántas de ellas son renormalizables; quizás, la teoría correcta no tenga que ser renormalizable, pero muchos de lo que afirman que el bosón de Higgs no existe, no dudan de la renormalizabilidad. Os pido perdón, pero yo no entiendo por qué mucha gente famosa habla con total naturalidad sobe el Higgs afirmando que puede que exista o puede que no exista, en pie de igualdad, cuando la natural es que exista y lo “antinatural” es que no exista.

Hemos progresado mucho en 10 años. En el año 2000, LEP2 excluyó un Higgs con una masa menor de 113,4 GeV (más tarde se subió a 114,4 GeV). No supimos nada más hasta el año 2008, cuando el Tevatrón logró excluir un Higgs con una masa de 170 GeV al 95% CL. El avance ha sido rapidísimo y el LHC ha buscado el Higgs en el intervalo entre 110 y 600 GeV desde el año 2010, excluyendo su existencia salvo en un pequeño intervalo de masas entre 117 y 127 GeV (a fecha de hoy). La semana que viene sabremos un poquito más. ¿Por qué todo el mundo tiene tanta prisa en saberlo todo sobre el Higgs? ¿Por qué se olvida que no llegaremos a saberlo todo sobre el Higgs hasta dentro de un par de décadas, como mínimo? Lo natural es que el Higgs exista y que lo encontremos este año, pero lo interesante está en los detalles y no los conoceremos este año; repito, serán necesarias al menos dos décadas para que profundicemos en estos detalles. Para mí es realmente curioso.

Esta figura, ya obsoleta, muestra los límites de exclusión para el bosón de Higgs obtenidos por el experimento ATLAS del LHC en el CERN en el verano de 2011. Hace solo un año y ya no interesa absolutamente a nadie. En verde la curva correspondiente a las colisiones del año 2010, en rojo la curva publicada en julio de 2011 (EPS-HEP 2011) y en negro la curva de finales agosto (LP 2011). Estas dos últimas curvas se obtuvieron con entre 1 /fb y 2,3 /fb de colisiones a 7 TeV c.m., según el canal de búsqueda del Higgs. ¡Cuánto hemos avanzado desde entonces y solo ha pasado un año! La figura la he extraído de Sven Heinemeyer (IFCA, Santander, CSIC), “Farewell,” Higgs days at Santander, Sept. 2011.

A veces hay que retomar el pasado para darse cuenta de lo rápido que estamos avanzando. Pero nunca es suficientemente rápido, siempre queremos aún más rápido. ¡Qué dirá Peter Higgs al respecto tras haber esperado casi 50 años! Quizás deberíamos recordar la prehistoria del Higgs.

Empezaré con Philip Anderson, que se dio cuenta en el verano de 1962 que el mecanismo utilizado en la superconductividad para explicar el efecto Meissner podía ser utilizado en física de partículas elementales para hacer que los bosones de Goldstone se convirtieran en los grados de libertad longitudinales que dotan de masa a una partícula como el fotón. El artículo que describía el “mecanismo de Higgs” apareció en 1963, pero no detallaba los cálculos relativistas correspondientes. Anderson cuenta su historia aquí. Él era físico de la materia condensada, pero publicó su artículo en una revista de física de partículas. A Brout le encantó la idea y junto a Englert, dos años más tarde, desarrolló un modelo de ruptura de la simetría basado en la idea de Anderson. Sin embargo, Brout y Englert en su artículo en Physical Review Letters omitieron la referencia al trabajo previo de Anderson. El artículo llegó a la revista el 26 de junio 1964 y se publicó en la edición del 31 de agosto de 1964.

Brout y Englert relataron la historia de su artículo aquí, donde afirmaron que conocían el trabajo de Anderson sobre la superconductividad y que su idea fue extender dicho trabajo a una teoría cuántica relativista (una teoría gauge de tipo Yang-Mills). Ellos conocían el trabajo de Nambu y Goldstone según el cual si la simetría gauge era global debían aparecer partículas sin masa que no habían sido observadas. Su objetivo fue desarrollar una teoría con invarianza gauge local y su guía para ello eran las ideas de Anderson. Su trabajo no fue fácil ya que la matemática es más sutil en el caso relativista y según confiesan necesitaron más de un año para completar la labor en 1964. La sorpresa es que podían evadir la existencia de los bosones de Goldstone sin masa, aunque fueron capaces de indicar de forma explícita que podrían aparecer bosones con masa.

Peter Higgs, de forma independiente, envió un artículo en julio de 1964 a Physics Letters en el que desarrollaba el argumento de Anderson en el caso relativista, pero como en el caso de Brout y Englert no predecía la existencia de bosones con masa. Higgs envió una semana más tarde otro artículo en el que estudiaba más detalles de la ruptura espontánea de la simetría en una teoría gauge local, pero dicho artículo fue rechazado. Hizo una serie de cambios, entre ellos la mención de la posible existencia de mesones con masa (que ahora llamamos bosones de Higgs) y lo volvió a enviar el 31 de agosto de 1964, siendo aceptado en la revista Physical Review Letters (se publicó en la edición del 19 de octubre 1964 ). Nambu fue el revisor de este artículo y le indicó a Higgs la existencia del artículo de Brout y Englert (Higgs incluyó en su artículo una nota a pie de página al respecto). En este artículo Higgs hace mención explícita al artículo previo de Anderson.

Higgs da su versión de la historia aquí , y se refiere al “mecanismo de Anderson” de forma explícita. Guralnik, Hagen y Kibble habían estado trabajando también en el “mecanismo de Higgs-Anderson” y escribieron un artículo sobre él que enviaron a PRL. Guralnik da su versión de la historia aquí y Kibble aquí. Entre todos estos autores, él único que menciona de forma explícita la consecuencia (obvia por otro lado a partir del formalismo matemático) de la de existencia de una partícula (un “mesón”) como resultado del mecanismo de ruptura espontánea de la simetría es Higgs.

Otros dos artículos de exposición reciente sobre este tema y su historia, ver aquí y aquí .

Un joven estudiante descubre con Google una solución al misterio de los rayos cósmicos del año 774-775 d.C.

El 8 de junio nos hacíamos eco de un misterio sin respuesta: El incremento de los rayos cósmicos ocurrido en el año 774-775 d.C. “El análisis mediante carbono 14 de los anillos en ciertos cedros japoneses muestra un incremento del 12 por mil.” Textos antiguos indican que en el año 774 apareció un misterioso “crucifijo rojo” en el cielo, lo que se interpreta como la explosión de una supernova. Así lo ha propuesto en Nature el joven estudiante Jonathon Allen, Universidad de California en Santa Cruz. Tras leer la noticia hizo una búsqueda por la web gracias a Google sobre cosas que hubieran pasado en el cielo en el año 774 y encontró una crónica anglosajona del siglo VIII en el “The Avalon Project” en la que se hablaba de una “cruz roja” que apareció en el cielo tras la puesta del sol. Allen pensó que podría ser una supernova escondida tras una nube de polvo que hizo que se observara de color rojo; los restos de esta supernova no serían visibles ahora porque los taparía dicha nube de polvo. Los expertos están impresionados. Geza Gyuk, astrónomo del Planetario Adler de Chicago, EE.UU., experto en utilizar las crónicas anglosajonas para investigar eventos astronómicos, dice que el descubrimiento de Allen es sorprendente y muy sugerente. Donald Olson, físico de la Texas State University en San Marcos, EE.UU., dice que “otra posible explicación del “crucifijo rojo” en el cielo puede ser la dispersión de la luz del sol en un nube tenue de cristales de hielo.” Obviamente, ahora les toca a los astrofísicos buscar pruebas firmes que confirmen o desmientan la hipótesis del joven Allen. Más información en Jonathon Allen, “Astronomy: Clue to an ancient cosmic-ray event?,” Nature 486: 473 (28 June 2012). También nos lo cuenta Richard A. Lovett, “Supernova Could Have Caused Mysterious ‘Red Crucifix’ in Sky in 774 A.D.,” Scientific American, June 27, 2012, y Richard A. Lovett, “Ancient text gives clue to mysterious radiation spike. Eighth-century jump in carbon-14 levels in trees could be explained by “red crucifix” supernova,” Nature News, 27 June 2012. Traducción al español en Kanijo, “Antiguos textos dan pistas sobre un misterioso pico de radiación,” Ciencia Kanija, 28 junio 2012.

A.D. 774. This year the Northumbrians banished their king, Alred, from York at Easter-tide; and chose Ethelred, the son of Mull, for their lord, who reigned four winters. This year also appeared in the heavens a red crucifix, after sunset; the Mercians and the men of Kent fought at Otford; and wonderful serpents were seen in the land of the South-Saxons.” The Avalon Project

Más caliente que Justin Bieber y Emma Stone juntos, el plasma de quarks y gluones

Nuevo récord de temperatura (efectiva) en el Libro Guinness, los cuatro billones de grados centígrados en un plasma de quarks y gluones logrados en el Colisionador de Iones Pesados Relativistas (RHIC) del Laboratorio Nacional de Brookhaven. Un líquido (casi) perfecto formado por la colisión de núcleos de oro que reproduce las condiciones del universo pocos instantes tras la Gran Explosión (Big Bang). Este récord del Libro Guinness durará poco, quizás solo hasta el año que viene, pues en ALICE del LHC (CERN) se alcanzan temperaturas más altas, solo que todavía no se han molestado en realizar una medida suficientemente precisa de dichas temperaturas. Más información en Alan Boyle, “Big-bang soup wins hotness record,” Cosmic Log, 27 june 2012.

La producción fotocatalítica de hidrógeno y las hojas artificiales

El petróleo fue la fuente de energía y el vector energético del siglo XX. Todo apunta a que el hidrógeno será el vector energético del siglo XXI gracias a la energía solar como fuente de energía. Para ello se tendrán que desarrollar sistemas de producción de hidrógeno a gran escala basados en materiales electrocatalíticos y fotoelectrocatalíticos. A partir de haluros de hidrógeno, compuestos HX, se puede generar hidrógeno (H2) por división fotocatalítica; normalmente, X=Cl (cloro) o X=Br (bromo). La reacción química (global) utilizada es 2 HX → H2 + X2, una reacción endotérmica (que necesita de un aporte de energía); para el cloro (X=Cl) se necesita un incremento en la energía libre de Gibbs de ΔG° = 131 kJ/mol y para el bromo (X=Br) ΔG° = 103 kJ/mol. Gracias un fotocatalizador oxidativo [Cat] apropiado se puede utilizar la energía solar como fuente de energía; la producción autosostenida de hidrógeno requiere desarrollar un ciclo cerrado de reacciones químicas. Los avances recientes en este campo han sido muy importantes, destacando los del grupo de investigación del Dr. Nocera en el MIT (Instituto de Tecnología de Massachusetts, Cambridge, EE.UU.). Sin embargo, aún estamos lejos para que estos avances se puedan introducir en la industria de la producción masiva de hidrógeno gracias a la energía solar. Los interesados en más detalles disfrutarán del breve artículo de Thomas S. Teets y Daniel G. Nocera, “Photocatalytic hydrogen production,” Chemical Communications 47: 9268-9274, 06 Jun 2011.

Otra de las líneas más interesantes de trabajo del grupo de Daniel Nocera es el desarrollo de hojas artificiales, reacciones químicas que imitan la fotosíntesis que utilizan las plantas para obtener energía directamente del sol. Lla electrólisis (romper una molécula de agua en hidrógeno y oxígeno) no se puede realizar con células solares fotovoltaicas porque requiere un voltaje más alto del que éstas son capaces de producir. Las hojas artificiales son unos materiales catalíticos que combinan ambas funciones, las de una célula solar y las de un sistema de electrólisis. Las primeras hojas artificiales se desarrollaron en 1998 por John Turner (Laboratorio Nacional de Energías Renovables, Boulder, Colorado), pero utilizaban materiales muy caros y su química era tan compleja que era difícil obtener sistemas estables para producción industrial. El Dr. Nocera y su grupo ha tratado de imitar a las plantas utilizando “ingeniería inversa” y han logrado las primeras hojas artificiales prácticas (baratas y fáciles de fabricar). Una especie de lámina de silicio que introducida en un vaso de agua expuesto al sol empieza a producir burbujas de hidrógenos y oxígeno; no se necesita agua ultrapura lo que permite usar fuentes naturales de agua y pone este dispositivo al alcance de muchas partes del tercer mundo. Nos lo contó Richard A. Lovett, “MIT scientist announces first “practical” artificial leaf,” Nature News Blog, March 28, 2011.

La luz solar es la fuente más abundante y sostenible de energía que dispone la humanidad. La Tierra recibe de la energía solar unos 120 000 TW (terawattios o billones de wattios), de los que unos 170 W por metro cuadrado llegan al año a la superficie de la Tierra (el número varía dependiendo de la ubicación geográfica). Aprovechar toda esta energía requiere el desarrollo de dispositivos de alta eficiencia similares a los utilizados por los organismos vivos fotosintéticos, que gracias a la mecánica cuántica alcanzan un porcentaje de fotones absorbidos de casi el 100% en condiciones óptimas, pero esto no implica que su eficiencia total sea del 100%. Se estima que las leyes de la termodinámica implican una reducción de la eficiencia a ~ 50%. Para un sistema fotovoltaico artificial se aplica el llamado límite de Shockley-Queisser de ~ 24% (en lugar del 100%),  lo que reduce la eficiencia de producción teórica a solo un ~ 12%.

Comparar la eficiencia de un sistema fotosintético con uno fotovoltaico no es fácil. Ambos procesos recogen la energía de la luz solar, pero funcionan de forma diferente y producen diferentes tipos de productos: fotosíntesis natural produce biomasa y productos químicos, mientras que un sistema fotovoltaico produce una corriente eléctrica. Una posibilidad para comparar ambos sistemas es la generación de hidrógeno (en el caso fotovoltaico mediante electrólisis del agua). El resultado muestra que la fotosíntesis es entre 2 y 3 veces más eficientes que los sistemas fotovoltaicos. Por ello, en la actualidad hay un gran interés en la investigación en la fotosíntesis artificial y en el diseño mediante biología sintética de hojas artificiales. Nos lo contó Robert E. Blankenship et al, “Comparing Photosynthetic and Photovoltaic Efficiencies and Recognizing the Potential for Improvement,” Science 332: 805-809, 13 May 2011.

Conferencia de Richard Feynman en 1986 en memoria de Paul Dirac y su obra

Esta conferencia de Richard Feynman titulada “Elementary Particles and the Laws of Physics” impartida en 1986 en memoria de Paul A. M. Dirac merece la pena (dura 70 minutos). Me apena que no se vean las transparencias, que nos tenemos que imaginar. La he visto en Lubos Motl, “Feynman’s 1986 Dirac Memorial Lecture,” TRF, 26 june 2012.