Francis en @TrendingCiencia: La velocidad de los neutrinos y el experimento MINOS

Dibujo20131019 minos far detector - soudan mine - usa

Mi nuevo podcast sobre física para Trending Ciencia ya está disponible, sigue este enlace para escucharlo. El tema es la medida la velocidad de los neutrinos y en concreto de las medidas obtenidas por el experimento MINOS en 2007 y 2012. Muchos recordarán la medida obtenida por OPERA en el Laboratorio Nacional de Gran Sasso en septiembre de 2011 que afirmó que los neutrinos muónicos eran superlumínicos. Al final se descubrió la existencia de un error sistemático, cuya corrección permitía salvar todos los datos ya recabados, pero además se logró financiación para realizar nuevos experimentos en Gran Sasso. MINOS (en EEUU) y T2K (Tokai to Kamioka, en Japón) también consiguieron financiación para hacer lo propio. Un resultado overhype (sobrevalorado) permite recabar financiación para investigar en temas muy interesantes.

En mi blog recomiendo leer «No hay mal (para OPERA) que por bien no venga (para MINOS),» 25 Abr 2012, «Con los GPS en el frigorífico para medir la velocidad de los neutrinos en MINOS,» 14 Jun 2012, » y «MINOS mide la velocidad de los neutrinos muónicos,» 12 Abr 2013. También recomiendo «La medida correcta de la velocidad de los neutrinos de OPERA en 2011 y los nuevos resultados de 2012,» 8 Jun 2012.

Los interesados en artículos técnicos disfrutarán con P. Adamson, «Neutrino Velocity: Results and prospects of experiments at beamlines other than CNGS,» Nuclear Physics B, Proceedings Supplements 235–236: 296–300, Feb–Mar 2013 [free pdf], y P. Adamson et al., «Measurement of the Velocity of the Neutrino with MINOS,» FERMILAB-CONF-12-666-AD, 15 Mar 2012. Además de Floyd W. Stecker, «Constraining Superluminal Electron and Neutrino Velocities using the 2010 Crab Nebula Flare and the IceCube PeV Neutrino Events,» arXiv:1306.6095 [hep-ph], 25 Jun 2013.

Para los interesados en otros artículos citados en el podcast: J. Alspector et al., «Experimental Comparison of Neutrino and Muon Velocities,» Phys. Rev. Lett. 36: 837–840, 1976; MINOS Collaboration, «A Search for Lorentz Invariance and CPT Violation with the MINOS Far Detector,» Phys. Rev. Lett. 105: 151601, 2010arXiv:1007.2791 [hep-ex]; MINOS Collaboration, «Measurement of neutrino velocity with the MINOS detectors and NuMI neutrino beam,» Phys.Rev. D 76: 072005, 2007arXiv:0706.0437 [hep-ex].

Sigue leyendo

La línea de rayos gamma a 130 GeV de Fermi-LAT apunta a fluctuación estadística

Dibujo20131014 fermi lat gamma ray 130 GeV line versus montecarlo simulations

Muchos físicos creen que la famosa línea de rayos gamma observada a 133 GeV por el telescopio espacial Fermi LAT en el centro de la Vía Láctea es una señal de la aniquilación de partículas de materia oscura tipo WIMP. La búsqueda de líneas similares en cinco regiones de la Vía Láctea alejadas del centro ha sido infructuosa. Un análisis de los datos de los últimos 4,4 años basado en métodos de Montecarlo indica una significación local de 2,9 σ y significación global de 1,0 σ. Por tanto, todo indica que se trata de una simple fluctuación estadística. Nos ofrece todos los detalles técnicos del análisis Michael Gustafsson (for the Fermi-LAT collaboration), «Fermi-LAT and the Gamma-Ray Line Search,» arXiv:1310.2953 [astro-ph.HE], 10 Oct 2013.

Sigue leyendo

El consumo de chocolate y el número de premios Nobel en un país

Dibujo20130827 chocolate - nobel prize awardee - s harris - nature com

En  octubre de 2012 fue noticia un artículo en la prestigiosa revista New England Journal of Medicine que relacionó el consumo anual per capita de chocolate en un país con el número de ganadores de un Premio Nobel. Como es obvio, este resultado no implica que haya una relación de causalidad entre tomar chocolate y recibir un Nobel, aunque haya estudios que prueban que el consumo de chocolate mejora las funciones cognitivas. La revista Nature ha consultado a 23 laureados con el Nobel y les ha preguntado su opinión. Todos opinan que no tiene nada que ver. Sin embargo, el 43% toma chocolate al menos dos veces a la semana, mientras que sólo lo hace el 25% de los 237 científicos sin Nobel consultados. Nos lo contó Beatrice A. Golomb, «Lab life: Chocolate habits of Nobel prizewinners,» Nature 499: 409, 25 Jul 2013; en español pudiste leer el año pasado Muy Interesante, BBC Mundo, El Mundo Salud, ABC Salud, etc.

Sigue leyendo

Qué significa que el 50% de los artículos científicos sean de acceso abierto

Dibujo20130822 free papers may have hit a tipping point - science mag

Un estudio financiado por la Comisión Europea afirma que el 50% de los artículos científicos publicados en 2011 y más del 43% de todos los publicados desde 2004 están, a día de hoy, disponibles en acceso abierto (gratuito) en la web. ¿Está cambiando el panorama de la publicación científica? Unos verán el vaso medio lleno y otros medio vacío. En mi opinión este resultado no es debido al movimiento open access per se, si no a la dinámica natural de la web, que ya forma parte íntegra del trabajo de muchos científicos. El informe es Eric Archambault et al. (Science-Metrix), «Proportion of Open Access Peer-Reviewed Papers at the European and World Levels—2004-2011,» European Commission DG Research & Innovation, August 2013 [PDF]. Recomiendo leer a Richard Van Noorden, «Half of 2011 papers now free to read. Boost for advocates of open-access research articles,» Nature 500: 386–387, 22 Aug 2013, y Jocelyn Kaiser, «Half of All Papers Now Free in Some Form, Study Claims,» Science 341: 830, 23 Aug 2013. En español recomiendo «El acceso abierto a las publicaciones de investigación alcanza el llamado «punto sin retorno»,» Comunicado de Prensa de la Comisión Europea, 21 Ago 2013

Sigue leyendo

El arte malo cuanto más se contempla más malo parece

Dibujo20130815 ecce homo - ecce mono - diario el heraldo de aragon

El Ecce Mono de Borja ha atraído a miles de personas a la iglesia del Santuario de la Misericordia de esta pequeña ciudad de la provincia de Zaragoza (España), algo que nunca hubiera logrado la obra de arte de Elías García Martínez. Quizás la obra de Cecilia acabe formando parte de la exposición del MOBA (Museum Of Bad Art), el único museo del mundo dedicado a recolectar, preservar y exhibir lo más pésimo del arte. Yo diría que quienes visitan Borja para admirar la obra de Cecilia siguen la propuesta de Marcel Duchamp sobre «el arte como puro ejercicio de la voluntad, sin necesidad estricta de formación, preparación o talento.»

¿Cuánto más contemplamos una «obra de arte» más interesante y bella nos parece? ¿Cómo influye la exposición a una obra en la preferencia estética y el juicio sobre su valor? La cuestión sobre si la exposición del «arte malo» lo puede transformar en «arte bueno» ha sido estudiada por Aaron Meskin (Universidad de Leeds, Inglaterra, RU) y varios colegas. El artículo científico concluye que la simple exposición al arte malo hace que parezca aún más malo, y además que la exposición al arte bueno junto al malo hace que el bueno parezca más bueno. Yo me permito concluir que las obras del MOBA nunca acabarán formando parte del MoMA (Museum of Modern Art). El Ecce Mono de Borja acabará en el olvido, como también lo hará el Ecce Homo de Borja cuando sea restaurado. El artículo técnico de Aaron Meskin, Mark Phelan, Margaret Moore and Matthew Kieran, «Mere Exposure to Bad Art,» Brit. J. Aesthetics, AOP Feb 28, 2013.

Sigue leyendo

La historia de las cinco sigmas en física de partículas

Dibujo20130814 CDF diboson bump - fake signal after lhc analysis

El físico de origen español Luis W. Alvarez le sugirió en 1967 al físico Gerald (Gerry) R. Lynch que modificara su simulador de Montecarlo llamado GAME para generar histogramas que incluyeran falsos «picos» (bumps) de nuevas partículas (resonancias). Los resultados del nuevo programa fueron mostrados a físicos de partículas para que indicaran «a ojo de buen cubero» si había o no había «nuevas partículas» en dichos histogramas. Muchos físicos vieron nuevas partículas donde sólo había fluctuaciones estadísticas. Nos lo cuenta Luis W. Alvarez, «Recent developments in particle physics,» pp. 1-49 en «Evolution of Particle Physics,» Academic Press, 1970. Por cierto, esta entrada viene a colación por Tommaso Dorigo, «Demystifying The Five-Sigma Criterion,» AQDS, August 11th, 2013.

En aquella época se producían entre 10.000 y 20.000 histogramas al año, que eran explorados por unos 1000 físicos a la caza de nuevas partículas. Desde 1957, los nuevos descubrimientos eran publicados en el listado del Particle Data Group (PDG). La mayoría eran hadrones (entonces no se sabía que eran partículas compuestas de quarks, aunque se sospechaba), llamados resonancias. Muchos «descubrimientos» fueron refutados por otros experimentos, por lo que se decidió marcar todas las nuevas resonancias como «no confirmadas.» Había que decidir un criterio estadístico riguroso. Arthur H. Rosenfeld, uno de los padres de la iniciativa del PDG, en una conferencia sobre mesones celebrada en 1967 en Filadelfia, usó el resultado de Gerry Lynch para proponer un mínimo de tres desviaciones típicas (popularmente llamadas sigmas) para que una «nueva» partícula fuera incorporada al PDG. Nos lo cuenta en «The Particle Data Group: Growth and Operations-Eighteen Years of Particle Physics,» Annual Review of Nuclear Science 25: 555-598, 1975. Su artículo original de 1968 se titula «Are There Any Far-out Mesons or Baryons?,» como nos recuerda Tommaso Dorigo, «Demystifying The Five-Sigma Criterion – Part II,» AQDS, August 14th, 2013.

Tres sigmas no son suficientes, como han mostrado muchos casos. Uno de los más famosos en los que falló la regla de las tres sigmas fue el famoso descubrimiento del quark top en 1984 en el experimento UA1, liderado por Carlo Rubbia, en el colisionador SPS en el CERN. La teoría predecía 3,5 sucesos de dicho tipo y se observaron 12 sucesos (una fluctuación de tres sigmas). Pero al acumular más datos en UA1, la fluctuación cambió de signo y el descubrimiento fue desmentido pocos meses más tarde (de hecho, UA2 tampoco observó dicha fluctuación a favor). El quark top no tenía una masa de 40 ± 10 GeV/c², y gracias a UA1 y UA2 en 1990 ya se sabía que su masa era superior a 69 GeV, más allá de su capacidad de observación.

El número de cinco sigmas se estableció para el descubrimiento del quark top en 1995. En 1994 aparecieron las primeras evidencias del quark top a tres sigmas en CDF, pero el recuerdo de la historia de 1984 y que DZERO no lo hubiera observado, hizo que se recomendaran cinco sigmas para proclamar un descubrimiento. En 1995, tanto CDF como DZERO, los dos experimentos del Tevatrón, en el Fermilab, cerca de Chicago, EEUU, observaron el quark top con cinco sigmas. Hoy sabemos que tiene una masa de 173,3 ± 0,8 GeV/c² (de hecho, el LHC es una fábrica de quarks top).

Hoy en día, un descubrimiento en física de partículas requiere que dos experimentos diferentes observen el resultado con al menos cinco sigmas, que en el caso del bosón de Higgs fueron CMS y ATLAS del LHC en el CERN. Descubrimientos realizados por un único experimento, como el caso de las seis sigmas que alcanzaron los neutrinos superlumínicos del experimento OPERA en septiembre de 2011 son considerados por la mayoría de los físicos como falsas alarmas. Sólo cuando son ratificados de forma independiente por otro experimento se puede hablar en sentido estricto de un descubrimiento. Hoy sabemos que el error de OPERA era sistemático, no estadístico, debido a un fallo.

El incremento de la estadística (número de sucesos mostrados en los histogramas) produce fluctuaciones espurias a tres sigmas de forma continua y algunas pocas pueden alcanzar sin problemas las cinco sigmas; de hecho, con la ingente estadística de sucesos del LHC en la próxima década en algunas búsquedas de sucesos muy raros (como la presencia de partículas supersimétricas de gran masa) habrá falsos anuncios si no sube a entre siete y diez sigmas como cota indicativa de un descubrimiento. En la interpretación del número de sigmas de un resultado de física de partículas la clave es el consenso entre la comunidad.

Por cierto, lo he aclarado en varias ocasiones en este blog, pero quizás convenga recordar qué son las sigmas o desviaciones típicas en la significación estadística de un resultado, concepto que se utiliza en el campo del contraste de hipótesis. En este campo se estudia la probabilidad de que los datos observados en un experimento correspondan a algo nuevo (la hipótesis a contrastar) o sean resultado de una fluctuación estadística de lo ya conocido (la llamada hipótesis nula). La teoría predice para la hipótesis nula un valor medio (μ) y una desviación típica (σ). La diferencia entre valor medio observado y μ se puede cuantificar con un número de desviaciones típicas σ, es decir, con un número de sigmas. Estas son las famosas sigmas.

Por supuesto este análisis estadístico supone que las fuentes de error en la fluctuación son muchas e independientes, lo que permite aproximarla por una distribución gaussiana. En física de partículas hay errores estadísticos, que cumplen con esta condición, y errores sistemáticos, que no tienen por qué cumplirla, por ello el contraste de hipótesis utilizado es un poco más sofisticado, pero en esencia esta es la idea. Por tanto, el número de sigmas de una observación corresponde a probabilidad de que su origen sea la hipótesis nula; una sigma (desviación estándar) corresponde a una probabilidad del 16%, tres sigmas al 0,17%, y las «mágicas» cinco sigmas a una probabilidad del 0,000027%.

PS (17 ago 2013): Como Eclectikus en los comentarios, recomiendo leer a Lubos Motl, «In defense of five standard deviations,» TRF, Aug 14, 2013.

PS (19 ago 2013): Como he enlazado las dos primeras entradas de Tommaso Dorigo, también quiero enlazar las dos siguientes «Demystifying The Five-Sigma Criterion – Part III,» AQDS, Aug 17th 2013, y «Demystifying The Five-Sigma Criterion – Part IV And Summary,» AQDS, Aug 19th 2013. Esta última incluye la figura que abre esta entrada en su última versión obtenida por CDF, que ya no muestra el «falso» pico en azul tras analizar 8,9 /fb de colisiones en el Tevatrón (en lugar de 4,9 /fb) y mejorar la estimación de los sucesos de fondo (reducir los errores sistemáticos en la estimación teórica). Me permito copiarla aquí, sin más detalles, como coda final.

Dibujo201300619 cdf run ii - preliminary result por diboson fake bump

La correlación entre el índice h y el número de citas

Dibujo20130407 relation between h-index and number of citations and publications

La bibliometría está repleta de conjeturas verificadas sólo con pequeños conjuntos de datos. Tras analizar las publicaciones de 35.136 investigadores se confirma la fuerte correlación entre el índice h y el número total de citas recibidas C, siguiendo la ley de potencias h ~ C0,42, predicha por el propio Hirsch, inventor del índice h, que la verificó con un pequeño conjunto de datos. También se correlaciona con el número de publicaciones N, aunque con menor significación. La correlación entre estos tres índices bibliométricos es h ~ C0,41 N0,18. Los autores del nuevo estudio han partido de las citas de los artículos de 89.786 científicos con «profile» en Google Scholar (datos recogidos entre el 29 de junio al 4 de julio de 2012), asociados a 67.648 palabras clave diferentes; entre todos ellos han seleccionado los autores que tienen al menos 20 artículos y una carrera con más de 5 años de duración (reduciendo el número a 35.136 científicos). Esta validación a gran escala ha sido desarrollada por Filippo Radicchi, Claudio Castellano, «Analysis of bibliometric indicators for individual scholars in a large data set,» arXiv:1304.1267, 04 Apr 2013. Los aficionados a la bibliometría dispuestos a realizar otros análisis sobre los mismos datos pueden descargar dichos datos en esta página web de los autores. 

Sigue leyendo

Ellis y You actualizan su estimación LHC+Tevatron+LEP para los acoplamientos del Higgs

Dibujo20130326 higgs couplings - lhc - tevatron - lep

Cualquiera puede hacerlo, pero si lo hace John Ellis parece que tiene más valor. Combinar los datos del LHC (ATLAS+CMS), Tevatron (CDF+DZero) y LEP sobre la búsqueda del Higgs es muy difícil si se hace con rigor (colisión a colisión), pero muy fácil si se hace usando el teorema central del límite. El resultado será parecido (pues la estadística nunca miente). El análisis de Ellis y You conduce a un acoplo (combinado) para el Higgs de μ = 1,02 ± 0,12 (el valor para el Higgs del modelo estándar es μ = 1). En el plano (a,c), donde a caracteriza el acoplamiento a los bosones vectoriales y c a los fermiones, se obtiene el mejor ajuste para a = 1,03 ± 0,06 y c = 0,84 ± 0,15 (el modelo estándar predice a=1 y c=1); separando el acoplo a los fotone (cγ) del acoplo a otros bosones vectoriales (cg) se obtiene cγ = 1,18  ±  0,12 y cg = 0,88 ± 0,11. Estos ajustes apuntan al Higgs del modelo estándar, descartando muchas de las alternativas; el canal más responsable de este buen ajuste es, sin lugar a dudas, el canal difotónico (γγ) analizado por CMS (LHC). Los interesados en los detalles, canal a canal, pueden consultar John Ellis, Tevong You, «Updated Global Analysis of Higgs Couplings,» arXiv:1303.3879, 15 Mar 2013. Repito, muchos otros han obtenido combinaciones similares (a las que yo llamo «oficiosas» aunque el término no guste a algunos de vosotros; quizás habría que llamarlas «estadísticas» o con más rigor «basadas en el teorema central del límite»), pero siendo Ellis el Erdös de la física de partículas, creo que muchos agradecerán que haya destacado su contribución.

Dibujo20130326 global combination - plane a-c for higgs couplings - lhc - tevatron - lep

¿Te apetece comparar tu universidad (si es pública y española) con las demás?

Overworked businessman.

El grupo de investigación CTS-261 de la Universidad de Granada publica todos los años un ranking en producción y productividad en investigación de las universidades públicas españolas (Ranking 2011, Ranking 2010, Ranking 2009, Ranking 2008). También publica la relación de la productividad y eficiencia en investigación con la financiación de las comunidades autónomas españolas (Relación 2010, Relación 2009). ¿Se puede comparar la universidad europea con la del resto del mundo? Se está desarrollando un nuevo ranking específico para la UE, porque los patrones marcados por EEUU no son adecuados y la comparación está muy sesgada a favorecer a estos últimos.

¿Cuál es el rendimiento en el doctorado de los becarios en España? Diferencias entre CSIC y universidades públicas, entre los becarios FPU y FPI, y en función de la normativa de cada universidad. La normativa del doctorado en España ha pegado muchos bandazos y palos de ciego en los últimos años, culminando con las actuales Escuelas de Doctorado, cuya implantación no es sencilla. La Mención de Calidad de los programas de doctorado no es una buena Mención de Excelencia. El Doctorado en la UE necesita una normativa común que permita una convergencia real. Y no solo el doctorado, sino también la selección del profesora, en España centrada en la acreditación y el índice impacto del ISI WoS como índice bibliométrico.

La Universidad de Málaga, a la que estoy afiliado, aparece en el ranking de 2011 de producción y productividad de investigación en los siguientes puestos: Ranking por artículos en revistas JCR, producción total 21/48 y productividad (producción/profesor) 41/48; ranking por tramos de investigación (sexenios), producción total 17/48 y productividad (sexenios/profesor) 30/48; ranking por proyectos I+D, producción total 17/48 y productividad (proyectos/profesor) 32/48; ranking por tesis doctorales, producción total 20/48 y productividad 37/48; ranking por becas FPU, producción total 10/48 y productividad 12/48; ranking por doctorados con mención hacia la excelencia, producción total 29/48 y productividad 45/48; ranking por patentes, producción total 12/48 y productividad 17/48; y ranking global de producción y productividad en investigación, producción total 18/48 y productividad 37/48. A la vista de estos datos se puede afirmar que la Universidad de Málaga es grande, pero poco productiva.

Además, «la Universidad de Málaga en todas las ediciones ha ocupado puestos similares en productividad (39, 38, 38, 37). Ha mantenido una regularidad en su investigación, que no es sinónimo de excelencia, por supuesto y que, por tanto, plantea la necesidad de mayores esfuerzos para mejorar sus puestos en las siguientes ediciones del ranking.»

Os copio un extracto de las conclusiones generales del ranking (y os recomiendo su lectura para más detalles):

«Las diez universidades más productivas en investigación en España en el año 2011 fueron las siguientes: Pompeu Fabra, Pablo de Olavide, Rovira i Virgili, Miguel Hernández, Autónoma de Barcelona, Politécnica de Valencia, Politécnica de Cataluña, Barcelona, Carlos III y Autónoma de Madrid. Las primeras universidades en  este ranking (Pompeu Fabra, Pablo de Olavide y Rovira i Virgili) ocupan los puestos 28, 38 y 27, respectivamente, en el ranking de  producción total. En el lado contrario, la Universidad Complutense de Madrid, por ejemplo, ocupa el segundo puesto en producción y el 29 en productividad. Por tanto, existen grandes diferencias en cuanto a los recursos humanos con los que cuentan las universidades españolas, pero éstas también difieren, y mucho, en la productividad de esos recursos humanos.»

«Al ser ya la cuarta edición de este ranking se puede observar la evolución de las universidades públicas españolas y la tendencia que éstas siguen en cuanto a la investigación que se realiza en ellas. Comparando los datos de los años 2008, 2009, 2010 y 2011 se pueden extraer varias conclusiones. En primer lugar, que hay diez universidades (Pompeu Fabra, Pablo de Olavide, Rovira i Virgili, Miguel Hernández, Autónoma de Barcelona, Politécnica de Valencia, Politécnica de Cataluña, Barcelona, Carlos III y Autónoma de Madrid) que en todas las ediciones, y en diferente orden, siempre han ocupado los diez primeros puestos de la clasificación elaborada. Siempre han mantenido un elevado nivel de productividad.»

Más información leyendo el artículo que publica el ranking…

«La mejora de esas posiciones, de la visibilidad internacional de la ciencia que se hace en España y de la productividad de las universidades españolas, debería ser uno de los objetivos fundamentales de los gobiernos de las instituciones educativas, de las comunidades autónomas y del gobierno central. Sin embargo, para ello se requiere financiación y no parece que ésta vaya a aumentar en el contexto de crisis económica actual. Esto es un problema y un desafío para el sistema universitario español, integrado en el EEES y, por tanto, dentro de un contexto competitivo, en el que las mejores universidades atraerán mejores alumnos e investigadores y conseguirán más financiación, relegando a un segundo plano a las que se estanquen.»

«Twin Peaks» y la búsqueda del bosón de Higgs

Dibujo20121225 twin peaks - kennesaw mountain - usa

Los dos picos gemelos de las montañas de Kennesaw, ciudad del Condado de Cobb, en el estado de Georgia, EEUU, aparecen en el escudo de su universidad, pero no tienen nada que ver con el título de la serie de televisión «Twin Peaks» creada por David Lynch y Mark Frost, ambientada en el noreste del estado de Washington. Los más jóvenes no recordarán que fue emitida por Telecinco en la temporada 1990/91, batiendo récords de audiencia. «Twin Peaks» volvió a mi memoria gracias a la entrada de Jester (Adam Falkowski), «Twin Peaks in ATLAS,» Résonaances 13 Dec 2012, y porque hay algo que tengo que decir, que ya dije en vivo y en directo en «Mi conferencia sobre el “Bosón de Higgs” en los X Encuentros con la Ciencia, Málaga,» 19 diciembre 2012, pero que creo que no he dicho de forma explícita en este blog.

Dije en mi conferencia que hay que tener cuidado con el número de febrero de Investigación y Ciencia, donde quizás aparezca traducida la noticia de Michael Moyer, «Two Higgs Bosons? CERN Scientists Revisit Large Hadron Collider Particle Data,» Scientific American, 15 Dec 2012 («Have Scientists Found 2 Different Higgs Bosons?,» SciAm Blogs, Dec. 14, 2012). En realidad, el autor ha cambiado el texto original de su noticia, tras las múltiples críticas, citando al propio de Jester y a Dorigo, aclarando que ATLAS (LHC, CERN) no ha observado dos bosones de Higgs, se trata de una fluctuación estadística. Muchos ya habréis leído a Tommaso Dorigo, «ATLAS Higgs Results: One Or Two Higgs?,» AQDS, Dec 14th 2012. Sin embargo, como destaca Matt Strassler, «Two Higgs Bosons? No Evidence for That,» OPS Dec 17, 2012, Moyer debería haber cambiado el título de la noticia y evitar sembrar la duda en plan sensacionalista. No creo que merezca la pena que los editores de Investigación y Ciencia incluyan la noticia en su próximo número. Hay noticias en la web de SciAm que es mejor omitir en IyC. En su rectificación, Moyer debería haber mencionado que CMS (LHC, CERN) no observa los dos picos. Pero quien sabe, quizás su intención sea que gente como yo le citemos en nuestros blogs.

Sigue leyendo