El futuro de la financiación de ITER

ITER es un pozo sin fondo. ITER es un futuro sin fondos. En 2006, se proyectó ITER para que costara 5000 millones de euros. A finales de 2011 se estima que costará 15000 millones de euros. El presupuesto de investigación de la Unión Europea no puede soportar este gasto. Se necesita una partida específica. Los 2700 millones de euros que tendrá que aportar la UE durante los años 2014-2020 tendrán una partida presupuestaria específica. Aún así, no hay que ser optimistas, hay que ser cautos. Michel Claessens, portavoz de ITER, prevee que habrá «retrasos significativos» en la construcción de «casi todos los edificios en el laboratorio ITER.» Una pena. Nos lo cuenta Declan Butler, «Outcry over EU budget plan. Costly Earth-monitoring and fusion-energy projects could be stripped from main budget,» Nature 480: 19–20, 01 December 2011.

Por qué el 99,9999% de las colisiones del LHC se pierden para siempre

La mayoría de las colisiones protón-protón en el Gran Colisionador de Hadrones (LHC) del CERN se pierden para siempre, van directas a la basura. Tú ya lo sabes, son demasiadas y no se pueden almacenar todas en disco. Pero quizás convenga recordar que no se pierde el 75%, ni el 95%, ni el 99% de las colisiones. Durante 2011 se ha perdido más del 99,99% de las colisiones y con los incrementos de luminosidad instantánea del último mes se llegaron a perder hasta un 99,9999% de los datos. Una máquina de miles de millones de euros que estudia las colisiones protón contra protón más energéticas del planeta, pero en la que la mayor parte de dichas colisiones se pierden porque es imposible almacenarlas todas; tanto el ancho de banda de las redes de datos necesarias para transferir estos datos en disco como el espacio de disco necesario impiden almacenar todas las colisiones. En todos los experimentos del CERN se utilizan unos mecanismos automáticos de selección de las colisiones que serán almacenadas en disco (o cuáles serán descartadas y se perderán para siempre). Estos mecanismos se llaman «disparadores» (triggers) y sus parámetros han de ajustarse al tipo de colisiones que interese estudiar. Ahora mismo tanto ATLAS como CMS están centrados en la verificación del modelo estándar, la búsqueda del Higgs y ciertos tipos de búsqueda de la supersimetría (SUSY); en el LHCb están centrados en el estudio de la física de los mesones B (con quarks b o bottom), aunque se aceptan cierto número de colisiones con mesones encantados (con quarks c o charm). En los próximos años serán ajustados a otras búsquedas conforme vaya siendo necesario en función de lo que se vaya descubriendo. Nos lo ha recordado Matt Strassler en «Dumping Data Overboard: The Trigger at an LHC Experiment,» Of Particular Significance, Nov. 4, 2011, y en «The Trigger: Discarding All But the Gold,» Of Particular Significance, Nov. 4, 2011. En las Jornadas de CPAN en Barcelona estuve hablando con un joven doctorando, ya casi doctor pues había depositado la tesis, que trabajó en el ajuste de los triggers de LHCb y me comentó los porcentajes de ancho de banda que dedicaban a cada tipo de análisis (no recuerdo las cifras). La charla fue muy interesante. En su entrada, Matt Strassler describe de forma breve los sistemas de disparo de ATLAS y CMS, los dos grandes experimentos de propósito general del LHC.

El 99% de las colisiones protón-protón en el LHC no producen nada de interés, son «elásticas» (hay que recordar que un protón es una partícula compuesta de quarks que está «hueco» y puede atravesar otro protón casi sin notarlo). El 0,99% de las colisiones restantes son «inelásticas» pero producen unos cuantos hadrones y unos cuantos chorros de baja energía; todo bien conocido, sin ningún interés para un físico de hoy en día. Lo interesante se oculta en el 0,01% restante. Pero lo realmente interesante, la frontera de nuestro conocimiento, son procesos muy raros, extremadamente raros. Por ejemplo, las colisiones que producen un bosón de Higgs son rarísimas, menos de una en cada 100 mil millones, y quizás incluso más raras aún, menos de una en cada billón de colisiones (todavía no se ha descubierto al Higgs así que no lo sabemos con seguridad).

Las colisiones interesantes son muy raras y para poder observarlas hay que lograr producir muchísimas colisiones. Aquí no hay alternativa posible, si algo es tan raro que aparece una vez cada 10 billones de colisiones (10 veces menos que para el Higgs en el mejor caso), la única posibilidad de observarlo es produciendo unos 1000 billones de colisiones al año; he puesto unas 100 veces más para que haya una garantía razonable de que se observen unas decenas de eventos de lo que queremos observar.  Basta una simple división para saber que en este caso necesitamos unos 100 millones de colisiones por segundo. Si los físicos quisieran almacenar los datos de todas y cada una de estas colisiones se necesitaría una memoria en disco mayor que toda la disponible en el mundo entero. ¡Y no hablemos del presupuesto que tendría que tener el LHC!

La única opción práctica es distinguir y separar, en tiempo real, qué colisiones parecen interesantes y deben ser almacenadas en disco para su análisis posterior y cuales no lo son y deben ser descartadas de forma automática. Estas se perderán para siempre. Actualmente, tanto en ATLAS como en CMS se almacenan para su análisis posterior unas 500 colisiones por segundo. ¿Cómo saber qué colisiones almacenar y cuáles descartar? Hay que buscar ciertas «rarezas» en las colisiones que nos indiquen que merece la pena almacenarlas. Este proceso lo realizan los disparadores (triggers) que se ajustan en función de lo que se quiere buscar, es decir, en función de las «rarezas» que caracterizan y distinguen las colisiones que podrían contener lo que estamos buscando, solo esas colisiones serán almacenadas en disco.

Los triggers combinan cierto hardware fijo con cierto software programable que permite ajustar su funcionamiento a las búsquedas que interesen. Pero hay que recordar que los triggers funcionan de forma automática y que si no están programados a la perfección pueden, accidentalmente, descartar alguna colisión muy interesante. La programación de los triggers requiere un compromiso entre los falsos positivos seleccionados y los falsos negativos descartados para siempre. La programación de los triggers depende de los modelos de los físicos teóricos. Las colisiones simuladas por ordenador a partir de cierto modelo teórico permite determinar las «rarezas» que caracterizarán las colisiones de interés y permitirán ajustar los triggers para buscarlas. Si los modelos teóricos utilizados no son apropiados, el funcionamiento de los triggers será decepcionante.

¿Qué características de las colisiones se están buscando actualmente? En líneas generales se buscan colisiones con electrones (o positrones, su antipartícula), muones (o antimuones) y fotones de baja, media y alta energía; también se buscan colisiones con leptones tau (o antileptones), con chorros con quarks bottom (b) y con múltiples chorros de media y alta energía; y finalmente se buscan chorros de muy alta energía. También se buscan colisiones en las que parezca que falta energía (señal de la existencia de neutrinos y/o partículas supersimétricas). Una colisión protón-protón típica (que sea inelástica) produce dos o tres chorros de baja energía, o una pléyade de hadrones de baja energía; estas colisiones no interesan porque la física que las explica es bien conocida y ha sido estudiada con detalle en el pasado.  

El sistema de triggers de los grandes experimentos del LHC, tanto de ATLAS como de CMS y LHCb, es una pieza clave en el «engranaje» de esta máquina colosal. ¿Cuántas colisiones se almacenan en disco? Se estima que unos miles de millones de colisiones al año con unos 10 megabytes de datos por colisión, que en número de DVD de datos totalizan unos 100 000 DVD ¡al año! Todas estas colisiones son analizadas a posteriori mediante una red de computación distribuida (grid computing). La red Worldwide LHC Computing Grid integra miles de ordenadores distribuidos por todo el emundo que almacenan y analizan de forma automática los datos de todas las colisiones seleccionadas por los triggers. La infraestructura Grid desarrollada para esta tarea se extenderá más allá e las fronteras de la física de partículas y será también utilizada en aplicaciones biomédicas y geológicas, por ejemplo. La web nació en el CERN y la grid, en gran parte, también.

Las dos óperas neutrínicas de OPERA, siguiendo a Matt Strassler

Me ha gustado como discute Matt Strassler, autor del blog Of Particular Significance, la diferencia que hay entre lo publicado por OPERA en septiembre (sea OPERA-1) y lo publicado en noviembre (sea OPERA-2). He de confesar que me encanta leer a Strassler, tiene un estilo a la hora de escribir que realmente me gusta, sobre todo cuando explica cosas difíciles sin opinar (sus opiniones me gustan menos y están sesgadas de forma sutil hacia la teoría de cuerdas). Aún así no puedo leer todo lo que escriben todos los blogueros que me gustan (ni todos los artículos técnicos que escriben; lo sé, he prometido leerlo, lo leeré, dame tiempo…). Por ello no había leído su entrada «OPERA: Comparing the Two Versions,» OPS 19 Nov. 2011, hasta que uno de mis lectores habituales, Planck, me la recomendó. Y yo he de recomendártela a tí también. Merece la pena. Permíteme un resumen de su entrada para ir abriendo boca (pero recuerda que lo «bueno» de Strassler es su estilo a la hora de escribir que en mi resumen se pierde completamente).

Los neutrinos producidos en el CERN (Ginebra) recorren unos 730 km de roca hasta llegar al laboratorio de Gran Sasso (Italia), donde son detectados si colisionan con algún átomo del detector. Estas colisiones son muy raras. Strassler estima que solo 1 de cada 1.000.000.000.000.000 neutrinos (uno en mil billones) de los producidos en el CERN son detectados por OPERA (este número es una aproximación de Strassler). En OPERA-2, entre el 22 de octubre y el 6 de noviembre, se han enviado desde el CERN a Gran Sasso unos 40.000.000.000.000.000 (40 mil billones de) neutrinos. Según Strassler son unos 100.000 pulsos cortos de unos 300.000.000.000 (300 mil millones de) neutrinos cada uno. Durante los 16 días que estado en funcionamiento del experimento OPERA-2 se han detectado 35 neutrinos; solo 20 cumplen con los estrictos requisitos de precisión que requiere la medida de su velocidad, por lo que 15 han sido descartados. Strassler destaca que en la mayoría de los pulsos de neutrinos enviados desde el CERN a OPERA no han sido detectado ningún neutrino.

El experimento OPERA-1 medió la velocidad de unos 15.000 neutrinos. ¿Por qué OPERA-1 necesitó tantos neutrinos? Porque su manera de medir la velocidad de los neutrinos es diferente y más complicada que la de OPERA-2. En el experimento OPERA-1 se enviaban pulsos largos de neutrinos con una duración de unos 10.000 nanosegundos pero ello no garantiza que algún neutrino sea detectado en cada pulso. Solo se han detectado 15.000 neutrinos en 15.000 pulsos largos. En la mayoría de dichos pulsos (tras recorrer en 2,4 milisegundos los 730 km de distancia) no se ha detectado nada, absolutamente nada. Los 15.000 neutrinos han sido detectados uno a uno durante los 3 años que ha durado el experimento OPERA-1. Los pocos neutrinos que son detectados son identificados como pertenecientes a un pulso largo, pero su velocidad individual es imposible de medir con una precisión de 60 ns porque la incertidumbre en su lugar de «nacimiento» en el CERN es de 10500 ns.

¿Cómo ha medido OPERA-1 la velocidad de los neutrinos con una precisión de 60 ns? El truco es considerar muchísimos neutrinos (más de 15.000) y estudiar la distribución estadística de sus tiempos de llegada, como ilustra la figura de arriba de M. Strassler (una versión simplifica de la figura original del artículo que ya he publicado en este blog antes). Un ajuste estadístico de esta distribución de neutrinos con la distribución de los protones medida en el CERN (los neutrinos en el CERN no pueden ser detectados) ha permitido determinar que los neutrinos llegan 60 ns antes de tiempo. El ajuste estadístico se basa en ciertos picos que aparecen dentro de la distribución de protones que se parecen a picos que también aparecen en la distribución de neutrinos. Esta medida ha generado cierta polémica pues se basa en la hipótesis de que estos picos no han cambiado durante el trayecto de los neutrinos entre el CERN y Gran Sasso.

En el experimento OPERA-2 se han utilizado pulsos cortos de solo 3 nanosegundos, mucho más cortos que los 60 ns de adelanto medidos, que se han separado unos 524 nanosegundos, mucho más que los 60 ns de adelanto. Con pulsos tan cortos y tan bien separados, cuando se detecta un neutrino se sabe perfectamente qué pulso corto lo generó en el CERN. Como ilustra la figura de Matt Strassler, OPERA-2 ha podido medir la velocidad individual de cada neutrino detectado. Estos neutrinos han llegado entre 40 ns y 90 ns antes de lo esperado, con una media de unos 62 ns. Este resultado está fuera de toda duda. Cada uno de los neutrinos ha llegado antes de tiempo con toda seguridad. Con el experimento OPERA-1 no se podía estar tan seguro, pero ahora la seguridad es absoluta.

El análisis estadístico de los 20 neutrinos detectados en Gran Sasso por OPERA-2 es mucho más fiable que el de OPERA-1, como muestra la figura de arriba de Matt Strassler. ¿Por qué no llegan todos los neutrinos con el mismo retraso? La razón es debida a la incertidumbre experimental en el momento de llegada. ¿Qué conclusiones podemos extraer de la comparación entre OPERA-1 y OPERA-2? Strassler nos las aclara de forma inmejorable.

PRIMERO. Los resultados de OPERA-2 no confirman que OPERA-1 haya medido correctamente la velocidad de los neutrinos. Todas las fuentes de error a la hora de medir las distancias y los tiempos en OPERA-1 siguen estando en las medidas de OPERA-2. Lo que ha confirmado OPERA-2 es que las posibles fuentes de error afectan a cada neutrino por separado y no están relacionadas con la forma de los pulsos de neutrinos que utilizó OPERA-1. La fuente más obvia de error en OPERA-1 ha sido descartada, pero podría haber muchas otras fuentes de error.

SEGUNDO. Que haya un cierto error en el momento de llegada de los neutrinos (de unos 25 ns por arriba y por abajo) no significa que los neutrinos se muevan con velocidades diferentes. El resultado de OPERA-2 es consistente con que todos los neutrinos se propagan a la misma velocidad. Sin embargo, OPERA-2 no demuestra que todos los neutrinos se hayan propagado a la misma velocidad, solo podemos afirmar que OPERA-2 no demuestra que los neutrinos no se propagan a la misma velocidad (os dejo la frase original con sus negritas «OPERA-2 doesn’t prove the neutrinos are all traveling at the same speed, only that OPERA-2′s result does not prove that the neutrinos are not traveling at the same speed»).

TERCERO. Por qué ha costado solo 2 semanas realizar el experimento OPERA-2 mucho más preciso que OPERA-1 que necesitó 3 años. Por qué no se diseñó desde el principio OPERA-2. La razón es sencilla, el objetivo científico de OPERA no era medir la velocidad de los neutrinos muónicos, sino estudiar la oscilación de los neutrinos muónicos en neutrinos tau. La medida de la velocidad era un experimento colateral, de menor importancia (pues de pensaba que sería difícil obtener un resultado tan preciso como el que se ha obtenido). Un experimento de cara a la galería que se convertido en el experimento estrella de la colaboración OPERA. El patito feo se ha convertido en un espléndido cisne blanco.

CUARTO. Por qué no se hizo el experimento OPERA-2 antes de realizar el anuncio de los resultados de OPERA-1 si solo se han necesitado dos semanas. La verdad es que la razón por la que se podido hacer este experimento en solo dos semanas ha sido por el gran revuelo mediático provocado por OPERA-1. Lo normal hubiera sido que este segundo experimento hubiera requerido una petición formal de OPERA al CERN que de ser tramitada por los cauces usuales hubiera requerido varios meses. La petición ha sido tramitada por la vía de urgencia y por eso, incluso para la propio sorpresa de los físicos de OPERA, se ha podido desarrollar OPERA-2 justo en unas pocas semanas (las últimas con protones en el LHC antes de iniciar las colisiones con iones pesados). Además, OPERA se ha aprovechado de unas pruebas que se hicieron para estudiar colisiones protón contra ión, que también han sido adelantadas con la excusa de apoyar a OPERA. Dos pájaros matados de un solo tiro. 

QUINTO. A partir de ahora qué podemos esperar de OPERA. En los próximos seis meses OPERA-2 podrá observar unos cientos de neutrinos mejorando la estadística de su experimento. Ello le permitirá estudiar con detalle la dependencia con la energía y con la velocidad de los neutrinos que se observan. Esta dependencia con la energía es la clave del futuro próximo de los neutrinos superlumínicos de OPERA. Los neutrinos observados en explosiones de supernovas tienen una energía entre 0,01 y 0,04 GeV, y su velocidad aparente es la velocidad de la luz. Los neutrinos de OPERA tienen energías 1000 veces mayores, entre 10 y 40 GeV, y su velocidad aparente es mayor que la velocidad de la luz. Los físicos teóricos necesitan saber cómo depende dicha velocidad con la energía. Si los neutrinos de OPERA no presentaran una dependencia inversa con la energía, todo apunta a que hay un error en el experimento. La figura de arriba muestra las dos posibilidades razonables.

Y SEXTO. Hay muchos detalles técnicos complicados en el experimento OPERA que deberán ser comprobados con sumo cuidado, en especial en el contexto del experimento OPERA-2. Hay mucho trabajo pendiente para los físicos de OPERA durante los próximos meses y seguiremos informando de todo lo que se vaya publicando. La verificación independiente del resultado de OPERA mediante MINOS (en EE.UU.) no se publicará hasta el verano próximo (y el error experimental será alto); una verficación fiable requerirá algo más de tiempo (entre uno y dos años). La verificación en T2K (en Japón) será aún más complicada y quizás no llegue a ser muy fiable en los próximos dos años. El experimento OPERA, cual conejito de Duracell, dará «cola» por muchos años.

Si te gastaras 208 millones de dólares en un superordenador, ¿cuánto te gastarías en el edificio que lo albergará?

La Universidad de Illinois en Urbana-Champaign (EE.UU.) se gastó 100 millones de dólares en el edificio que tenía que albergar un nuevo superordenador llamado Blue Waters que iba a fabricar IBM por unos 208 millones de dólares capaz de superar un petaflop. Pero IBM se ha retirado del proyecto y el proyecto ha peligrado hasta que Cray Inc. ha recogido el guante. El nuevo superordenador financiado por la National Science Foundation (NSF) iba a estar formado por unos 40 mil procesadores POWER7 de 8 núcleos (por comparación Jeopardy! tiene 2880 POWER7). IBM se retiró del proyecto porque se consideró incapaz de cumplir con los requisitos tecnológicos de la red de datos que comunicará a dichos procesadores entre sí. IBM estima que el coste de la red sería mayor del estimado inicialmente. Cray participó en el concurso inicial para la concesión de la máquina, pero perdió ante IBM (su propuesta inicial utilizaba procesadores AMD Opteron 6200 y procesadores gráficos NVIDIA Tesla GPU). ¿Logrará Cray fabricar su máquina con el presupuesto inicial? Nos lo ha contado Robert F. Service, «Supercomputing: Skies Clear for Troubled Machine Being Built at Illinois Center,» Science 334: 1044, 25 November 2011. Más información en «NCSA, Cray partner on sustained-petascale Blue Waters supercomputer,» NCSA Media, Nov. 14th 2011.

Y yo me pregunto, ¿por qué se dieron tanta prisa en gastarse 100 millones de dólares en construir el edificio para albergar el ordenador?

Y yo me pregunto, ¿qué pasará con el edificio si al final resulta imposible construir este ordenador con solo 208 millones de dólares?

Atención, pregunta: Si fueras revisor de JHEP, ¿aceptarías el artículo de OPERA sobre los neutrinos superlumínicos?

El 17 de noviembre la colaboración OPERA ha enviado su famoso artículo del 23 de septiembre (con ciertos cambios) a la revista internacional Journal of High Energy Physics (JHEP), una revista italiana de Springer con un índice de impacto de 6,05 (ISI JCR 2010), que la coloca en el cuarto puesto en la categoría de Física de Partículas y Campos del ISI WOS, por delante de Physical Review D (PRD) y Nuclear Physics B; puedes consultar el artículo en Inspire y en Arxiv. Dada la polémica alrededor de este artículo y del procedimiento experimental utilizado, si fueras revisor de dicho artículo, ¿lo aceptarías como está? ¿Exigirías que verificaran el protocolo experimental? La respuesta la sabremos dentro de unas semanas, ya que un artículo «tan importante» será aceptado o rechazado con rapidez. Más información en CERN News, «OPERA experiment reports anomaly in flight time of neutrinos from CERN to Gran Sasso,» UPDATE 18 November 2011, y en Eugenie Samuel Reich, «Neutrino experiment replicates faster-than-light finding. Latest data show the subatomic particles continue to break the speed limit,» Nature News, 18 Nov. 2011.

La cuestión parece baladí, pues muchos dirán que la revista aceptará el artículo sin dilación, porque dicho artículo será muy citado en los próximos meses, incluso años. El artículo es una ganga para cualquier editor. Pero recuerda, el nuevo artículo elimina un posible error sistemático en la primera medida, pero puede haber otros. Además, hay algunos defectos de forma en el artículo que todos los revisores que lo reciban y evaluén deberían sopesar. Permíteme que enumere algunos (quizás seas uno de los revisores), por si aún no los conoces.

1) En la primera versión del artículo se analizaron 16 111 neutrinos detectados en OPERA entre 2009 y 2011. Pero en la segunda versión solo se analizan 15 223. ¿Qué ha pasado con los otros 888 neutrinos detectados? ¿Por qué han sido eliminados del nuevo análisis? El nuevo artículo técnico no dice nada al respecto. Si yo fuera revisor exigiría que se incluyera un párrafo explicando por qué han sido eliminados y qué criterio ha sido utilizado para ello. Las figuras 11 y 12 de la primera versión y sus correspondientes 13 y 14 de la segunda no coinciden exactamente (las he superpuesto en un programa de dibujo y la diferencia en los datos es pequeña pero existe).

2) En la primera versión del artículo se afirma que los neutrinos llegaron 60,7 ± 6,9 (stat.) ns antes de lo esperado. Pero en la nueva versión se afirma que llegaron 57,8 ± 7,8 (stat.) ns; no hay ningún comentario explícito sobre el porqué de esta diferencia. Yo creo que es debida a que en el nuevo artículo se ha tenido en cuenta el efecto de la rotación de la Tierra (2,2 ns); pero todavía quedan 0,7 ns por explicar que no veo bien de dónde salen (podría ser debido a que se han eliminado 888 neutrinos del análisis). En mi opinión los revisores deberían exigir una explicación detallada.

3) La nueva figura del artículo (aquí en formato original) muestra que los neutrinos siguen una distribución estadística uniforme con una anchura de unos 50 ns, ¿por qué este valor? El artículo aclara que «the jitter of ± 25 ns [is] related to the tagging of the external GPS signal by the OPERA master clock.» El «reloj» que «marca» los tiempos tiene una resolución de 50 nanosegundos (o una frecuencia de 20 MHz). Este detalle, que puede parecer poco importante, fue omitido en la primera versión del artículo y explica el porqué agruparon sus datos (binning) en bloques de 50 ns (y por qué no pueden agruparlos en un intervalo más pequeño). En mi opinión los revisores deberían exigir que se discutiera en detalle este punto (quizás en un apéndice al artículo). ¿Por qué afirman que el error es menor de 10 ns si el «jitter» es de 25 ns?

De hecho, varios blogueros creen que en esos 20 MHz se «esconde» el error sistemático «sutil» del experimento. Por ejemplo, Ethan Siegel, «The New OPERA faster-than-light Neutrino Test: Results!,» Starts With a Bang!, Nov. 18, 2011; Sascha Vongehr, «OPERA Confirms Faster Than Light Neutrinos And Indicates Ultra Superluminal Small Initial Jumps,» Alpha Meme, Nov. 18th 2011; Tommaso Dorigo, «A Few Additional Technicalities On The Opera Measurement,» A Quantum Diaries Survivor, Nov. 18th 2011; y otros.

Más aún, Tommaso Dorigo se pregunta qué pasaría si hubiera un error de «un solo tick» en la cuenta de reloj de 50 MHz (por ejemplo, por culpa de un error en el software de procesado). En dicho caso la medida del tiempo de llegada podría ser 8 ± 10 ns (compatible con que los neutrinos viajan a la velocidad de la luz). Todo revisor debería exigir una copia de dicho software (sólo de la rutina relevante) así como un análisis detallado que garantice que este error no se ha cometido. Una aclaración al respecto en el artículo también debería ser exigida.

4) Utilizando pulsos largos de protones (o de neutrinos) se ha medido una diferencia de tiempos de 57,8 ± 7,8 (stat.) ns, pero utilizando pulsos cortos se ha obtenido un valor de 62,1 ± 3,7 ns. El artículo no discute en detalle el porqué con más neutrinos (15 223 en lugar de 20) se ha obenido un error estadístico más grande; obviamente la razón es que el análisis estadístico es diferente, pero si el resultado más fiable es este último, por qué no aparece en el resumen (abstract) del artículo. Además, en el artículo no se indica el error sistemático en la nueva medida utilizando pulsos cortos. ¿Por qué no? Los revisores deberían exigir un comentario al respecto y una estimación.

4) Como los experimentos (tanto en CERN como en Gran Sasso) son subterráneos, la sincronización mediante GPS requiere el uso de fibras ópticas muy bien calibradas que conecten la superficie de la Tierra con los laboratorios. En el CERN se utilizando unos 2 km de fibra óptica (en una configuración de doble fibra, una de ida y otra de vuelta) que están monitorizadas de forma continua; los efectos de la temperatura sobre estas fibras introducen un error de unos 0,4 ns en la medida de tiempos en el CERN. Sin embargo, en Gran Sasso se utiliza una fibra óptica doble con un total de 8,3 km; esta fibra no es monitorizada de forma continua. En julio de 2006 se midió que su error es de 1 ns; valor que se confirmó en abril de 2008; OPERA ha prometido volverlo a verificar en los próximos meses. Un revisor podría (yo diría incluso que debería) exigir que esta nueva verificación sea incluida en el artículo que se publique en la revista. Aunque haya que esperar un par de meses, esta verificación del buen estado de la fibra óptica doble en Gran Sasso es necesaria y debería ser discutida en un párrafo específico en el artículo.

De hecho, el centro de Italia, donde se encuentra Gran Sasso, es una zona de alto riesgo sísmico, mientras que Ginebra es de bajo riesgo, lo que puede someter a los 8 km de fibra óptica en Gran Sasso a tensiones mecánicas mayores que las que sufren los 2 km de fibra en el CERN. Aunque mucha gente opina que esta fuente de error sistemático es despreciable y la verificación que realizará OPERA será todo un éxito, en mi opinión, la publicación del artículo en una revista internacional (lo que implica un retraso de varios meses) debería incluir una confirmación/verificación del buen estado de estas fibras ópticas.

Hay más cosas, pero por ahora lo dejo aquí.

Rankings de Universidades Españolas

Twitter tiene cosas buenas, a veces. Gracias a @EDocet, que ha defendido con sabiduría su alma mater granatensis («cuando te MATRIculas adoptas a tu universidad como madre nutricia o alma MÁTER»), me he enterado que existe una web con los «Rankings ISI de las Universidades Españolas según Campos y Disciplinas Científicas (2ª Ed. 2011). Se trata de un ranking de las universidades españolas públicas y privadas basado en la investigación publicada en las revistas internacionales de mayor impacto y visibilidad.» Obviamente, he buscado la Universidad de Málaga, que no queda bien parada. ¡Busca tu universidad!

La tabla que abre esta entrada está extraída del «Informe resumen de los Rankings ISI 2011.» El número de artículos publicados por españoles (NDOC) se ha duplicado entre 2001 y 2010. El número de artículos publicados en revistas del primer cuartil (Nº 1Q) se ha multiplicado por 2,25 y ya supera el 51% de todos los artículos. El número de artículos publicados en revistas situadas en los tres primeros puestos  (Nº T3), el top del top, tampoco está mal y se mantiene alrededor del 10%.

Comparar mi universidad, la Universidad de Málaga, con las grandes universidades españolas nos deja en clara evidencia. Pero ahora que estamos en campaña electoral para el rectorado creo que es bueno que sepamos dónde estamos y a qué aspiramos. Nuestro mejor puesto, #8 en TIC (Tecnologías de la Información y la Comunicación), seguido de un #15 en PSI (Psicología y Educación). Un honroso #20 en MAT (Matemáticas) me recuerda lo que me dijo hace poco un amigo que le había dicho un catedrático de matemáticas de mi universidad (también amigo pero que no se atreve a realizar estas afirmaciones delante mía): «somos una potencia a nivel internacional en matemáticas.» Siendo los #20 a nivel nacional…

Por cierto, yo conocía el Ranking Web of World Universities, aquí tenéis las universidades españolas (la UMA es la 414 de 12000 en el año 2011). Por supuesto, también conocía el THE World University Rankings 2010-11, que pone como mejor universidad española, puesto #142, a la Univ. Barcelona; este ranking es muy discutido por algunos porque pone como segunda mejor universidad española, en el puesto #155, a la Univ. Pompeu Fabra. También hay otros rankings pero, ¿para qué sirven los rankings? Ningún candidato a rector en mi universidad ha hablado de rankings (que yo haya leído o escuchado).

La crítica de John Ellis al artículo de David Toms sobre los efectos de la gravedad en la electrodinámica cuántica

¿Afecta la gravedad clásica de Einstein a la electrodinámica cuántica a alta energía? Según David J. Toms, en distancias ultracortas la carga eléctrica se anula debido a efectos gravitatorios (la QED presenta libertad asintótica). Una idea revolucionaria que Toms publicó en Nature en noviembre de 2010. La idea recibió muchas críticas. Hoy, John Ellis y Nick E. Mavromatos presentan en Nature la última y más rotunda. Según estos autores las ideas de Toms violan el principio de equivalencia de Einstein, por tanto son erróneas. Por supuesto, Toms contesta que Ellis y Mavromatos no han entendido su artículo y que su crítica no es aplicable. Más claro agua. ¿Qué pasará en el futuro con las ideas de Toms, basadas en ideas previas Robinson y Wilczek? En mi opinión, todo profesor de física teórica y teoría cuántica de campos debería recomendar a sus alumnos la lectura de estos artículos, que tienen bastante materia para discutir en clase. Pues la electrodinámica cuántica (QED) también es materia que ha de ser discutida aunque prediga resultados con más de 11 dígitos de precisión. La crítica de John Ellis y Nick E. Mavromatos, «Does gravity correct gauge couplings?,» Nature 479: E5–E6, 24 November 2011, la respuesta de D. J. Toms, «Toms replies,» Nature 479: E6, 24 November 2011, y por supuesto David J. Toms, «Quantum gravitational contributions to quantum electrodynamics,» Nature 468: 56–59, 04 November 2010.

Os recuerdo lo que ya contamos: «El sueño de Einstein es el sueño de la física teórica moderna: unificar la gravedad con las otras interacciones fundamentales de la naturaleza. El comportamiento de la gravedad a distancias ultracortas, en el rango entre 10-32 m y 10-35 m, influye o afecta a las constantes de acoplamiento incluso aunque no se conoce la teoría cuántica correcta de la gravedad, ya que dicha teoría solo es necesaria a distancias menores de 10-35 m. El nuevo análisis indica que el efecto de la gravedad sobre las otras interacciones fundamentales podría ser observado a distancias entre 10-33 m y 10-35m; en concreto se observaría  un cambio en el fenómeno llamado libertad asintótica de las constantes de acoplamiento.»  Leer más en este blog en «El efecto de la gravedad (clásica) sobre la libertad asintótica en las teorías gauge

El experimento OPERA y los pulsos cortos de neutrinos superlumínicos

La figura no deja lugar a dudas. Los 20 neutrinos generados en el CERN que han sido detectados en Gran Sasso por el experimento OPERA han llegado antes de tiempo, una media de 62,10 ± 3,7 ns antes de tiempo (la desviación estándar del error es de 16,38 ns). OPERA ha confirmado que los neutrinos viajan más rápido que la luz (el resultado publicado en septiembre indicaba una media de 57,8 ± 7,8 ns). El experimento se ha repetido entre el 22 de octubre y el 6 de noviembre utilizando pulsos de protones  muy cortos de solo unos pocos nanosegundos. Con pulsos tan cortos los neutrinos se detectan uno a uno en Gran Sasso, con lo que OPERA afirma haber determinado la velocidad de cada uno de los neutrinos por separado. Para los interesados en los detalles, en lugar de enviar pulsos largos (o trenes) de protones de 10 500 ns contra un blanco de grafito (carbono) se han enviado 35 paquetes de 4 pulsos cortos de unos 3 ns separados entre sí por 524 ns (parece poco, pero cada paquete tiene un total de unos 1,1 billones de protones). De los 140 pulsos cortos que se han enviado durante 16 días se han detectado solo 20 neutrinos (en realidad han sido 35, pero 15 de ellos se han descartado por diferentes razones). La figura de abajo muestra los trenes de 4 pulsos cortos y la forma de cada uno de estos pulsos de protones. El nuevo análisis se ha añadido como nueva sección (número 9, páginas 26-25) al artículo de OPERA que ya apareció como borrador (nuevo artículo en ArXiv; antiguo artículo en ArXiv).  

Por curiosidad (utilizando Excel) he comparado los autores del nuevo artículo en ArXiv con los del antiguo artículo en ArXiv; se apuntan 9 nuevos firmantes: A. Anokhina, R. Brugnera, B. Carlus, D. Golubkov, C. Hagner, E. Kiritsis, F. Nitti, F. Riguzzi, y L. Stanco (destaca la alemana C. Hagner); pero abandonan 3 firmantes: D. Naumov, A. Schembri, y P. Strolin (por cierto, en el artículo antiguo aparece dos veces F. Cavanna; si son dos autores diferentes, uno de ellos ha abandonado). Yo había leído que eran 15 los «nuevos» autores, pero las cuentas no salen (o no me salen).

¿Qué opino del nuevo artículo? Obviamente solo puedo opinar que la nueva medida de la velocidad de los neutrinos parece indicar que hay un posible error en la sincronización y/o en la medida de los tiempos.

Por cierto, se espera para el 24 de noviembre un artículo de L. Bruno, I. Efthymiopoulos, «CNGS target – explained,» OPERA public note 138 (2011). Además, los interesados en posibles efectos relativistas en la medida de OPERA conviene que salgan de dudas leyendo a Elias Kiritsis, Fransesco Nitti, «Special and General Relativity corrections to the OPERA neutrino velocity measurement,» OPERA public note 136 (2011). Los que quieran conocer detalles de la medida de la distancia entre el punto de salida de los protones y el punto de llegada de los neutrinos (730 534,61 ± 0,20 metros) pueden consultar Gabriele Colosimo et al., «Determination of the CNGS global geodesy,» OPERA public note 132 (2011).

Recomiendo la lectura de la noticia «“Hemos eliminado la principal crítica”, dicen los científicos de OPERA,» CPAN News, 22 nov. 2011. «Pasquale Migliozzi, portavoz adjunto de OPERA, ofreció una conferencia en el Instituto de Física Corpuscular (IFIC), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València, donde explicó los nuevos resultados hechos públicos el 18 de noviembre. Los científicos de OPERA han dispuesto de haces de partículas más cortos y más espaciados en el tiempo (paquetes de partículas de 3 nanosegundos de duración separados por más de 500 nanosegundos) que en las mediciones anteriores, lo que según el físico italiano, ha permitido al experimento ganar en precisión. Según Migliozzi, tras los nuevos resultados obtenidos por OPERA, “hemos eliminado la principal crítica” que se le ha hecho al experimento. Sin embargo, hay otras fuentes de error que la colaboración quiere mejorar en el próximo año. Una de ellas es usar un sistema de sincronización del sistema independiente al GPS, aunque “pensamos que el error no está en el GPS.” Otra de las modificaciones importantes que quiere hacer OPERA es mejorar el conocimiento de la distribución de los protones que producen los neutrinos en el CERN. Esto se pretende hacer mediante un detector cercano que mida de la distribución de muones, otro tipo de partícula que se produce a la vez que los neutrinos.

Richard Gran, investigador de la Universidad de Minnesota-Duluth en MINOS, explicó en una conferencia impartida la semana pasada en el IFIC que “MINOS obtuvo un resultado similar a OPERA en 2007.” Sus resultados eran mayores (detectaban neutrinos 126 nanosegundos antes de lo debido por los 60 nanosegundos reportados por OPERA), pero también sus porcentajes de error, por lo que los científicos de MINOS no se centraron en este efecto. Ahora trabajan para reducir algunas fuentes de error sistemático en el experimento, con lo que el plazo “de seis meses a un año” esperan tener nuevos resultados sobre la velocidad de vuelo de los neutrinos. Ahora tienen cuatro veces más datos que en 2007 y los científicos de MINOS esperan poder mejorar cuestiones relativas a la electrónica del experimento, lo que, unido a la utilización de un detector cercano que funcione más rápido, aumentará la precisión hasta alcanzar “prácticamente la misma resolución que OPERA”. Así, para mediados del próximo año podrían coincidir nuevas medidas de OPERA, MINOS y T2K que ayuden a aclarar más si realmente los neutrinos son más rápidos que la luz o Einstein sigue en lo cierto y nada puede viajar más rápido.»

Por cierto, ¿tienen los físicos «miedo» a aceptar un resultado como el de OPERA? Nos lo cuenta John Rennie, «Foot-dragging on faster-than-light particles?,» SmartPlanet, November 22, 2011.

Conferencia Amazings en la Universidad de Sevilla: Las Matemáticas de la Vida (gracias a la Química)

Como anuncia este cartel, estaré en Sevilla el próximo viernes 25 de noviembre a las 17:00 horas en el Aula Magna de la Facultad de Química. Invitado por Tito (Eliatron) impartiré una conferencia titulada «Las matemáticas de la vida (gracias a la química)La conferencia será retransmitida en directo vía streaming en Amazings.es y luego estará disponible en diferido. Más información en Eliatron, «Conferencias Amazings-Sevilla 2011/2012,» Amazings, 28/10/2011; ver también los carteles y toda la información acerca del ciclo de conferencias en la web Amatiqui.

«Esta charla se enmarca dentro del proyecto de innovación docente La divulgación como herramienta de aprendizaje, que los profesores de la asignatura Matemáticas del Grado en Química de la Universidad de Sevilla (Tito entre ellos) están llevando a cabo. Este proyecto está financiado gracias al I Plan Propio de Docencia (en su edición 2011/2012) de la Universidad de Sevilla. Y se trata de la segunda conferencia de este ciclo de divulgación, tras la charla «El universo matemático de los cuasicristales» que el pasado 11 de noviembre dio César Tomé, autor del blog Experientia Docet y también colaborador de Amazings.

Aunque la charla esté especialmente enfocada a los alumnos de nuestra asignatura, creemos que por su marcado carácter interdisciplinar y divulgativo y dado que en el año 2011 celebramos el Año Internacional de la Química, la asistencia será abierta a todo el mundo. Así, si ese viernes estás en Sevilla y quieres oír hablar de Química, de Matemáticas y de cómo ambas intervienen en los procesos claves para la vida, ya sabes, te esperamos en el Aula Magna de la Facultad de Química.»

En cuanto a la calidad del streaming quiero advertir algunas cosas. Hemos intentado por todos los medios que se encargara la propia universidad, a través del servicio TV US, pero nos pidieron demasiado dinero por la emisión, ante lo cual nos negamos rotundamente. Por ello, el streaming los realizarán @Raven_Neo y @maculamorbida (como venía siendo habitual) y que lo harán de forma desinteresada. Así que tenedlo en cuenta, si la calidad del streaming (en particular del sonido) no es todo lo buena que podría ser, ya que lo hacen con medios propios.»