Si te gastaras 208 millones de dólares en un superordenador, ¿cuánto te gastarías en el edificio que lo albergará?

La Universidad de Illinois en Urbana-Champaign (EE.UU.) se gastó 100 millones de dólares en el edificio que tenía que albergar un nuevo superordenador llamado Blue Waters que iba a fabricar IBM por unos 208 millones de dólares capaz de superar un petaflop. Pero IBM se ha retirado del proyecto y el proyecto ha peligrado hasta que Cray Inc. ha recogido el guante. El nuevo superordenador financiado por la National Science Foundation (NSF) iba a estar formado por unos 40 mil procesadores POWER7 de 8 núcleos (por comparación Jeopardy! tiene 2880 POWER7). IBM se retiró del proyecto porque se consideró incapaz de cumplir con los requisitos tecnológicos de la red de datos que comunicará a dichos procesadores entre sí. IBM estima que el coste de la red sería mayor del estimado inicialmente. Cray participó en el concurso inicial para la concesión de la máquina, pero perdió ante IBM (su propuesta inicial utilizaba procesadores AMD Opteron 6200 y procesadores gráficos NVIDIA Tesla GPU). ¿Logrará Cray fabricar su máquina con el presupuesto inicial? Nos lo ha contado Robert F. Service, “Supercomputing: Skies Clear for Troubled Machine Being Built at Illinois Center,” Science 334: 1044, 25 November 2011. Más información en “NCSA, Cray partner on sustained-petascale Blue Waters supercomputer,” NCSA Media, Nov. 14th 2011.

Y yo me pregunto, ¿por qué se dieron tanta prisa en gastarse 100 millones de dólares en construir el edificio para albergar el ordenador?

Y yo me pregunto, ¿qué pasará con el edificio si al final resulta imposible construir este ordenador con solo 208 millones de dólares?

Atención, pregunta: Si fueras revisor de JHEP, ¿aceptarías el artículo de OPERA sobre los neutrinos superlumínicos?

El 17 de noviembre la colaboración OPERA ha enviado su famoso artículo del 23 de septiembre (con ciertos cambios) a la revista internacional Journal of High Energy Physics (JHEP), una revista italiana de Springer con un índice de impacto de 6,05 (ISI JCR 2010), que la coloca en el cuarto puesto en la categoría de Física de Partículas y Campos del ISI WOS, por delante de Physical Review D (PRD) y Nuclear Physics B; puedes consultar el artículo en Inspire y en Arxiv. Dada la polémica alrededor de este artículo y del procedimiento experimental utilizado, si fueras revisor de dicho artículo, ¿lo aceptarías como está? ¿Exigirías que verificaran el protocolo experimental? La respuesta la sabremos dentro de unas semanas, ya que un artículo “tan importante” será aceptado o rechazado con rapidez. Más información en CERN News, “OPERA experiment reports anomaly in flight time of neutrinos from CERN to Gran Sasso,” UPDATE 18 November 2011, y en Eugenie Samuel Reich, “Neutrino experiment replicates faster-than-light finding. Latest data show the subatomic particles continue to break the speed limit,” Nature News, 18 Nov. 2011.

La cuestión parece baladí, pues muchos dirán que la revista aceptará el artículo sin dilación, porque dicho artículo será muy citado en los próximos meses, incluso años. El artículo es una ganga para cualquier editor. Pero recuerda, el nuevo artículo elimina un posible error sistemático en la primera medida, pero puede haber otros. Además, hay algunos defectos de forma en el artículo que todos los revisores que lo reciban y evaluén deberían sopesar. Permíteme que enumere algunos (quizás seas uno de los revisores), por si aún no los conoces.

1) En la primera versión del artículo se analizaron 16 111 neutrinos detectados en OPERA entre 2009 y 2011. Pero en la segunda versión solo se analizan 15 223. ¿Qué ha pasado con los otros 888 neutrinos detectados? ¿Por qué han sido eliminados del nuevo análisis? El nuevo artículo técnico no dice nada al respecto. Si yo fuera revisor exigiría que se incluyera un párrafo explicando por qué han sido eliminados y qué criterio ha sido utilizado para ello. Las figuras 11 y 12 de la primera versión y sus correspondientes 13 y 14 de la segunda no coinciden exactamente (las he superpuesto en un programa de dibujo y la diferencia en los datos es pequeña pero existe).

2) En la primera versión del artículo se afirma que los neutrinos llegaron 60,7 ± 6,9 (stat.) ns antes de lo esperado. Pero en la nueva versión se afirma que llegaron 57,8 ± 7,8 (stat.) ns; no hay ningún comentario explícito sobre el porqué de esta diferencia. Yo creo que es debida a que en el nuevo artículo se ha tenido en cuenta el efecto de la rotación de la Tierra (2,2 ns); pero todavía quedan 0,7 ns por explicar que no veo bien de dónde salen (podría ser debido a que se han eliminado 888 neutrinos del análisis). En mi opinión los revisores deberían exigir una explicación detallada.

3) La nueva figura del artículo (aquí en formato original) muestra que los neutrinos siguen una distribución estadística uniforme con una anchura de unos 50 ns, ¿por qué este valor? El artículo aclara que “the jitter of ± 25 ns [is] related to the tagging of the external GPS signal by the OPERA master clock.” El “reloj” que “marca” los tiempos tiene una resolución de 50 nanosegundos (o una frecuencia de 20 MHz). Este detalle, que puede parecer poco importante, fue omitido en la primera versión del artículo y explica el porqué agruparon sus datos (binning) en bloques de 50 ns (y por qué no pueden agruparlos en un intervalo más pequeño). En mi opinión los revisores deberían exigir que se discutiera en detalle este punto (quizás en un apéndice al artículo). ¿Por qué afirman que el error es menor de 10 ns si el “jitter” es de 25 ns?

De hecho, varios blogueros creen que en esos 20 MHz se “esconde” el error sistemático “sutil” del experimento. Por ejemplo, Ethan Siegel, “The New OPERA faster-than-light Neutrino Test: Results!,” Starts With a Bang!, Nov. 18, 2011; Sascha Vongehr, “OPERA Confirms Faster Than Light Neutrinos And Indicates Ultra Superluminal Small Initial Jumps,” Alpha Meme, Nov. 18th 2011; Tommaso Dorigo, “A Few Additional Technicalities On The Opera Measurement,” A Quantum Diaries Survivor, Nov. 18th 2011; y otros.

Más aún, Tommaso Dorigo se pregunta qué pasaría si hubiera un error de “un solo tick” en la cuenta de reloj de 50 MHz (por ejemplo, por culpa de un error en el software de procesado). En dicho caso la medida del tiempo de llegada podría ser 8 ± 10 ns (compatible con que los neutrinos viajan a la velocidad de la luz). Todo revisor debería exigir una copia de dicho software (sólo de la rutina relevante) así como un análisis detallado que garantice que este error no se ha cometido. Una aclaración al respecto en el artículo también debería ser exigida.

4) Utilizando pulsos largos de protones (o de neutrinos) se ha medido una diferencia de tiempos de 57,8 ± 7,8 (stat.) ns, pero utilizando pulsos cortos se ha obtenido un valor de 62,1 ± 3,7 ns. El artículo no discute en detalle el porqué con más neutrinos (15 223 en lugar de 20) se ha obenido un error estadístico más grande; obviamente la razón es que el análisis estadístico es diferente, pero si el resultado más fiable es este último, por qué no aparece en el resumen (abstract) del artículo. Además, en el artículo no se indica el error sistemático en la nueva medida utilizando pulsos cortos. ¿Por qué no? Los revisores deberían exigir un comentario al respecto y una estimación.

4) Como los experimentos (tanto en CERN como en Gran Sasso) son subterráneos, la sincronización mediante GPS requiere el uso de fibras ópticas muy bien calibradas que conecten la superficie de la Tierra con los laboratorios. En el CERN se utilizando unos 2 km de fibra óptica (en una configuración de doble fibra, una de ida y otra de vuelta) que están monitorizadas de forma continua; los efectos de la temperatura sobre estas fibras introducen un error de unos 0,4 ns en la medida de tiempos en el CERN. Sin embargo, en Gran Sasso se utiliza una fibra óptica doble con un total de 8,3 km; esta fibra no es monitorizada de forma continua. En julio de 2006 se midió que su error es de 1 ns; valor que se confirmó en abril de 2008; OPERA ha prometido volverlo a verificar en los próximos meses. Un revisor podría (yo diría incluso que debería) exigir que esta nueva verificación sea incluida en el artículo que se publique en la revista. Aunque haya que esperar un par de meses, esta verificación del buen estado de la fibra óptica doble en Gran Sasso es necesaria y debería ser discutida en un párrafo específico en el artículo.

De hecho, el centro de Italia, donde se encuentra Gran Sasso, es una zona de alto riesgo sísmico, mientras que Ginebra es de bajo riesgo, lo que puede someter a los 8 km de fibra óptica en Gran Sasso a tensiones mecánicas mayores que las que sufren los 2 km de fibra en el CERN. Aunque mucha gente opina que esta fuente de error sistemático es despreciable y la verificación que realizará OPERA será todo un éxito, en mi opinión, la publicación del artículo en una revista internacional (lo que implica un retraso de varios meses) debería incluir una confirmación/verificación del buen estado de estas fibras ópticas.

Hay más cosas, pero por ahora lo dejo aquí.

Rankings de Universidades Españolas

Twitter tiene cosas buenas, a veces. Gracias a @EDocet, que ha defendido con sabiduría su alma mater granatensis (“cuando te MATRIculas adoptas a tu universidad como madre nutricia o alma MÁTER”), me he enterado que existe una web con los “Rankings ISI de las Universidades Españolas según Campos y Disciplinas Científicas (2ª Ed. 2011). Se trata de un ranking de las universidades españolas públicas y privadas basado en la investigación publicada en las revistas internacionales de mayor impacto y visibilidad.” Obviamente, he buscado la Universidad de Málaga, que no queda bien parada. ¡Busca tu universidad!

La tabla que abre esta entrada está extraída del “Informe resumen de los Rankings ISI 2011.” El número de artículos publicados por españoles (NDOC) se ha duplicado entre 2001 y 2010. El número de artículos publicados en revistas del primer cuartil (Nº 1Q) se ha multiplicado por 2,25 y ya supera el 51% de todos los artículos. El número de artículos publicados en revistas situadas en los tres primeros puestos  (Nº T3), el top del top, tampoco está mal y se mantiene alrededor del 10%.

Comparar mi universidad, la Universidad de Málaga, con las grandes universidades españolas nos deja en clara evidencia. Pero ahora que estamos en campaña electoral para el rectorado creo que es bueno que sepamos dónde estamos y a qué aspiramos. Nuestro mejor puesto, #8 en TIC (Tecnologías de la Información y la Comunicación), seguido de un #15 en PSI (Psicología y Educación). Un honroso #20 en MAT (Matemáticas) me recuerda lo que me dijo hace poco un amigo que le había dicho un catedrático de matemáticas de mi universidad (también amigo pero que no se atreve a realizar estas afirmaciones delante mía): “somos una potencia a nivel internacional en matemáticas.” Siendo los #20 a nivel nacional…

Por cierto, yo conocía el Ranking Web of World Universities, aquí tenéis las universidades españolas (la UMA es la 414 de 12000 en el año 2011). Por supuesto, también conocía el THE World University Rankings 2010-11, que pone como mejor universidad española, puesto #142, a la Univ. Barcelona; este ranking es muy discutido por algunos porque pone como segunda mejor universidad española, en el puesto #155, a la Univ. Pompeu Fabra. También hay otros rankings pero, ¿para qué sirven los rankings? Ningún candidato a rector en mi universidad ha hablado de rankings (que yo haya leído o escuchado).