La correlación entre el índice h y el número de citas

Dibujo20130407 relation between h-index and number of citations and publications

La bibliometría está repleta de conjeturas verificadas sólo con pequeños conjuntos de datos. Tras analizar las publicaciones de 35.136 investigadores se confirma la fuerte correlación entre el índice h y el número total de citas recibidas C, siguiendo la ley de potencias h ~ C0,42, predicha por el propio Hirsch, inventor del índice h, que la verificó con un pequeño conjunto de datos. También se correlaciona con el número de publicaciones N, aunque con menor significación. La correlación entre estos tres índices bibliométricos es h ~ C0,41 N0,18. Los autores del nuevo estudio han partido de las citas de los artículos de 89.786 científicos con “profile” en Google Scholar (datos recogidos entre el 29 de junio al 4 de julio de 2012), asociados a 67.648 palabras clave diferentes; entre todos ellos han seleccionado los autores que tienen al menos 20 artículos y una carrera con más de 5 años de duración (reduciendo el número a 35.136 científicos). Esta validación a gran escala ha sido desarrollada por Filippo Radicchi, Claudio Castellano, “Analysis of bibliometric indicators for individual scholars in a large data set,” arXiv:1304.1267, 04 Apr 2013. Los aficionados a la bibliometría dispuestos a realizar otros análisis sobre los mismos datos pueden descargar dichos datos en esta página web de los autores. 

Sigue leyendo

¿Corrompe el factor de impacto a los jóvenes científicos?

Dibujo20130328 high impact paper vs low impact paper - cartoon

Hoy en día, un joven científico es evaluado en función del factor impacto de las revistas en las que publica y del número de citas de sus propios artículos. La calidad de su producción científica no se mide de ninguna otra forma. Por ello, muchos jóvenes científicos toman decisiones clave en su carrera académica en función del factor de impacto; decisiones tan importantes como en qué tema trabajar, en qué revista publicar y qué puestos académicos solicitar. La dependencia excesiva en el factor de impacto es perniciosa para los jóvenes, que son corrompidos por algo ajeno a la producción científica de calidad. Nos lo contaron Eve Marder, Helmut Kettenmann, Sten Grillner, “Impacting our young,” PNAS 107: 21233, Dec. 14, 2010.

Todo el mundo sabe, pero muchos olvidan, que el factor de impacto se inventó para ayudar a los bibliotecarios a decidir a qué revistas suscribirse. El factor de impacto da una idea aproximada de la influencia que tiene una revista científica en su campo. Utilizarlo para evaluar un individuo, un departamento, o incluso una institución es un abuso (como está demostrado en múltiples estudios). Como pasa con muchos asuntos pseudocientíficos, todo el mundo recuerda cuando funciona bien, pero se olvida muy fácil cuando falla de forma garrafal (y lo hace más a menudo de lo que a muchos les gustaría). Usarlo para evaluar a los científicos (jóvenes) no tiene ningún sentido, más allá del ahorro en costes (pues la evaluación la puede hacer una máquina en lugar de un par). 

La actividad científica se entronca en la creación y la difusión de nuevos conocimientos. La revisión por pares debe cuestionar si un trabajo se ha realizado con rigor, aplicando los controles apropiados y un análisis estadístico correcto, si los datos y el texto son claros y suficientes para la replicación de los resultados, y si los argumentos expuestos tienen sentido lógico. Más aún, los revisores también ponen hincapié en la importancia potencial y en la novedad de la contribución. Como es de esperar, estos factores son los más relevantes para la aceptación del artículo en las revistas de alto factor de impacto. Pero la novedad es una navaja de doble filo, pues a veces se opone a la importancia; un resultado inesperado suele tener consecuencias difíciles de predecir. Muchas veces es un error premiar a los investigadores jóvenes en función de las novedades que se cruzan (por casualidad) en su carrera científica. Más aún, puede ser un grave error penalizar a los que tienen un proyecto robusto, de mayor importancia y de mayor impacto global, pero carente de novedades a corto plazo. La ciencia de calidad no debería basarse en “burros que han tocado la flauta.”

La hipocresía inherente a la elección del factor de impacto como única herramienta para medir la calidad científica socava los ideales que subyacen al avance científico. Muchos jóvenes brillantes y creativos se desilusionan y abandonan su carrera científica al ver que otros jóvenes, por pura suerte, copan los pocos puestos académicos disponibles. Hacer demasiado énfasis en las publicaciones en revistas de alto factor de impacto puede ser una receta desastrosa para el futuro de muchos jóvenes.

¿Existe alguna solución? Lo ideal sería reemplazar el factor de impacto como único indicador de excelencia y utilizar la evaluación por pares siempre que sea posible. Más aún, a ser posible, que dicha evaluación incluya científicos de prestigio internacional. Se requiere más tiempo y más esfuerzo, pero todos los científicos (senior) en activo deberían estar dispuestos a participar en estas evaluaciones porque esta es la única manera de liberar a los jóvenes científicos de la tiranía del factor de impacto.

En ciencia no hay mala publicidad: Los artículos más criticados alcanzan un mayor impacto

Muchos científicos odian que se critique su trabajo, pues piensan que ello conlleva un bajo impacto y bajo número de citas. Sin embargo, los análisis bibliométricos afirman todo lo contrario. Filippo Radicchi (Universitat Rovira i Virgili) ha estudiado el número de citas de los artículos en 13 revistas importantes y ha descubierto que los más criticados (con comentarios enviados al editor que se publican en la propia revista) son más citados en media; además, entre los artículos más citados de cualquier revista siempre hay un alto porcentaje de artículos que han sido “comentados” (o criticados). El dicho popular “Que hablen de mí, aunque sea mal” adquiere todo su sentido en el mundo de las publicaciones científicas. Más aún, el estudio de Radicchi apoya la hipótesis de que las disputas y críticas entre científicos son claves para la producción y difusión del conocimiento, y para el avance de la ciencia. El artículo técnico es Filippo Radicchi (Universitat Rovira i Virgili, Tarragona, Spain), “In science “there is no bad publicity”: Papers criticized in technical comments have high scienti c impact,”  arXiv:1209.4997, Subm. 22 Sep 2012.

La controversia científica es parte coyuntural del progreso científico. Grandes avances científicos del pasado, como el modelo heliocéntrico de Copérnico, la teoría de la evolución de Darwin o la deriva de los continentes de Wegener, han estado rodeados de disputas, críticas y controversias de todo tipo. Por supuesto, muchas investigaciones controvertidas acaban en el olvido o siendo rechazadas, como la fusión fría o la memoria del agua. Aún así, lo que parece claro de la historia de la ciencia es que los cambios revolucionarios suelen ser polémicos y encuentran cierta resistencia antes de ser aceptados.

Fracción de artículos comentados que forman parte del 5% de los artículos más citados (círculos rellenos). Se compara con las predicciones estadísticas de un modelo que no diferencia entre artículos comentados y no comentados.

Los comentarios o cartas al editor en muchas revistas son el medio por el cual los científicas demuestran sus críticas al trabajo publicado por otros. Estos comentarios son considerados por los editores de las revistas como cualquier otro artículo y pasan por una revisión por pares. Hay comentarios positivos que aclaran o complementan el artículo comentado, pero la mayoría suelen ser críticas a las conclusiones o a la metodología utilizada. Normalmente, estos comentarios críticos suelen ir acompañados de una respuesta por parte de los autores (una deferencia muy habitual entre todos los editores). Por tanto, una manera automático de detectar comentarios críticos es considerar los comentarios que van acompañados de una respuesta de los autores. Utilizando esta regla, Radicchi ha estudiado el número de citas recibidas en la base de datos del Web of Science por los artículos de 13 revistas que han recibido “críticas.” Por ejemplo, en Physical Review Letters, el artículo más citado (más de 20.000 citas) fue un artículo criticado. Solo el 3% de los artículos han sido comentados, pero los 5 artículos más comentados están entre los 16 más citados de esta revista. Lo mismo pasa en las demás 12 revistas estudiadas (Nature, Science, Phys. Rev., etc.), los 5 artículos más comentados siempre están en el top de los más citados.

Por supuesto, el estudio de Radicchi tiene muchas limitaciones, entre ellas, que no se incluyen todas las posibles críticas a un artículo, solo las publicadas como comentarios (con respuesta de los autores) en la propia revista. Un análisis más riguroso requeriría estudiar qué artículos que citan al artículo lo hacen criticando sus conclusiones. Radicchi tiene mucho trabajo por delante investigando en dicha línea.

Gran Bretaña es el país con el mejor rendimiento científico del mundo, según Thomson Reuters y Elsevier

El impacto de la ciencia producida en EE.UU. está de capa caída; el país que mejor financia la investigación de todo el mundo ha sido superado en impacto por Gran Bretaña y por Alemania (el primero ya lo superó hace tres años). Según un estudio de la editorial Elsevier, Gran Bretaña es el país con el mejor rendimiento científico del mundo, es decir, el mejor cociente entre el impacto (normalizado) de sus publicaciones y los fondos públicos invertidos en su financiación. No solo lo dice Elsevier, otro análisis de Thomson Reuters obtiene resultados similares. Gran Bretaña produce el 8% de los artículos de investigación publicados en todo el mundo, pero logra producir el 17% de los trabajos de investigación con más de 500 citas y el 20% de los que tienen más de 1000 citas. Entre 1991 y 2011, el impacto de la ciencia de EE.UU. se ha estancado (“ha tocado techo”), mientras que el impacto de países como Gran Bretaña, Alemania y Francia está en pleno crecimiento. Gran Bretaña pasó del segundo lugar en 1991 al primer lugar desde 2007; Alemania pasó del cuarto lugar en 1991 hasta el segundo en 2010; Francia, en el quinto puesto detrás de EE.UU., sigue creciendo y se espera que si el gobierno de los EE.UU. no hace nada para evitarlo, acabará obteniendo el tercer lugar. ¿Qué harán los estadounidenses para corregir su estancamiento durante los últimos 20 años? Eliot Marshall, John Travis, “Scientific Impact: U.K. Scientific Papers Rank First in Citations,” Science 334: 443, 28 October 2011, no se atreven a ofrecer ninguna respuesta.

Por cierto, España no se encuentra en buen lugar. En 2010 fuimos los novenos (#9) por número de artículos, los undécimos (#11) por número de citas, pero los trigésimo cuartos (#34) por número de citas por artículo. El puesto 34 donde Gran Bretaña es el número 1 y EE.UU. el número 3. Sin palabras. Prefiero no hacer comentarios.

Por qué los editores de revistas científicas no quieren usar programas antiplagio y antifraude

Esta semana se estima que unos 27 000 artículos científicos recién publicados serán incorporados al Web of Science (WoS), la gran base de datos online de Thomson Reuters donde se encuentran las revistas que tienen índice o factor de impacto. Se estima que 5 o 6 de dichos artículos serán retractados por los editores de la revista donde han sido publicados. La retracción significa una declaración oficial de que el artículo es defectuoso a tal extremo de que debe ser retirado de la literatura científica (porque hay indicios de plagio, figuras alteradas o datos falsos). ¿Por qué debería preocuparnos la tasa de retracciones si es tan baja? Porque esta creciendo de forma exponencial. A principios de la década de los 2000 en el WoS solo aparecían unas 30 retracciones al año, sin embargo, en 2011 ya son más de 400. Este número está creciendo más que el número de artículos publicados (que ha crecido en la última década un 44%). Nos lo cuenta Richard Van Noorden, “Science publishing: The trouble with retractions,” News Feature, Nature 478: 26-28, October 6, 2011. Ver también “Do editors like talking about journals’ mistakes? Nature takes on retractions,” Retraction Watch, October 5, 2011, y Timothée Flutre et al., “Research community: Pilot scheme for misconduct database,” Nature 478: 37, 06 October 2011.

Según Nicholas Steneck, especialista en ética de la investigación de la Universidad de Michigan en Ann Arbor, “yo creo que la razón no es que ahora haya más fraude, sino que se está detectando más fraude; para las revistas es más fácil y barato no intervenir y retractar cuando haya que hacerlo que introducir políticas específicas antifraude.” La misma opinión tiene John Ioannidis, profesor de política de la salud en la Escuela de Medicina de la Universidad de Stanford en California, especialista en el estudio del fraude en publicaciones científicas, que afirma “no creo que ahora haya un auge en la producción de trabajos fraudulentos o erróneos.”

La escritora Ivan Oransky, editor ejecutivo de Reuters Health, Nueva York, afirma que “hay un montón de gestores de editoriales y una gran cantidad de editores de revistas que realmente no quieren que la gente sepa lo que está pasando en sus publicaciones.” En agosto de 2010, Oransky fundó con Adam Marcus el blog Retraction Watch, que desde su fundación ya ha recibido más de 1,1 millones de visitas y documentado 200 retracciones. Otro sitio similar es Scientific Red Cards.

En las encuestas, entre el 1% y el 2% de los científicos admiten haber fabricado, falsificado o modificado los datos o los resultados al menos una vez. Pero en la última década, los avisos de retracción de artículos publicados se han incrementado desde el 0,001% al 0,02% del total. Ioannidis afirma que esto es solo “la punta del iceberg.” El crecimiento de las retracciones puede tener su causa en la aparición de software para detectar el plagio y la manipulación de imágenes, combinado con el mayor número de lectores que internet aporta a los trabajos de investigación. En el futuro, este tipo de software podría permitir detectar estos fraudes antes de la publicación, evitando la necesidad de una retracción posterior. El problema es que muchos editores son reacios a utilizar este tipo de software.

¿Por qué no actúan los editores contra el fraude? La mayoría piensa que es un problema menor para su revista. De hecho, muchos artículos retractados son citados incluso mucho después de haberse detectado el fraude. Y muchos artículos son citados por artículos que corrigen los “fallos” que han llevado a su retracción. Pocas revistas eliminan completamente el artículo retractado de sus bases de datos. Más aún, muchas revistas indican la retracción con un pequeño mensaje difícil de ver, con lo que muchos lectores incautos estudian el artículo retractado como si no lo hubiera sido.

Drummond Rennie, editor adjunto de la revista Journal of the American Medical Association, indica que hay dos razones para explicar el comportamiento de los editores que “esconden” las razones por las que ha ocurrido la retracción: el miedo y la carga de trabajo. El miedo porque muchos editores temen ser demandados si publican contenido que puede ser calificado de “difamatorio” contra los autores. La carga de trabajo porque gestionar en detalle todas las disputas de autoría, las acusaciones de la fabricación de datos y otras formas de fraude es mucho más costoso de lo que parece. “Se necesitan decenas o cientos de horas de trabajo para llegar al fondo de lo que está pasando.” Pero, si el editor es voluntario debería asumir sus compromisos y asegurar la integridad de la información que publica en su revista.

Los comentarios en el blog Watch Retraction dejan muy claro que a la mayoría de los científicos les gustaría separar conocer en detalle los aspectos del artículo que han motivado la retracción, ya que muchas retracciones afectan solo a una pequeña parte de los resultados del artículo y el resto del artículo puede ser una contribución científica libre de fraude. No hay que olvidar que las retracciones no siempre son debidas a la mala conducta o fraude por parte de los autores. Aún así son todo un estigma para la carrera de muchos científicos. Si no lo fuera, muchos autores confesarían los errores que han descubierto en sus propios artículos gracias a investigaciones posteriores, solicitando la retracción de la parte correspondiente de sus propios artículos, sin afectar al resto.

La mayoría de los expertos considera que la transparencia es la clave para la gestión de las retracciones. Debe quedar muy claro por qué se retracta un artículo concreto y qué partes del artículo se ven afectadas por la retracción y cuáles no. El problema es que los editores son los que tienen la sartén por el mango y son ellos los que deben encargarse de gestionar de forma transparente las retracciones. Quizás algún día sea así, pero por ahora estamos lejos de ese momento.

Vídeos de la ACS que explican cómo escribir un artículo científico

La ACS (American Chemical Society) cumple 101 años y ha decidido editar una serie de vídeos explicando el proceso de publicación. Los vídeos están en inglés, pero merecen la pena. Por ejemplo, en la primera serie de vídeos entrevistan a George M. Whitesides (Universidad de Harvard) quien ha publicado más de 1100 artículos científicos y está en el comité editorial de muchas revistas. Merece la pena escuchar sus palabras.

How to Write a Paper to Communicate your Research” [full interview MP3]

 

Writing Your Cover Letter

Selecting Peers to Suggest as Reviewers

Las interacciones entre proteínas no son más fiables porque hayan sido publicadas en muchos artículos

Dibujo20090626_protein_protein_interaction_PDB_1LFD_chain_A_BMuchos científicos piensan que un resultado es más fiable si ha sido publicado muchas veces. No es así. Muchos biólogos piensan que una posible interacción entre dos proteínas es más fiable si ha sido publicada muchas veces. Un estudio reciente demuestra que esto no es verdad. Las áreas de moda o candentes, debido a la alta competitividad científica, presentan resultados con un gran número de errores. Las probabilidades de falsos positivos y verdaderos negativos crecen con el volumen de publicaciones en un área. Así lo han demostrado Thomas Pfeiffer y Robert Hoffmann al estudiar las interacciones entre proteínas de levadura de la cerveza (S. cerevisiae) publicadas en revistas internacionales, en su reciente artículo “Large-Scale Assessment of the Effect of Popularity on the Reliability of Research,” PLoS ONE, 4: e5996, June 24, 2009.

La investigación científica no está libre de errores. Ciertos estudios científicos pueden avalar hipótesis erróneas o refutar hipótesis correctas. Las áreas de moda o candentes, debido a la alta competitividad científica, presentan gran número de estos errores. Por ejemplo, muchos falsos positivos son “fabricados” (modificando o sesgando datos estadísticos). Pfeiffer y Hoffmann han comparado los resultados más recientes y fiables sobre las interacciones de proteínas en la levadura de la cerveza (S. cerevisiae) con los resultados publicados en años pasados. Han observado que las interacciones más populares en lugar de ser las mejor caracterizadas, todo lo contrario, son las caracterizadas con menor fiabilidad. Los resultados muestran que no es más fiable una interacción protéica porque haya sido reportada por múltiples estudios. Los índices que miden la calidad de una interacción protéica por el número de publicaciones en las que ha aparecido caracterizada (muy usados en bioinformática) se caen por su propio peso.

Parece paradójico que en las áreas más candentes (hot topic) sea muy difícil distinguir entre falsos positivos y verdaderos positivos. Los autores concluyen de su estudio que debería disminuirse la financiación en las áreas de investigación de moda y redirigirla a las áreas menos populares (“the funding available in scientific research could be specifically directed towards promising projects on topics of currently low popularity“).

Consejos para jóvenes científicos sobre cómo publicar y dónde

La revista de la Sociedad Española de Bioquímica y Biología Molecular (SEBBM) publicó en diciembre de 2007 un monográfico sobre “El futuro de las publicaciones científicas” que incluye varios artículos que serán de interés para los investigadores más jóvenes:

Publicación científica: consejos para jóvenes científicos
Willy Stalmans

¿SE PUEDE SOBREVIVIR EN CIENCIA SIN PUBLICAR EN NATURE?
¿Hay esperanza para quien no publica en Nature? ¡Por supuesto que sí!
Josep Rizo
Publicar en revistas de alto impacto: un imperativo para los jóvenes científicos
Roger Gomis

Revistas científicas españolas: dónde estamos y hacia dónde podríamos ir
Juan Aréchaga
Problemas y oportunidades (tormentas de nieve y bellos atardeceres)
Peter Suber

¿Importar investigadores?
Julio Carabaña

«Hay que saber aprovechar la oportunidad que nos brinda el ERC» Joan Seoane y María Lois, starting grants del European Research Council
Xavier Pujol Gebellí

Juan Aréchaga: “El “producto final” de cualquier tipo de investigación científica o tecnológica es habitualmente un artículo en una revista. En la actualidad, los artículos científicos de calidad escritos por españoles aparecen, prácticamente de forma exclusiva, en revistas extranjeras. ¡Qué lejos están los tiempos de Cajal, quien nunca publicó en Nature o Science y siempre lo hizo en revistas españolas! Las revistas españolas debieran ser el vehículo natural de los mejores trabajos de los investigadores españoles. Sin embargo, en revistas españolas como The International Journal of Developmental Biology (índice de impacto 3.577 en JCR 2007), más del 95% de los autores son extranjeros. Los pocos artículos españoles que les llegan, lo hacen tras reiterados rechazos de sus artículos en revistas extranjeras. Hay un centenar de universidades norteamericanas subscritas a dicha revista, pero tan sólo cuatro españolas (datos de 2007).”

 

Curva generalizada de citación. (C) Willy Stalmans (SEBBM).

Curva generalizada de citación. (C) Willy Stalmans (SEBBM).

Willy Stalmans: “Si recibe un artículo con una carta de rechazo, no se desanime. Le pasa de vez en cuando a todo el mundo. En su libro “Reminiscencias y reflexiones,” Hans Krebs describe cómo su manuscrito original acerca del ciclo del ácido cítrico, uno de los pilares actuales de la bioquímica, fue rechazado por la revista Nature el 14 de julio de 1937, siguiendo el estilo típico de entonces (cuando no había revisión por pares): “El editor lamenta que, como ya tiene suficientes artículos para rellenar las correspondientes columnas de Nature durante siete u ocho semanas, no es posible aceptar más artículos actualmente…” Krebs envió su artículo dos semanas más tarde a Enzymologia, que lo publicó en un plazo de dos meses.”

Roger Gomis: “En la actualidad, publicar en las revistas científicas de más renombre se está convirtiendo en una obligación para que los jóvenes investigadores puedan acceder a la carrera científica. Sin embargo, los trabajos científicos adquieren su relevancia con el paso del tiempo y la mejor manera de valorarlos es, probablemente la mayoría estará de acuerdo, mediante el número de citaciones que reciben al cabo de unos diez años de su publicación y no por el factor de impacto de la revista donde se han publicado.” 

Julio Carabaña: “Simplificando mucho, podemos decir que la calidad de la enseñanza es fundamentalmente un asunto de esfuerzo, y por consiguiente abierto a cualquier individuo independientemente de su talento natural de enseñante, mientras que la calidad de la investigación requiere, además del esfuerzo, un componente esencial de talento. [En mi opinión] el único rasgo verdaderamente crucial de la enseñanza universitaria para la investigación es el nivel de la elite de los licenciados. Uno de los hallazgos empíricos más robustos de la investigación educativa es la constancia del aprendizaje académico en el tiempo: el mejor predictor del rendimiento académico es el propio rendimiento académico años antes. España debe buscar a los mejores estén donde estén, si queremos que nuestra ciencia esté entre las mejores y se gaste bien el dinero de los contribuyentes.”

¿Sirven de algo las conferencias científicas internacionales?

La ciencia y la técnica evolucionan gracias al trabajo conjunto de muchos investigadores que deben comunicarse entre sí. Las publicaciones en revistas y las monografías (libros) científicos son el vehículo más importante para canalizar dicha comunicación. Sin embargo, los congresos internacionales también ayudan. Aunque la mayoría de las instituciones científicas no valoran la participación en congresos y la publicación de artículos en sus actas (proceedings), los científicos, especialmente los más jóvenes, no deben despreciar la participación en estos eventos. Min-Liang Wong, “What other treasures could be hidden in conference papers?,” nos lo recuerda en Nature 456, 443, 27 November 2008 . “El obituario de Anatol Zhabotinsky (1938–2008),” escrito por Irving R. Epstein, Nature 455: 1053 ( 2008 ) nos lo recuerda claramente. Aunque no recibió el Premio Nobel, podría haberlo hecho por sus contribuciones a la matemática de las reacciones químicas oscilatorias, las ecuaciones de Belousov-Zhabotinsky.

Epstein nos recuerda que “Belousov trató de publicar sus resultados en una revista internacional con revisores, pero se los rechazaron argumentando como respuesta los revisores y el editor que sus resultados violaban la Segunda Ley de la Termodinámica. Por ello, decidió publicar una descripción de sus observaciones en un artículo de sólo una página en las Actas de una Conferencia sobre Medicina Radiológica.” Por supuesto, el artículo “A periodic reaction and its mechanism,” de 1959, pasó completamente desapercibido para todo el mundo.

Pocos citan artículos publicados en conferencias o simposios. Quizás, porque la mayoría no garantizan un proceso de revisión por pares riguroso. El resultado es que los artículos allí publicados reciben poco reconocimiento. El resultado es que cada día menos gente quiere publicar en estos eventos.

Sin embargo, hay muchas “joyas” ocultas en las Actas de muchas conferencias. Wong nos pone como ejemplo los trabajos pioneros del físico Abdus Salam y del químico Koichi Tanaka, en concreto, A. Salam, in Elementary Particle Theory, Proceedings of the Nobel Symposium held in 1968 at Lerum, Sweden, 367-377, y K. Tanaka et al., in Proceedings of the Second Japan-China Joint Symposium on Mass Spectrometry, 185-188, 1987 . Ambos artículos presentaban descubrimientos que mucho más tarde recibieron amplio reconocimiento. Salam ganó el Premio Nobel de Física en 1979 y Tanaka el Premio Nobel de Química en 2002.

¿Cuántos descubrimientos de Premio Nobel yacen “ocultos” entre las páginas los libros de Actas de conferencias a las que hemos asistido? Lo confieso, rara vez me leo todos y cada uno de los artículos de las Actas de las conferencias a las que asisto. Lo confieso, ni siquiera ojeo todos y cada uno de los títulos de todos y cada uno de los artículos. Sólo los de mi sesión y de algunas sesiones afines. ¿No decían que las conferencias eran para “ir de vacaciones”?