2009 Nobel, Medicina: Los telomeros como protectores de los cromosomas

Dibujo20091005_Nobel_Prize_Medicine_Winners_photograph

Elizabeth H. Blackburn, Carol W. Greider y Jack W. Szostak han recibido el Premio Nobel de Fisiología y Medicina por su descubrimiento de “cómo los telomeros y el ezima telomerasa protegen a los cromosomas.” La noticia aparece en todos los medios (la foto es de El Periodico.com y El Mundo lo cuenta muy bien, de agencias, claro).Elizabeth Blackburn y Jack Szostak descubrieron que cierta secuencia de ADN en los telómeros protege a los cromosomas de su degradación. Carol Greider y Elizabeth Blackburn identificaron la telomerasa como el enzima que fabrica el ADN de los telómeros. Un acierto pleno para la predicción bibliométrica de Thomson/Reuters. ¿Acertarán con el de Física mañana?

Los telómeros y la acción de la telomerasa son conocimientos de biología muy básicos, por todos conocidos, por lo que no entraré en más detalles. Os recomiendo el artículo de dos de los premiados, Greider, Carol W. y Blackburn, E. H., “Telómeros, telomerasa y cáncer,” Investigación y Ciencia, 235: 20-26, 1996 (versión en inglés en Scientific American disponible gratis); el de Blasco, María A., “Juegos extremistas. Telómeros, telomerasa e integridad genómica y somática,” Investigación y Ciencia, 269, 1999; y el de García-Cao, Marta y Blasco, María A., “Conexión entre el ciclo celular y los telómeros. Importancia para el cáncer,” Investigación y Ciencia, 321, Junio 2003.

Los trabajos premiados de Blackburn (con un índice-h de 61 según el ISI WOS, hoy), Szostak (con un índice-h de 67) y Greider (con uno de 52) son de la primera mitad de los 1980s, en concreto, Szostak JW, Blackburn EH. Cloning yeast telomeres on linear plasmid vectors. Cell 1982; 29:245-255; Greider CW, Blackburn EH. Identification of a specific telomere terminal transferase activity in Tetrahymena extracts. Cell 1985; 43:405-13; y Greider CW, Blackburn EH. A telomeric sequence in the RNA of Tetrahymena telomerase required for telomere repeat synthesis. Nature 1989; 337:331-7.

Enhorabuena a los ganadores.

PS: Por cierto, María A. Blasco, investigadora española y colaboradora de la Dra. Carol W. Greider, fue la primera persona en caracterizar la telomerasa, por lo que podría haber recibido el Premio Nobel (aunque su índice-h de 48 según el ISI WOS la coloca ligeramente por detrás de Greider, además del hecho del que el Nobel sólo premia hasta 3 personas y no más). Nos lo cuentan estupendamente en “Premios Nobel de Medicina ¿Por qué no a María Blasco?,” Tall & Cute, Octubre 5, 2009 [vía Menéame].

Evaluación por comités de expertos versus índices bibliométricos (o paseando un rato por PLoS ONE)

Todo el mundo sabe que un comité de expertos evalúa mejor la calidad de un artículo, investigador o grupo de investigación que un conjunto extenso de índices bibliométricos. Cualquier estudio mínimamente serio lo observa experimentalmente. Lyz Allen et al. evaluaron casi 700 artículos publicados en 2005 por comités de expertos y compararon los resultados con los indicados por índices bibliométricos 3 años más tarde. Cuando el índice bibliométrico dice que el artículo es muy bueno, los expertos ya lo habían dicho. Pero los expertos encontraron joyas que pasarían desapercibidas para los índices bibliométricos (porque no fueron adecuadamente citadas). La opinión de los expertos, como era de esperar, supera con creces a los índices bibliométricos, aunque estos son fáciles de calcular para los funcionarios y no funcionan tan mal. El estudio es Liz Allen, Ceri Jones, Kevin Dolby, David Lynn, Mark Walport, “Looking for Landmarks: The Role of Expert Review and Bibliometric Analysis in Evaluating Scientific Publication Outputs,” PLoS ONE 4: e5910, June 18, 2009.

Lyz Allen et al. tomaron 687 artículos publicados en 2005 y le pidieron a dos expertos, por cada artículo, elegidos entre 1000, que los calificaran de 1 a 4. El valor 4 representa una gran contribución, solo 6 de los 687 recibieron este valor; el valor 3 representa contribuciones interesantes, solo 62 (9%) recibieron este valor; el valor 2 artículos solamente útiles, solo 229, y el 1 para artículos del montón, el resto. Tras 3 años la correlación entre la opinión de los expertos y los índices bibliométricos es muy fuerte. Salvo para unos pocos artículos, artículos calificados de forma alta por los expertos pero que no han recibido un número suficiente de citas. Quizás 3 años es poco tiempo y las recibirán en un plazo más largo. Quizás nunca las recibirán. Para un funcionario, los expertos también se equivocan. Para un experto, los índices bibliométricos no pueden ser la única forma de evaluar.

Y es que ya lo decía Einstein “no todo lo que cuenta es contable, y no todo lo que es contable cuenta.” El uso de índices bibliométricos puede ser útil pero no puede ser lo único que se utilice. Nos lo han contado tantas y tantas veces que raya el ridículo. Y es que hablar de estos temas sirve para escribir artículos a quienes no son expertos en bibliometría y para escribir entradas en blogs de ciencia como éste (y no porque no haya otras cosas que contar). Os extraigo una figura del artículo de Lutz Bornmann, Hans-Dieter Daniel, “The state of h index research. Is the h index the ideal way to measure research performance?,” EMBO reports 10: 2–6, 2009 .

Dibujo20090618_h_index_and_citations_curve

Dibujo20090618_h_e_d_indexes_graphical_definitionlObserva la figura A. La curva blanca es el número de citas recibidas por los artículos ordenados por número de citas. El área sombreada en negro mide el índice h al cuadrado. Diferentes autores con el mismo índice h pueden tener diferentes curvas. La figura B muestra uno con el área roja más pequeña pero casi igual área verde. La figura C uno con igual área roja pero menor área verde. Finalmente la D muestra un autor con áreas rojas y verdes nulas. ¿Cuál de estos cuatro investigadores te parece el mejor? El área roja ha sido propuesta como nuevo índice bibliométrico para complementar al índice h y es llamado índice e por (exceso de citas) por C.-T. Zhang del Departamento de Física de la Tianjin University, China, en “The e-Index, Complementing the h-Index for Excess Citations,” PLoS ONE 4: e5429, May 5, 2009. Ya que estamos puestos, no soy experto en bibliometría pero se me antoja introducir un nuevo índice, el índice d (por defecto de citas). ¿Qué es? Obviamente el área verde. Con los índices h, d, y e se tiene una buena idea de cómo es la curva de citas (que tiene forma general de ley de potencias). Estos tres índices diferencian estupendamente entre los 4 autores A,B,C y D, todos con el mismo índice h.

Muchos científicos e investigadores están más preocupados por publicar en revistas internacionales de alto índice de impacto que en sus propios resultados de investigación. La nueva máxima de la ciencia “publica o perece” cada día parece más en contra de la tan cacareada “investigación de calidad.” Los investigadores envían su artículo a una revista de índice de impacto alto (yo envié uno a una de 1.8) y si se los rechazan (a mis coautores y a mí nos lo rechazaron) los envían a revistas de índice de impacto más bajo (nosotros ya lo hemos hecho a una de 0.82), y así sucesivamente hasta lograr el artículo. En este proceso el artículo puede mejorar, pero muchas veces muy poco (como es nuestro caso). No es el objetivo de las revisiones el mejorar los artículos (a veces parece que se han leído otro artículo).

Por cierto, no sé si lo sabéis, pero el índice de impacto depende del número de artículos de la revista citables y citantes. Ambos números no tienen por qué coincidir. El editor principal de una revista puede negociar (y lo hace) con Thomson Reuters qué artículos de su revistas se encuentran en cada categoría. Dentro de una misma editorial hay políticas diferentes al respecto para revistas diferentes. Siempre, se supone, para maximar el índice de impacto. Obviamente, estas negociaciones son muy criticadas por su falta de transparencia, pero así es el impactante mundo del índice de impacto.

Un diablo mal pensado podría afirmar que quizás muchos artículos contienen datos fabricados o fraudulentos con objeto de poder acceder a un mayor impacto. ¿Cuántos científicos falsifican los datos que publican en sus estudios? La detección de estos casos de forma automática es muy difícil. Lo más fácil es entrevistar de forma anónima a los científicos y preguntarles si han falsificado o no alguna vez datos que han publicado en sus artículos. El 2% de los científicos admiten haber fabricado, falsificado o modificado datos o resultados al menos una vez en su vida. Más aún, si les entrevistamos y preguntamos si creen que sus colegas o colaboradores cercanos lo han hecho, así lo creen el 14%. Si les preguntamos si alguna vez han actuado en forma científicamente reprobable (sin especificar en qué) el 72% admite haberlo hecho. Números, porcentajes, que a mí me parecen muy alarmantes. El estudio es D. Fanelli, “How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data,” PLoS ONE 4: e5738, May 29, 2009.

Los científicos que realizan su trabajo por “amor al arte,” por “amor a la ciencia,” por “amor,” son cada día bichos más raros, bichos en extinción. ¿Hay que salvar a esta especie en extinción? ¿Merece la pena gastar tanto dinero en salvar especies en extinción? Un estudio revela que el valor que los ciudadanos de a pie dan a las especies raras o en extinción es enorme comparado con el resto de las especies. Los que promueven el conservacionismo desde ONG y gobiernos están reflejando el interés común de todos por salvar a estas especies en peligro. ¿Quién quiere salvar a los bichos raros de la ciencia que se autoexcluyen a sí mismos del “publish or perish”? El estudio es E. Angulo, F. Courchamp, “Rare Species Are Valued Big Time,” PLoS ONE 4: e5215, April 22, 2009.

Atención, pregunta: ¿cuál de estos científicos es el mejor?

La siguiente tabla presenta el número de citas a los 10 artículos con al menos 10 citas de 10 científicos anónimos que tienen un índice-h de exactamente 10. ¿Cuál de estos científicos es el mejor?

dibujo20090325citationcountsfor10scientists

Sobre gustos no hay nada escrito. A algunos os parecerá mejor D, a otros B, e incluso a algunos E o F. ¿Cuál es realmente el mejor? Podemos mirar otros índices bibliométricos.

dibujo20090325bibliometricindicesfor10scientists1

Pocos habréis pensado que el científico A es el mejor, pero algunos índices bibliométricos así lo consideran. A la vista de esta tabla, quién pensáis que es el mejor científico. ¿El A, el D? Quizás otro.

Este es el gran problema de valorar la calidad de un científico utilizando solamente números, sin conocer su trabajo y como se contextualiza en su área de conocimiento. Este es el gran problema de la bibliometría y de la cienciometría. Cada índice numérico tiene sus problemas e inconvenientes. No existe EL índice. Lo correcto es utilizar un conjunto de índices lo más completo y diverso posible.

No divagaré más al respecto, pero a los interesados les recomiendo el artículo técnico, que se lee bastante fácil, de John Panaretos, Chrisovaladis Malesios, “Assessing scientific research performance and impact with single indices,” ArXiv preprint, 15 Jan 2009 .

We provide a comprehensive and critical review of the h-index and its most important modifications proposed in the literature, as well as of other similar indicators measuring research output and impact. Extensions of some of these indices are presented and illustrated.

wikiFactor: la última vuelta de hoja del índice-h de Hirsch

Ha tenido éxito Hirsch con su famoso índice-h (su artículo ha sido citado más de 210 veces en el ISI WOS). Todo el mundo está aplicando su índice a todo “lo habido y por haber.” Ahora le ha tocado a la wikipedia. Carl McBride, que no os engañe el nombre, pertenece al Departamento de Química Física de la Universidad Complutense de Madrid, se ha querido apuntar a la “moda Hirsch”  y ha introducido el wikiFactor, la aplicación directa del índice-h de Hirsch a la wikipedia. ¿Qué diferencia el índice-h del wikiFactor? Un factor de 1000. Nada más y nada menos. Hirsch cuenta en “pesetas” y McBride cuenta en “miles de liras”. Carl McBride, “wikiFactor: a measure of the importance of a wiki site,” ArXiv preprint February 19, 2009 . Menos mal que Carl no ha querido aburrirnos mucho y su artículo sólo tiene una página. Más que suficiente, por supuesto, en este caso.

El índice-h de Hirsch se define como el número de artículos, h, que han recibido al menos h citas. El wikiFactor (wF) se define como el número de páginas de la wiki, w, que han recibido al menos 1000*w accesos. Como ocurre con el índice-h el wikiFactor se puede calcular rápidamente en pocos segundos. Este árduo trabajo de investigación ha sido financiado por el Proyecto de Investigación con código FIS2007-66079-C02-01 , y otras fuentes de financiación de la Comunidad de Madrid. Sin lugar a dudas, un dinero público muy bien invertido.

dibujo20090220phasediagramwaterobtainedfromexperimentDisculpas: Carl, si lees esto, perdón por la ironía, ¡es envidia! Ya me hubiera gustado a mí que se me ocurriera esta idea. Lo mismo hasta te citan tanto como a Hirsch.

Para los interesados, la financiación pública de Carl está bien aprovechada en sus múltiples publicaciones (tiene un índice-h de 13, sino lo he calculado mal) con artículos muy interesantes entre los que destacaría C. Vega et al. “Can simple models describe the phase diagram of water?,” Journal of Physics-Condensed Matter 17: S3283-S3288, 2005 , y C. McBride et al. “The range of meta stability of ice-water melting for two simple models of water,” Molecular Physics 103: 1-5, 2005 (este último, su artículo más citado por el momento con afiliación española). Su artículo más citado es su primer artículo según su web, en concreto, C. McBride et al. “Molecular dynamics simulations of liquid crystal phases using atomistic potentials,” Molecular Physics 93: 955-964, 1998 (citado 42 veces en el ISI WOS).

Gran parte del trabajo de Carl se centra en la aplicación de técnicas de química-física computacional para tratar de comprender el extremadamente complicado diagrama de fases del agua. En la figura tenéis el resultado obtenido experimentalmente.

La “bonita” historia de Physical Review Letters

dibujo20090207physicalreviewlettesfirstissue1Physical Review Letters es la revista de investigación en Física de mayor prestigio [1]. No es la que tiene el índice de impacto más alto, pero sí es la que tiene mayor prestigio. Por ejemplo, tiene el índice-h más alto (267) de todas las revistas de Física y Astronomía según SCImago. Sam Goudsmit, que era el editor de Physical Review, decidió publicar la sección de artículos cortos, Letters, de forma separada como revista independiente. Así nació la revista Physical Review Letters. Goudsmit eligió como editor principal a George L. Trigg [2]. 

Desde el nacimiento de Physical Review en 1893, la revista presenta dos tipos de artículos: los artículos regulares (Papers) y las “contribuciones menores” (Minor Contributions). Estos últimos comprendían notas científicas breves, noticias sobre congresos y revisiones de libros. En 1925, estos artículos breves pasaron a llamarse “comunicaciones rápidas” (Rapid Communications). En 1929, se les volvió a cambiar de nombre y se llamaron “cartas al editor” (Letters to the Editor). Hasta 1950, estas cartas al editor no pasaban por un proceso de revisión y eran aceptadas o rechazadas directamente por el Editor. Pero Sam Goudsmit, nuevo editor de Physical Review, que trabajaba en el Brookhaven National Laboratory, decidió consultar a sus colegas sobre algunas Letters, consultas que acabaron siendo “revisiones por pares.” Esta práctica se convirtió en norma y prácticamente todas las Letters eran enviadas a revisores. Ello retrasó el tiempo medio de publicación de estas comunicaciones cortas.

Lo sorprendente es que muchos investigadores (autores) se dieron cuenta de que podían establecer la prioridad sobre un descubrimiento gracias a estas comunicaciones cortas (Letters). “Una letter de 600 palabras es tan fiable para ello como un artículo de 6000,” en palabras de Robert Adair. Goudsmit quiso aprovechar la situación y propuso que las Letters se publicaran de forma separada. El resultado fue el nacimiento de Physical Review Letters.

La revista nació como quincenal el 1 de julio de 1958. El número de páginas por ejemplar creció tan rápido que ya en 1964 tuvieron que empezar a publicarla semanalmente (desde el 6 de enero, volumen 12, número 1) .

Una revista de artículos rápidos tiene que llegar rápido a los lectores. Los subscriptores empezaron a quejarse por el retraso con el que recibían el ejemplar semanal. Mike Fleming le dijo a Trigg “¿por qué le decimos a correos que califique la revista como un periódico (diario)? La clasificación llamada “newspaper handling,” garantiza que la revista llega (al menos en EE.UU.) en un máximo de 24 horas. Y llegar llegaba. Trigg más tarde se enteró que en correos (U.S. Post Office) clasificaron la revista de “física” (“Physical”) junto a las revistas de boxeo. Lo que “convino” a la revista, ya que las revistas de “boxeo” tienen que llegar a tiempo, “faltaría más.” Esto me recuerda el dicho de “ese hombre no vino como convino, sino como con vino.”

¿Qué papel tenía Trigg como editor principal? Un papel muy activo. Ayudaba a elegir los revisores. Leía todos los informes de los revisores. Siempre tomaba la decisión final sobre si un artículo se aceptaba o se rechazaba. Bueno, casi siempre. El “dios” Sam Goudsmit empezó a “meterse” por medio. Se dedicó a revisar los artículos que Trigg rechazaba. Y algunas veces, vetó sus rechazos, aceptando lo que él hubiera rechazado. Aún así, la relación de ambos tenía “buen feeling” y en mayoría de las veces coincidían.

¿Por qué acabará siendo recordado Trigg en un futuro? No por su carrera investigadora, sino por haberle dado a Physical Review Letters “su estilo único.” Al menos así lo quiere creer el propio Trigg.

[1] Philip Ball, “Prestige is factored into journal ratings,” Nature 439: 770-771 (16 February 2006).

‘Y-factor’ measures quality as well as quantity of citations: combines the ISI Impact Factor (IF) and Google’s PageRank (PR) algorithm. The IF places Reviews of Modern Physics at the top of the list, but the Y-factor shifts to Physical Review Letters as the most influential.

[2] George L. Trigg, “The Origin of Physical Review Letters,” APS, Physical Review Letters, November 21, 2008.

I heard Sam Goudsmit calling my name. He said, “George! I’ve been wondering where you were. I have a job for you.” We found a place where we could talk easily, and he described his idea for Physical Review Letters and invited me to become Assistant Editor of the new journal. I was taking a sabbatical from my faculty position at Oregon State College (now University), spending my time at Harvard and MIT, in the academic year 1957-1958. 

La cruzada de Francisco M. Fernández contra Ji-Huan He y los He-sianos, un ejemplo de la “basura” que se publica en revistas “respetables”

dibujo20090201professor_jh_he1Los números y las cifras no engañan. Ji-Huan He es un “genio” chino de primera talla mundial. Basta buscar en el ISI WOS para comprobarlo. Buscando “Author=(he jh) AND Address=(Donghua Univ)” os encontraréis con 141 artículos, siendo el primero de 2002 y más de la mitad como único autor. En 7 años ha publicado 141 artículos. Tiene un índice-h de 26. Su artículo más citado, de 2006, ha sido citado 333 veces con una media de más de 83 citas al año. Ji-Huan He es un “genio” de primera talla mundial en Matemáticas Aplicadas.

¿Qué ha hecho J.-H. He por la ciencia? Inventar el método de He y sus variantes.

Seamos sinceros. ¿Qué ha hecho J.-H. He por la ciencia? Nada. Nada de nada. Rellenar artículos de revistas internacionales de prestigio con “basura”. ¿Por qué los editores de las revistas internacionales lo permiten? Nadie lo sabe. Es editor principal de una revista y pertence al comité editorial de muchas otras. ¿Cómo es posible? Nadie lo quiere saber. Nadie quiere mirarse su propio trasero…

dibujo20090201drfranciscom_fernandezFrancisco M. Fernández es un científico (químico teórico) “del montón.” Casi un “don nadie.” Pocos lo conocen fuera de Argentina. Basta buscarlo en el ISI WOS. Buscando “Author=(fernandez fm) AND Address=(INIFTA)” os encontraréis con 70 artículos, siendo el primero de 1980. En 18 años ha publicado 70 artículos. Tiene un índice-h de 13 (la mitad de He). Su artículo más citado, de 2004, tiene 53 citas (la sexta parte que el de He). Sus siguientes dos artículos más citados son de 1981, con 39 y 34 citas.  Francisco M. Fernández es un científico del montón en Matemáticas Aplicadas.

¿Qué ha hecho F. M. Fernández por la ciencia? Mucho. Es un especialista en análisis asintótico y de perturbaciones con énfasis en la estimación de autovalores. Sus trabajos son de calidad y se publican en revistas de prestigio.

¿Qué tienen que ver Fernández y He? Aparentemente nada. Aparentemente mucho. Fernández ha emprendido una cruzada personal, en solitario, con todos los editores de revistas internacionales en su contra, una cruzada para desenmascarar las “malas artes” de He. El “genio” He  ha redescubierto lo ya conocido hace más de 100 años (que yo personalmente estudié en un par de libros de Nayfeh hace casi 20 años). He ni siquiera domina la técnica que ha redescubierto (parece como si ignorara 150 años de Matemática Aplicada o ¿lo hará a propósito?). He, nadie sabe cómo es posible, plaga sus artículos con expresiones matemáticas incorrectas (¿erratas tipográficas?), errores “de cajón,” errores matemáticos graves, y no pasa nada… Los revisores de sus artículos no “ven” dichas erratas “cegados” como están por el “brillo” de la “genialidad” de He.

Veamos algunos hitos “históricos” de la cruzada emprendida por este “estoico” argentino.

Francisco M. Fernández, “Perturbation Theory for Population Dynamics,” ArXiv preprint, 20 Dec 2007 , nos muestra como el método de perturbaciones homotópicas, variante de una idea de He, es en realidad un desarrollo en serie de potencias (un redescubrimiento de algo conocido hace siglos, literalmente, desde Newton). Por supuesto, no logró que le publicaran el paper en ninguna revista. Las “fuerzas del lado oscuro” de los “malvados” He-sianos.

The homotopy perturbation method (HPM) is just the Taylor expansion of the solutions of the nonlinear systems about t=0. Therefore, the HPM does not give an acceptable qualitative description of the most important features of the evolution of the dynamical system in phase space. Since HPM have become quite popular and are currently being applied to a wide variety of fields, present results become important because they suggest that a more careful scrutiny of the approach’s performance is required. 

Francisco M. Fernández, “On Some Perturbation Approaches to Population Dynamics,” ArXiv preprint, 2 Jun 2008 . El resumen no deja dudas: los métodos de He y sus variantes fallan completamente (son inútiles) en un problema muy sencillo (en el que la solución se satura, por lo que el comportamiento local en t=0 no informa absolutamente nada sobre el comportamiento interesante a t>>1).

We show that the Adomian decomposition method [ADM], the time-series expansion [TSE], the homotopy perturbation method [HPM], and the variational iteration method [VPM] completely fail (they are completely useless) for a reasonable prediction of the evolution of even the simplest prey-predator systems.

Francisco M. Fernández, “On the application of homotopy-perturbation and Adomian decomposition methods to the linear and nonlinear Schrödinger equations,” ArXiv preprint, 11 Aug 2008 . En la misma línea que los dos anteriores pero con un comentario sobre su “cruzada” contra los editores en la introducción. Merece la pena repetirlo.

In a couple of papers I have shown that some of those results are useless and worthless. My criticisms have not been welcomed by the referees (most probably homotopy (HPM) devotees) and therefore they remain unpublished. (…) They authors [of an useless HPM paper] managed to publish their remarkably useless and nonsensical contribution in a research journal.

Fernández no está en contra de los investigadores que se aprovechan del “halo” de He y logran publicar sus artículos “basura” sobre ADM, TSE, HPM, o VPM fácilmente. ¡Todo lo contrario! Les ofrece una guía a seguir, un manual de instrucciones, para confeccionar sus propios artículos. ¡Qué buena persona eres Francisco! ¡Que D. te lo pague! No puedo resistir la tentación de copiárosla (sin fórmulas para no aburrir).

I will like to propose a generalization of the great achievement of the paper [previously published in a JCR international journal]. Instead of the simple [scalar] linear equation [used in the paper] one may consider [a linear system of] equations. A successful application of the HPM or ADM will lead to a simple vector power series. If you do not succeed in publishing your results you may try a simpler problem. Hopefully, the referee (most probably an homotopy devotee) will understand your simplified problem and then accept your manuscript. If your manuscript is accepted then you become a member of the homotopy club and then you can try something bolder re-submitting your previous paper.

Notice that you can thus write a paper for every solvable or unsolvable problem which you can think of. Most probably, all of them will be accepted in any one of the homotopy journals (unless you dare to criticize another homotopy result).

Fernández se refiere como “homotopy journals” a revistas internacionales tan prestigiosas como “Applied Mathematics and Computation” (en cuyo comité editorial se encuentra Wazwaz, a quien hay que enviarle el artículo He-siano), “Physics Letters A” (acepta “fácilmente” casi todo lo que se le envía), “Chaos, Solitons & Fractals” (el propio He es editor regional en China). Las 3 son de la gran editorial Elsevier. Fernández olvida mencionar (quizás a propósito) la revista fundada por el propio He “International Journal of Nonlinear Sciences and Numerical Simulation,” editada por Freund Publishing House. Por cierto, fijaros su factor de impacto:  Impact Factor (2007): 5.099. Una imagen vale más que mil palabras.

dibujo20090201impactfactorjcr2007journalfoundedbyhe

Francisco M. Fernández, “On the application of the variational iteration method to a prey and predator model with variable coefficients,” ArXiv preprint, 13 Aug 2008 . El método VIM es otra variante de los métodos de He. Permitidme repetir las conclusiones del artículo.

It is amazing the amount of nonsensical VAPA papers that have recently been published on the treatment of all kinds of linear and nonlinear problems. It is surprising the increasing interest of part of the scientific community in remarkably useless results. The list below shows only those I had time to peruse. The work discussed in this communication is just an example. The reader may also have a look at my previous analysis of other papers??.

Francisco M. Fernández, “On the application of homotopy perturbation method to differential equations,” ArXiv preprint, 15 Aug 2008 . Sigue con sus “perlas” contra el método HPM y los métodos VAPA.

HPM gives cumbersome approximations to simple solutions of trivial differential equations, yields a wrong result in one of the cases, and fails to provide the most interesting features of the solution to the only nontrivial example. They seem to be just toy problems for fiddling around with the HPM. It seems that one of the greatest feats of many VAPA applications is to produce power-series expansions to simple and trivial problems in a cumbersome and laborious way. In fact, VAPA have produced the worst research papers ever written.

Francisco M. Fernández, “Homotopy perturbation method: when infinity equals five,” ArXiv preprint, 18 Oct 2008 . Fernández, Fernández, por mucho que critiques…

My criticisms have not been welcome because they lack “the qualities of significant timeliness and novelty that we are seeking in this journal” and for that reason they remain unpublished outside arXiv. It is my opinion that VAPA have produced one of the greatest concentrations of bad papers I have ever seen. If the reader proves me wrong I will certainly apologize.

Francisco M. Fernández, “About homotopy perturbation method for solving heat-like and wave-like equations with variable coefficients,” ArXiv preprint, 17 Nov 2008 .

In the last years there has been great interest in the power-series solution of physical problems by means of homotopy perturbation method. [This method and variants] have produced the poorest and most laughable papers ever published. Notice, for example the application of homotopy perturbation method to obtain the Taylor expansion of the exponential function. Curiously, some journals believe that such contributions may be of interest for the scientific community. It is amazing that a supposedly respectable journal accepts such contributions. However, I may be mistaken and in a near future all the courses on calculus will be teaching homotopy perturbation theory instead of Taylor series.

Paolo Amore, Francisco M. Fernández, “He’s amazing calculations with the Ritz method,” ArXiv preprint, 29 Jan 2009 . La sorpresa en este artículo es que ya son dos “cruzados” y que mencionan directamente el nombre del “enemigo He.” Bueno, Amore (mejicano) es coautor y colaborador habitual en otros artículos con Fernández.

He’s article is an example of the kind of poor research papers that have been lately published by some supposedly respectable journals. It is part of such journals’ policy to reject comments that can reveal this unfortunate situation. One may ask oneself what is the profit that those journals get from such a practice.

Amigo, buen amigo, Fernández. Ahí has dado en el clavo: qué provecho saca una revista internacional por publicar esta “basura” … índices de impacto mayores … mayor número de suscripciones en países del tercer mundo …

Amigo Fernández, ánimo, sigue adelante, no estás solo. La Mula Francis y sus lectores están contigo.

Desde España también se critica las “fuerzas del lado oscuro” de los He-sianos, Wazwaz-sianos, El Naschie-ros, etc., y no sólo en la Ciencia de la Mula Francis. A diferencia de Fernández, argentino, los españoles estamos logrando publicar las críticas en revistas internacionales gracias a que somos “políticamente correctos.” Si se “lee entre líneas” se observan que las críticas son duras, pero si se “lee por encima” se observa todo lo contrario, de tal forma que un revisor He-siano, en su torpeza, acepta que le den una buena “colleja.”

Hoy en día, escribir papers requiere ser políticamente correcto. Un par de ejemplos para finalizar.

J.I. Ramos, “On the variational iteration method and other iterative techniques for nonlinear differential equations,” Applied Mathematics and Computation 199: 39-69, 2008 .

J.I. Ramos, “Generalized decomposition methods for nonlinear oscillators,” Chaos, Solitons & Fractals,
Article in Press, Corrected Proof.

Amigo Fernández, ¡que la fuerza te acompañe!

Cómo medir la calidad investigadora de una universidad y cómo abaratar sus costes

¿Cómo medir la calidad investigadora de una Universidad? Hay que empezar por decidir quién debe medir dicha calidad. Hay dos opciones claras: comités de expertos o comités de “funcionarios.” Los expertos son caros, los funcionarios baratos. Los expertos son “subjetivos,” los funcionarios “objetivos” (utilizan métricas basadas en citas). ¿Los expertos son fiables? ¿Los funcionarios pueden serlo? El problema no es sólo de España, es común a todo el Sistema Europeo de Educación Superior. El editor de Nature nos comenta el caso británico en “Experts still needed. There are good reasons to be suspicious of metric-based research assessment,” Editorial Nature 457: 7-8, 1 January 2009 . Este nuevo año cambiarán la “costosa” evaluación por expertos (Research Assessment Exercise, RAE) por la “barata” evaluación por funcionarios (Research Excellence Framework, REF). “Excelencia,” ¡qué bonito palabro!

El RAE se basaba en una evaluación por pares (expertos). Si un experto utilizaba medidas cienciométricas (como el número de citas o el índice de impacto de las revistas) lo hacía por su cuenta y riesgo. El nuevo REF se basará solamente en medidas cienciométricas (fundamentalmente el número de citas). Los “expertos” serán necesarios sólo para interpretar las medidas cienciométricas, luego deberían ser expertos en cienciometría, ¡enhorabuena para ellos! Estos “expertos” le darán el “toque experto” (light-touch expert review) a las evaluaciones.

Desde Nature nos recuerdan que las citas son una medida “pobre” de la calidad científica. Pobre, pero barata. Nos ponen el ejemplo del artículo más citado en Nature en 2007, citado 272 veces: la exposición de una nueva técnica experimental. Los editores consideran que en Nature se han publicado en 2007 artículos científicos más importantes y relevantes. Sin embargo, la “navaja” del número de citas no los destaca (aún). Estos trabajos, que pasarán a formar parte de los libros de texto, no reciben el número de citas que “merecen” aunque gradualmente acabarán recibiéndolas, según los editores de Nature.

En este contexto ¿cómo medir la calidad investigadora de una Universidad? En España lo tienen muy claro. Un ejemplo, la Universidad de La Rioja. Desde la ANECA también lo tienen claro, el problema en España es la “mala formación del profesorado y su poca movilidad.” La Universidad investigadora ¿y la DOCENCIA qué? Si queremos calidad, ¿necesitamos financiación?

En época de crisis, la financiación sufre. ¿Sufre también la calidad? Desde Nature también lo tienen claro: Eric Hand, “Universities struggle as value of endowments falls. Tough decisions need to be made about how to cut costs,” Nature 457: 11-12, 2009. Para que la calidad no sufra, hay que adaptarse a la nueva situación y adaptarse es un gran problema: “It’s a very big problem,” dice John Walda, presidente de la National Association of College and University Business Officers (NACUBO), en Washington DC. Más aún en el contexto de un sistema universitario básicamente privado, como el norteamericano, donde las 76 universidades más importantes (con presupuesto milmillonario en dólares) han sufrido una reducción media de un 30% en su presupuesto para el año que viene (según NABUCO). Un par de ejemplos: la Universidad de Harvard ha reducido su presupuesto para el año que viene en un 22% y la Universidad de Yale en un 25%. Las grandes universidades son víctimas de su propio éxito. Ganan mucho y lo invierten en bolsa; si la bolsa cae, los beneficios caen y los presupuestos también. Y los sueldos de los profesores y catedráticos, que la mayoría de las universidades norteamericanas ya han congelado.

El problema no es sólo americano. Aunque allí las cifras son más espectaculares. En Europa sólo dos universidades tienen un presupuesto milmillonario (en dólares) y son británicas: Oxford y Cambridge. En Europa el problema son los recortes en la financiación pública. Por ejemplo, en España todos nos acordamos de los recientes recortes presupuestarios de Esperanza Aguirre en las universidades madrileñas, a quienes debe unos 223 millones de euros, aunque para evitar protestas les ha dado un “bicoca” de 25 millones. Algo parecido está pasando en otras comunidades autónomas.

La Universidad de calidad tiene que aprender a “sacar dinero de entre las piedras,” quiero decir que los profesores universitarios deben buscar financiación “privada” para sus universidades. Proyectos con empresas. Obviamente, sólo los “mejores” investigadores lograrán esta financiación. ¿O no? Si eres investigador, ¿a qué te dedicas, a traer dinero a tu universidad o a mejorar tu CV de publicaciones? ¿A qué te gustaría dedicarte? ¿Cómo mejorará más la calidad investigadora de tu universidad, si te dedicas a proyectos de “dinero” con empresas o si te dedicas a escribir artículos muy citados?

En España, universidades “buenas” parece que hay pocas, pero investigadores “buenos” los hay por doquier, al menos si sólo tenemos en cuenta las citas a sus publicaciones. En Nature nos cuenta el caso británico, que creo que puede ser similar: Natasha Gilbert, “Good grades, but who gets the cash? Britain’s Research Assessment Exercise finds excellence more widespread than a focus on elite institutions would suggest,” Nature News 457: 13, 2009 . En el estudio de la RAE publicado el 18 de diciembre de 2008 , sobre 52,400 investigadores de las 159 universidades británicas, el 17% son considerados líderes mundiales en su campo (calificados con 4 estrellas) y el 37% son excelentes internacionalmente (calificados con 3 estrellas). Sin embargo, el 80% de la financiación pública se dirige sólo a 25 universidades. Lo que está claro es que la investigación la realizan los investigadores y no las universidades, aunque las buenas universidades alojan a la mayoría de los buenos investigadores.

No tengo datos sobre la excelencia investigadora de los investigadores españoles. Los datos del SCImago Research Group sobre países, basados en publicaciones en Scopus de 1996 a 2007, en función del índice-h indican que España ocupa el puesto # 12 (con 284 artículos citados al menos 284 veces), siendo EE.UU. el líder # 1 con 891, Reino Unido el # 2 con 538, Alemania el # 3 con 469 y Francia el # 4 con 432.

¿Se debe medir la calidad de la investigación universitaria en España de la misma manera que en el resto del mundo? Algunos especialistas indican que no, por ejemplo, Gaulberto Buela-Casal, “Ranking de productividad en investigación de las universidades públicas españolas,” Estudio financiado por la Dirección General de Universidades, Universidad de Granada, 2007 . Criterios como los usados en el Ranking mundial de Universidades de la prestigiosa Shanghai Jiao Tong University (artículos incluidos en revistas del Journal Citation Report, posesión de premios Nobel, distinciones académicas, publicaciones en Nature, Science, …) no nos tratan bien. En 2007, entre las 100 primeras universidades del mundo no hay ninguna española, siendo la primera la Universidad de Barcelona (entre 151 y 202), y sólo tenemos 9 en listado de las 500. Buela-Casal propone que “es necesaria la creación de rankings con criterios más adecuados para evaluar la calidad de la investigación en las universidades en España.”

Los criterios son los siguientes. Muestro los 3 primeros puestos y la posición alguna de las universidades andaluzas (sólo entre las 48 primeras).

Criterio 1. Proporción de artículos publicados en revistas indexadas en el Institute for Scientific Information (ISI) por profesor funcionario: # 1 Autónoma de Barcelona, # 2 Barcelona, # 3 Autónoma de Madrid, # 14 Córdoba, # 20 Granada, # 24 Almería, # 25 Jaén, # 31 Sevilla, # 32 Málaga, # 40 Cádiz y # 44 Huelva.

Criterio 2. Porcentaje de Profesores Catedráticos de Universidad con dos o más tramos de investigación y de Profesores Titulares de Universidad con uno o más tramos de investigación: # 1 Autónoma de Madrid, # 2 Carlos III, # 3 Pompeu Fabra, # 6 Granada, # 19 Córdoba, # 25 Sevilla, # 27 Málaga, # 31 Almería, # 38 Jaén, # 39 Cádiz, y # 42 Huelva.

Criterio 3. Proporción de Proyectos I + D por profesor funcionario: # 1 Pompeu Fabra, # 2 Carlos III, # 3 Autónoma de Barcelona, # 12 Córdoba, # 19 Almería, # 20 Granada, # 27 Pablo Olavide, # 28 Málaga, # 31 Sevilla, # 35 Cádiz, # 41 Jaén, y # 44 Huelva.

Criterio 4. Proporción de Tesis Doctorales por profesor funcionario: # 1 Autónoma de Madrid, # 2 Miguel Hernández, # 3 Autónoma de Barcelona, # 6 Córdoba, # 8 Granada, # 17 Málaga, # 20 Sevilla, # 30 Cádiz, # 32 Almería, # 42 Huelva, y # 44 Jaén.

Criterio 5. Proporción de Becas FPU por profesor funcionario por año: # 1 Pablo Olavide, # 2 Pompeu Fabra, # 3 Autónoma de Madrid, # 7 Granada, # 13 Córdoba, # 19 Sevilla, # 22 Málaga, # 38 Huelva, # 41 Cádiz, # 44 Jaén, y # 46 Almería.

Criterio 6. Proporción de Doctorados con Mención de Calidad por profesor funcionario por año: # 1 Pablo Olavide, # 2 Carlos III, # 3 Pompeu Fabra, # 12 Huelva, # 14 Granada, # 23 Almería, # 28 Córdoba, # 32 Sevilla, # 38 Cádiz, y # 43 Jaén.

RESULTADO FINAL: # 1 Autónoma de Madrid, # 2 Carlos III, # 3 Autónoma de Barcelona, # 10 Granada, # 14 Córdoba, # 26 Sevilla, # 29 Málaga, # 30 Almería, #40 Cádiz, #43 Huelva, y #44 Jaén.

Este ranking como casi cualquier otro ranking nos confirma cosas que ya sabemos y nos presenta ciertas sorpresas. Me sorprende el segundo puesto para la Carlos III y, en mi opinión,  la Universidad de Sevilla debería estar mejor colocada. Pero las estadísticas son las estadísticas. Las métricas son las métricas.

Medir es difícil y el resultado siempre depende de la “vara utilizada.”

Tecnocracia para la Técnica: Obama apuesta por la ciencia dirigida por un politólogo científico

Si fueras presidente de Estados Unidos y tuvieras que nombrar a un  destacado científico como el próximo asesor científico de la Casa Blanca, ¿a quién nombrarías? ¿Nombrarías a un Premio Nobel? ¿Nombrarías a alguien con un gran índice-h o un gran número de citas? ¿Nombrarías a alguien con muchas publicaciones científicas? ¿Nombrarías a un especialista en Física, en Química, en Biología, o en Ingeniería?

Barack Obama tiene su propio estilo y ha nombrado a John Holdren. ¿No lo conoces? Que “tonto” eres. Es especialista en Política Científica de la Universidad de Harvard y es “muy famoso”: tiene 10 artículos en el ISI Web of Science y un índice-h de 2. ¡Gran Curriculum Vitae científico!

Bueno, seamos serios. Es una buena apuesta. Un especialista en Política Científica es lo mejor para un cargo de Política Científica. Holdren como politólogo científico (no como científico) está muy bien considerado. En este campo no se publica mucho, se ejecuta desde puestos de alto rango. Holdren estudió Ingeniería Aeronáutica en el prestigioso M.I.T.  y obtuvo su doctorado en Física Teórica de Plasmas en 1970. Ha trabajado en los Livermore Laboratories, en Caltech y en UC Berkeley. Seguramente será una gran elección por parte de Obama aunque es de la cuerda de Al Gore y el Cambio Climático como prioridad científica y la Energía Nuclear como “visión de futuro”.

¿Quiénes acompañan a Holdren? Ha nombrado a la bióloga marina Jane Lubchenco. Esto es otra cosa. Con 77 artículos en el ISI Web of Science, un índice-h de 31 y con un paper en Science citado más de 1300 veces en 10 años, su prestigio científico está fuera de toda duda (por cierto “Human domination of Earth’s ecosystems,” Science 277: 494-499, JUL 25 1997). Ella será la próxima directora de la Agencia para la Protección de los Océanos y la Atmósfera (NOAA), que dirige buena parte de la investigación del Gobierno sobre medioambiente. Es una apuesta fuerte y por lo seguro.

Obama no quiere equivocarse con sus asesores científicos. Acompañan a los medioambientalistas anteriores dos prestigiosos especialistas en Biología aplicada a la Salud. Obama también anunció como asesor a Harold Varmus, Premio Nobel, especialista en retrovirus y en el virus del SIDA, exdirector de los Institutos Nacionales de Salud (NIH), tiene un índice-h de 30 aunque ha hecho gran parte de su carrera en altos cargos de política científica. También anunció a Eric Lander, índice-h de 22, con un paper con más de 3200 citas y especialista en la investigación del genoma humano.

Medioambiente, Salud y Energía parecen las apuestas fuertes de Obama en Ciencia.

Según Obama, “si volvemos a comprometernos con el descubrimiento; si apoyamos la educación científica para crear la próxima generación de científicos e ingenieros aquí mismo en Estados Unidos; si tenemos una visión para creer e invertir en cosas que aún no hemos visto, podremos dirigir el mundo hacia un futuro de paz y prosperidad.”

Nuevos índices-h (tipo Hirsch) para evaluar instituciones de investigación

El índice-h de Hirsch tiene algo “mágico” que atrae a la gente. Será que es fácil de calcular. Será que se ha publicado en la prestigiosa PNAS. Serán Hirsch ha conseguido dos artículos en PNAS sobre él. No lo sé, pero lo que sí sé es que a la gente le encantan las variantes del índide-h de Hirsch. Ronald Rousseau y Nadine Rons, “Another h-type index for institutional evaluation,” Current Science, 95: 1103, 10 nov. 2008 , han publicado otra variante del índice para medir la “calidad” de instituciones (universidades, departamentos o institutos de investigación) con gran número de investigadores.

Parten de la propuesta de Gangan Prathap de dos índices-h: h1 y h2 (“Time to publish: The scientific efficiency of nations,” Current Science, 91: 1438, 10 dec. 2006 ) propuestos para comparar países, también aplicables a instituciones. Lo más directo es utilizar el índice-h para una institución de la siguiente forma: El índice es h1 si la institución (conjunto de investigadores) ha publicado h1 artículos, cada uno de los cuales ha recibido al menos h1 citas. A esto le llaman índice-h institucional de primer nivel. Sin embargo, también se puede considerar este otro: El índice es h2 si la institución tiene h2 investigadores con índice individual al menos igual a h2 (es decir, cada uno con al menos h2 publicaciones citadas h2 veces). A esto le llaman índice-h institucional de segundo nivel.

Rousseau y Rons proponen un tercer índice h (de tercer nivel): Para cada científico de la institución, se asocia el conjunto de artículos que citan al menos uno de sus artículos. Para cada científico, el número de dichos artículos es un número característico. Ordenando dichos números para todos los científicos de la institución, proponen calcular un número h3, de científicos que al menos tienen h3 artículos que citan alguno de sus artículos.

Estos índices (h1,h2, y h3) han de ser calculados en un periodo de tiempo y contando las citas recibidas durante otro periodo de tiempo dado. ¿Por qué el índice h3 les parece más significativo? Porque sugieren que combina el impacto con el volumen de la investigación de la institución. El índice-h está correlacionado con el volumen de la producción, a más artículos, más índice-h. Rousseau y Rons proponen que no tener en cuenta todas las citas, sino sólo el número de diferentes artículos que citan artículos del autor, no elimina, pero reduce el efecto de las autocitas (especialmente, las autocitas de grupos de investigadores relacionados en la misma institución). Los autocitas no deben ser eliminadas completamente, por eso ellos afirman que su índice-h3 es más conveniente que los índices-h1 y h2. Además, su índice es menos susceptible a errores en las propias citas.

Como todos los índices-h, los autores recuerdan que el nuevo índice no tiene sentido en instituciones (grupos) de pocos investigadores.

Premio Nobel de Química 2008: El olvidado por los suecos que abandonó la ciencia

P. Balaram, “Missing Out on a Nobel Prize,” Current Science, 95: 997-998, 25 october 2008 , nos recuerda que el Premio Nobel de Química de 2008 que reconoce a Osamu Shimomura, Martin Chalfie y Roger Tsien por “el descubrimiento y desarrollo de la proteína fluorescente verde, GFP” ha olvidado a alguien. El “camionero” Douglas C. Prasher (excientífico descubridor del gen de la proteína GFP que abandonó la ciencia en 1997 tras una brillante, pero corta carrera).

GFP es una proteína que absorbe luz a 400 nm. y emite luz fluorescente a unos 505 nm. ¿Por qué “darle” el Nobel a la proteína GFP si hay cientos, miles, de proteínas “importantes” estudiadas en los últimos años? Porque GFP se ha convertido en la herramienta clave a la hora de visualizar la expresión de genes en células (la literatura científica en biología molecular y celular que la usa es inmensa y crece exponencialmente).

La historia de GFP empieza tras su descubrimiento por O. Shimomura et al. , “Extraction, Purification and Properties of Aequorin, a Bioluminescent Protein from the Luminous Hydromedusan, Aequorea,” Journal of Cellular and Comparative Physiology, 59: 223-239, 1962 [citado, hoy, más de 544 veces en el ISI WOS; Shimomura tiene un índice-h superior a 31], quien también caracterizó su cromóforo (la pequeña parte de la molécula que absorbe y emite luz) entre 1962 y 1979. Sin embargo, la proteína se hizo famosa (cual concursante de Gran Hermano) en muy poco tiempo, en sólo tres años, entre 1995 y 1997, pasó de ser una proteína que interesaba a unos pocos biólogos a una herramienta clave de primera magnitud en bioquímica y biología celular. ¿Cómo ocurrió este “reality show” científico?

En 1992, el gen que codifica GFP fue clonado por Douglas C. Prasher et al. “Primary structure of the Aequorea-Victoria green-fluorescent protein,” Gene, 111: 229-233, 1992 (artículo citado, hoy, más de 961 veces en el ISI WOS; Prasher tiene sólo 19 artículos en el ISI WOS con un índice-h superior a 15), lo que permitió determinar su secuencia (primaria) de aminoácidos. Martin Chalfie recuerda que en 1988, en un congreso, coincidió con Prasher y le pidió los detalles del gen, que recibió 4 años más tarde, con objeto de usar la GFP como marcador de la expresión de otros genes. El trabajo de Chalfie con dicho gen se publicó en las más altas esferas, M. Chalfie et al. “Green fluorescent protein as a marker for gene-expression,” Science, 263: 802-805, 1994 [artículo citado, hoy, más de 2854 veces en el ISI WOS; Chalfie tiene un índice-h superior a 41]. En paralelo, Roger Y. Tsien, trabajando con el gen GFP de Prasher, descubrió como ajustar la longitud de onda de la luz fluorescente en mutaciones de la secuencia de la GFP, en R. Heim, D.C. Prasher, R.Y. Tsien, “Wavelength mutations and posttranslational autoxidation of green fluorescent protein,” Proceedings of the National Academy of Sciences, 91: 12501-12504, 1994 [citado, hoy, más de 740 veces en el ISI WOS]. Nótese que Prasher es el segundo coautor. El artículo más famoso de R.Y. Tsien es “The green fluorescent protein,” Annual Review of Biochemistry, 67: 509-544, 1998 [citado más de 1762 veces en el ISI WOS; el índice-h de Tsien es mayor de 77].

Los trabajos de Chalfie y Tsien, hicieron que la “bella durmiente” de GFP, tras el “beso del príncipe” Prasher, se transformara en la “bella princesa” de la biología molecular. El trabajo y la contribución de Prasher fue fundamental. Pero el Premio Nobel sólo puede ser concedido a tres científicos por año y categoría. A Prasher le ha “tocado la china”.

¿Quién es Prasher? Sólo tiene 19 artículos en el ISI WOS, el más reciente de noviembre de 1997. ¿Dónde trabaja? Prasher trabaja de conductor de camiones (“shuttle cars”) en una mina de Huntsville, Alabama, ganando unos 10$ por hora. Recortes de financiación en el Departamento de Agricultura de los EEUU, para el que trabajaba, le hizo perder el puesto de trabajo y a abandonar la ciencia definitivamente. Le han preguntado “¿lamenta no haber recibido el Nobel? No, en absoluto, yo me quedé sin fondos y tuve que abandonar, ellos mostraron cómo podía usarse la proteína de forma práctica, esa es la clave del Nobel y ellos se lo merecen.”

El caso de Prasher nos hace pensar en ¿premiará el Comité Nobel alguna vez a un excientífico que no pertenezca a ninguna institución de investigación? Por supuesto que no, los premios Nobel durante el s. XX han premiado a científicos con una carrera académica fuera de toda duda (índices-h superiores a 30) aunque la mención al premio siempre destaca algún avance conceptual algún logro que ha transformado la disciplina del premiado. Prasher, como otros olvidados por el Comité Nobel, pasará a la historia por derecho propio. Un Premio Nobel a GFP es un Premio Nobel a Prasher (aunque el más “necesitado” no reciba un solo euro). ¿Cómo afectará la crisis financiera en EEUU a Prasher? ¿Peligra su puesto de trabajo?