En España se publica mucho pero se descubre poco

Dibujo20131029 Publicar a cualquier precio - Revista SEBBM - 0177 - portada - Web

“La «democratización» de la ciencia conduce a que no se investigue para conocer, sino para publicar. Si no hay publicación, no hay carrera científica. El lema publish or perish como esencia de la labor del científico.” Nos lo cuenta Félix M. Goñi, “Publicar a cualquier precio,” Revista SEBBM, Sep 2013, que edita un dossier con cuatro artículos titulado “Publicar a cualquier precio.” Recomiendo a todos que lean dichos artículos, merece la pena. Permíteme un breve resumen de cada uno.

Sigue leyendo

Nature luchará contra la irreproducibilidad de los resultados de investigación

Dibujo20130501 research reproducibility

Una práctica habitual, que cualquier estudiante que ha tratado de reproducir los resultados de un artículo técnico ha vivido en sus propias carnes, es la omisión de algún detalle importante, clave para la reproducción de los resultados. Los “jefes” tenemos que aplicar grandes dosis de ingenio para rellenar estas omisiones y convencer a nuestros estudiantes de que no son intencionadas (nunca se debe fomentar la “mala ciencia” entre nuestros pupilos). ¿Por qué muchos artículos científicos son irreproducibles? Quizás porque en la revisión por pares no hay tiempo para reproducir los resultados del artículo. Muchos revisores leen el artículo de forma diagonal y aceptan o rechazan el artículo en función de “detalles” (tanto técnicos como de forma), sin entrar en el meollo de la cuestión. ¿Deben los editores de las revistas de prestigio exigir a los revisores que garanticen la reproducibilidad de los resultados? La revista Nature ha decidido que a partir del próximo mes así lo exigirá. En mi opinión, otras revistas deberían seguir la misma filosofía. Nos lo cuentan en “Announcement: Reducing our irreproducibility,” Editorial, Nature, 24 Apr 2013. En el número de hoy dedican un especial a este asunto “Challenges in irreproducible research,” Special, Nature, 1 May 2013.

Sigue leyendo

El coste real de las publicaciones científicas, ese gran desconocido

Dibujo20130328 open access - news dog

Se estima que la industria de las publicaciones científicas generó 9400 millones de dólares de beneficios en 2011, gracias a la publicación de 1,8 millones de artículos escritos en inglés. Por tanto, el beneficio medio por cada artículo alcanza los 5000 dólares. A esta cantidad hay que restar el coste de su gestión. ¿Cuánto dinero crees que le cuesta a una editorial publicar un artículo revisado por pares? En Nature son muy optimistas y afirman que los márgenes de beneficio son inferiores al 30%, con lo que estiman que el coste medio de producción de un artículo supera los 3500 dólares. La verdad, a mí me parece una cantidad muy grande. Los autores y revisores trabajamos gratis. El negocio de la industria de publicaciones científicas es todo un negocio. Un gran negocio. Cuando no se publican de forma abierta los costes y beneficios de un negocio de casi diez mil millones de dólares, algunos pensamos mal  (se nota que no he estudiado Ciencias Económicas). Nos lo cuenta Richard Van Noorden, “Open access: The true cost of science publishing. Cheap open-access journals raise questions about the value publishers add for their money,” Nature 495: 426-429, 28 Mar 2013.

La mayoría de las editoriales de revistas científicas de acceso abierto (open access) cobra a los autores un precio inferior al ingreso promedio de la industria. Se estima que el coste promedio de un artículo de acceso abierto en el año 2011 fue de 660 dólares (compara este número con los 5000 dólares de beneficio de la industria). Se estima que el coste promedio por artículo para la editorial de acceso abierto es de 300 dólares, con lo que se obtienen 360 dólares de beneficio (los márgenes superan el 50%, todo un negocio redondo).

Por supuesto, las cifras exactas son difíciles de conseguir. Los datos ofrecidos por las grandes editoriales son difíciles de analizar (pues hay que separar la parte correspondiente a publicaciones en revistas científicas, algo que no siempre es fácil). Se estima que Wiley tiene márgenes de beneficios del 40% y que Elsevier se queda en un 37%. Editoriales de acceso abierto como Hindawi afirman alcanzar un 50% de beneficios. El grupo Nature (NPG) se ha negado a publicar sus márgenes, incluso en un artículo en su propia revista. Un estudio del Cambridge Economic Policy Associates, afirma que las editoriales sin ánimo de lucro tienen márgenes del 20%, las universitarias del 25% y las comerciales del 35%. En mi opinión, pero repito que no soy experto, los costes de publicación de artículos científicos son mucho más bajos de lo que las grandes editoriales nos quieren hacer pensar.

La revista más grande del mundo, PLoS ONE, que cobra a los autores 1350 dólares por artículo, acepta el 70% de los artículos que recibe. Muchos congresos han sido criticados por su alta tasa de aceptación. Las revistas prestigiosas suelen tener índices de aceptación mucho más reducidos. Physical Review Letters publica menos del 35% de los artículos que recibe (si los autores quieren que su artículo sea de acceso abierto deben pagar 2700 dólares). Nature y Science publican menos del 8% de los artículos que reciben. ¿Está relacionado el prestigio con la tasa de aceptación? ¿Debe costar más un artículo de acceso abierto en una revista más prestigiosa? La realidad es que es así, las revistas más prestigiosas suelen cobrar más.

Recomiendo leer la entrevista a Jason Priem, investigador postdoctoral en el Centro Nacional para Síntesis Evolutiva (NESCent), en Eva Rodríguez, “El acceso abierto es solo el primer paso hacia un cambio más profundo en la publicación académica,” SINC, 27 Mar 2013. “La publicación en acceso abierto es mucho mejor para el científico, ya que no renuncia a su derecho con varias editoriales y conserva la capacidad de gestionar su propiedad intelectual. ¿Por qué no se estandariza en todos los países este sistema de publicación de acceso abierto a las investigaciones financiadas con fondos públicos? Los contribuyentes subsidian muchas cosas con pagos adicionales para poder usarlas, como por ejemplo el transporte público. En el mundo web, la obligación de publicar en acceso abierto favorece los modelos de negocio accesibles frente a los modelos cerrados.”

La revista PLoS ONE en 2012 y sus beneficios económicos en 2011

PLoS ONE ha publicado 23.468 artículos científicos en el año 2012, que han sido revisados por más de 60.000 científicos. El artículo más descargado este año pasado (227.928 veces desde que fue publicado el 26 de septiembre) afirma que “los síntomas de abstinencia de la marihuana podrían ser similares a los del tabaco.” Muchos de los artículos de PLoS ONE acaban siendo noticia en los medios por su contenido, como las limitaciones de la agricultura alternativa o del índice de masa corporal. También hubo artículos sobre pingüinos, desde su cuenta desde el espacio usando imágenes de satélite, hasta lo que hacen durante sus viajes. Incluso, artículos de autoayuda para pasar más tiempo al aire libredecidir qué comerperder peso o superar los miedos. Nos lo han contado K. Hoff, “PLOS ONE Papers of 2012”, Jan 3, 2013; S. Somphanith, “Thanking Our Peer Reviewers,” Jan. 7, 2013; S. Somphanith, “Penguins Punctuate 2012 for PLOS ONE,” Dec. 31, 2012.

Ya he hablado en varias ocasiones de PLoS ONE en este blog. En mi opinión, modelos de negocio como los de PLoS ONE acabarán siendo dominantes en el mundo de las publicaciones científicas en unos lustros. Digo “negocio” porque se trata de todo un negocio.

¿Cuáles habrán sido los beneficios de PLoS en 2012? Los ingresos de PLoS en el año 2010 fueron 15.061.395 dólares y en 2011 fueron 22.493.908 dólares. Los beneficios (ingresos menos gastos) fueron en 2010 nada menos que 2.851.504 dólares y en 2011 un poquito más, 4.152.244 dólares. ¿Cuánto crees que serán los beneficios en 2012? Han duplicado el número de artículos, así que… Fuente de los datos: PLoS 2011 Public Disclosure.

Más información en este blog: “Las revistas de acceso gratuito y la revista PLoS ONE,” 26 octubre 2012; “La revista de acceso gratuito PLoS ONE ya publica más de 2000 artículos al mes,” 20 mayo 2012; “Los pingües beneficios de PLoS ONE, la revista científica más grande del mundo,” 12 enero 2012; “PLoS ONE ya es la revista más grande del mundo en número de artículos,”  2 abril 2011; y “El buen negocio de PLoS ONE y el “pagar por publicar”,”  20 agosto 2010.

“El bueno, el malo y el feo” en las revistas de acceso gratuito (open access)

El número de revistas de acceso gratuito está creciendo a un ritmo anual increíble. El último año se añadieron 1200 al listado que aparece en el Directorio de Revistas de Acceso Gratuito (DOAJ, Directory of Open Access Journals). No es un problema que haya muchas, el problema es saber cuáles son buenas y acabarán teniendo un impacto significativo en los próximos años. ¿Enviarías un artículo a revisión al Electronic Journal of Biology? ¿Son buenos los editores de Aquatic Biosystems? ¿Recomendarías a uno de tus estudiantes de doctorado o postdocs enviar un artículo al International Journal of Computer Science and Network? Estas tres revistas están entre las últimas 78 que se incorporaron al DOAJ en el último mes. Por su juventud, estas revistas aún no tienen factor de impacto en el listado de Thomson Reuters y no lo tendrán en al menos tres años. ¿Qué índice bibliométrico podemos usar para determinar la calidad de una nueva revista?

Jelte Wicherts (Univ. Tilburg, Países Bajos) propone usar un índice de transparencia, que la revista explique en su web de forma clara cosas como su temática y lectores objetivo, sus procedimientos de revisión por pares y su tasa de aceptación/rechazo. Según Wicherts, las mejores revistas del DOAJ son las más tranparentes. ¿Cómo se calcula este índice? Mediante una encuesta, de manera similar a como se valoran películas. Se pasa un cuestionario entre un muestra de investigadores y se asigna un valor del índice de transparencia a la revista. Sin embargo, a mucha gente no le gusta este tipo de medida subjetiva y prefieren un índice bibliométrico numérico, en apareciencia más aséptico.

Un nicho de investigación no es fácil de descubrir. Los especialistas en bibliometría y quienes aspiren a serlo tienen aquí un problema interesante y útil que resolver. El desarrollo de un índice bibliométrico para medir la calidad de revistas científicas emergentes, que combine sencillez y precisión, será objeto de gran número de propuestas y publicaciones en los próximos meses. La bibliometría tiene mucho intrusismo entre matemáticos y físicos, como Hirsch, el autor del famoso índice-h, quizás alguno de los lectores de este blog esté ahora mismo pensando en cómo resolver este problema bibliométrico.

A bote pronto, se me ocurre un índice de impacto potencial calculado como el exponente de la potencia en un ajuste de la evolución anual del índice-h de la revista utilizando una ley de potencias; este índice sería útil para los primeros cinco años de vida de una revista. Obviamente, sin una investigación estadística detallada que confirme la “aparente” utilidad del índice, cualquier propuesta caerá en saco roto.

Los artículos publicados en una revista tras ser rechazados en otra reciben un mayor número de citas

Los 1.841 nodos son revistas y los enlaces indican el flujo de manuscritos reenviados de una revista a otra tras ser rechazados. Science, Nature y PNAS se encuentran en el centro. (C) Science. 

La historia de cada artículo, desde que es enviado por primera vez a una revista, hasta que acaba siendo publicado en ésta o en otra, está envuelta en un halo de misterio debido al anonimato implícito en la revisión por pares. Sin embargo, dicha historia influye en el impacto (número de citas) que tendrá una vez publicado, según un estudio bibliométrico publicado en Science. Una encuesta realizada por e-mail a unos 200.000 autores principales de artículos de Biología publicados en 923 revistas, a la que solo contestaron 80.748, ha descubierto que el número de citas a los artículos que fueron publicados en una revista tras haber sido rechazados en otra es mayor en promedio que el de los artículos que fueron aceptados en un primer envío. Más aún, muchos de esos artículos han sido citados desde la revista en la que originalmente fueron rechazados. Un resultado sorprendente que indica que o bien los artículos han mejorado tras la primera revisión gracias a los comentarios de la revisión por pares, o bien los artículos que van en contra del statu quo tienden a ser rechazados con más frecuencia, pero acaban causando un mayor revuelo tras ser publicados y con él acaban recibiendo un mayor número de citas (“En ciencia no hay mala publicidad: Los artículos más criticados alcanzan un mayor impacto,” 26 sep. 2012). El artículo técnico es V. Calcagno, E. Demoinet, K. Gollner, L. Guidi, D. Ruths, C. de Mazancourt, “Flows of Research Manuscripts Among Scientific Journals Reveal Hidden Submission Patterns,” Science Express, Published Online October 11 2012 [podcast inteview to Vincent Calcagno].

Obviamente, el análisis estadístico realizado muestra que los datos tienen mucha dispersión y que el beneficio en número de citas obtenido en los artículos reenviados es pequeño (aunque el valor p < 0,0001). Así que cuidado con extrapolar las conclusiones de este tipo de estudios (sobre todo se lo digo a los jóvenes). Además, este beneficio se obtiene solo si el artículo es reenviado a una revista dentro del grupo de revistas de temática afín (los autores han usado las categorías del ISI Web of Science); tratar de evitar que nos toquen los mismos revisores enviando el artículo a una revista con una temática colateral conduce a un menor impacto.

En resumen, un nuevo artículo que viene a confirmar lo que yo siempre le digo a mis estudiantes de doctorado: que te rechacen un artículo no es malo, más aún, puede llegar a ser incluso bueno. Por supuesto, yo siempre se lo digo en relación al valor que pueden llegar a tener los comentarios de los revisores en las mejoras que se puedan introducir en el artículo. Nunca imaginé que además pudiera estar correlacionado con un mayor impacto. Los estudios bibliométricos son cada día más sorprendentes.

Los editores “lobos” que corrompen a la “Caperucita” de los autores con revistas de acceso gratuito

Lo he comentado muchas veces en este blog, el pagar por publicar (pay-per-publish) de muchas revistas de acceso gratuito está generando comportamientos poco éticos tanto de los editores como de los propios autores. Las editoriales y los editores ven un negocio redondo (en la India aparecen cada semana nuevas revistas que tratan de aprovecharse de los autores). Y los autores ven una oportunidad única para publicar con una revisión por pares “ligera” muchos artículos, con auto-plagios, plagios y muchos otros comportamientos poco éticos. Ya se sabe que el cliente siempre tiene la razón. Jeffrey Beall (autor del blog “Scholarly Open Access“) lo denuncia en “Predatory publishers are corrupting open access,” Nature 489: 179, 13 September 2012. Por cierto, ya nos hicimos eco de la labor de Beall en este blog: “La lista de “lobos” entre las editoriales de revistas de acceso gratuito,” 31 enero 2012.

La lista de “lobos” entre las editoriales de revistas de acceso gratuito

Yo no conocía la lista de Jeffrey Beall (autor del blog Metadata) de “Predatory, Open-Access Publishers” [PDF link]; me he enterado gracias a J.M. Mulet (@JMMulet) un colaborador de Amazings. Los “lobos” editoriales editan revistas que se aprovechan de los autores como si fueran “corderitos.” Aprovechan el sistema de “pago por publicar” (“pay per publish“) de las revistas de acceso gratuito (“open access“) como un lucrativo negocio. Hay revistas de acceso gratuito muy buenas que respetan todos los procesos editoriales de una revisión por pares rigurosa. Pero también hay “lobos” con los que hay que tener cuidado, como Caperucita (los lobos en el cuento son los hombres adultos que disfrutan acosando a las jovencitas). Todo investigador senior conoce las editoriales de la lista de “lobos” de Beall, pero los investigadores jóvenes deberían consultarla. Por eso me permitiré presentaros un resumen breve de las editoriales que tienen revistas con índice de impacto en el ISI JCR 2010 de Thomson Reuters. Porque sí, lo has leído bien, algunas de estos “lobos” editoriales tienen revistas con índice de impacto (gracias a la política del ISI de admitir revistas del tercer mundo para que no parezca que solo aceptan revistas del primer mundo; ya se sabe que la mujer guapa cuando se maquilla no siempre mejora). Los jóvenes tienen que tener cuidado y no caer en la trampa del índice de impacto (pagar por publicar en una revista de un “lobo” editorial no da prestigio, pero quita las pelas).

Las editoriales de la lista de Beall de diciembre de 2011 que tienen revistas que aparecen en el JCR 2010 son:

  • Academic Journals (7 revistas impactadas en JCR 2010). Editorial nigeriana con más de 100 revistas de todas las áreas.
  • Academic Journals, Inc. (1 revista impactada en JCR 2010). Editorial pakistaní que dice que está afincada en New York.
  • Bentham Open (36 revistas impactadas en JCR 2010). Uno de las primeras editoriales que han aprovechado el negocio del acceso gratuito y que cuenta con más de 230 revistas de todas las áreas.
  • Dove Press (2 revistas impactadas en JCR 2010). Editorial médica neozelandesa que presume de un revista de alto índice de impacto y pide el oro y el moro por publicar.
  • Medwell Journals (1 revista impactada en JCR 2010). Editorial pakistaní con 34 revistas que evita decir dónde está afincada en su web.

Jeffrey Beall nos advierte también de editoriales que no son “lobos” pero son como “zorros” y hay que tener precaución con ellas.

  • Hindawi (27 revistas impactadas en JCR 2010). Editorial egipcia que ahora publica de forma independiente (pues antes de 2011 colaboraba como Sage). El número de revistas de Hindawi crece como los “gazapos” y ya acumula 31 títulos “Advances in …” y 32 títulos “Case Reports in …” Como Hindawi saca al “mercado” muchas nuevas revistas, muchos investigadores españoles reciben peticiones para formar parte de sus comité editoriales. Yo solo la recibí una vez y me negué. Pero otros han caído entre sus zarpas.
  • MedKnow Publications (14 revistas impactadas en JCR 2010). Editorial india que Beall calificaba de “lobo” y ahora califica de “zorro” que usa el viejo truco de llamar a algunas revistas con un nombre muy similar a una revista bien conocida y respetada, cambiando solo una palabra del título o reordenando éstas. Viejo truco con el que hay que tener cuidado.
  • PAGEPress (2 revistas impactadas en JCR 2010). Editorial italiana con unos 50 revistas. .
  • Versita Open (no tiene revistas impactadas pero Versita tiene 14 en JCR 2010). La versión online de una editorial polaca llamada Versita que comprende unas 200 revistas.

Como bien dice Jeffrey Beall: “These views represent the personal opinions of the author.” Pues lo dicho. Yo comparto lo que he leído y afirmo lo mismo. Si puedes evitar publicar en las revistas de los “lobos” editoriales de Beall, evítalo; publicando en ellas le harás un flaco favor a tu curriculum vitae (aunque podrás presumir de un mayor número de artículos en revistas con índice de impacto o que pronto lo tendrán). En mi opinión personal, quizás sesgada, es mucho mejor que inviertas tu valioso tiempo en enviar artículos a revistas de otras editoriales de mayor impacto real en la comunidad y que te darán prestigio.

Los peligros de “pagar por publicar” en las revistas científicas de acceso abierto

Las revistas de acceso abierto, donde todo el mundo puede leer los artículos gratis, necesitan una fuente de financiación y la fuente más obvia son los propios autores. El autor investiga, escribe el artículo, formatea el artículo con el estilo de la revista y paga todos los gastos una vez que el artículo ha sido aceptado tras una revisión por pares. El “pagar por publicar” es un ejemplo de un remedio peor que la enfermedad, al menos en matemáticas. ¿Qué pasa cuando una revista no tiene suficientes artículos aceptados como para financiar todos sus gastos? O quiebra, o acepta más de la cuenta… La integridad de todos los procesos editoriales, incluso de la revisión por pares, peligran, fuera de toda duda. A mí no me gusta “pagar por publicar” y no soy el único. Ilya Kapovich (Universidad de Illinois en Urbana-Champaign) me ha quitado las palabras en “The Dangers of the “Author Pays” Model in Mathematical Publishing,” Notices of the AMS 58: 1294-1295, October 2011.

Los autores pagan unos miles de dólares por cada artículo publicado porque les prometen que el proceso de revisión será rápido y todo el proceso de publicación será veloz (la mayoría de las revistas de “pagar por publicar” prometen esto en sus páginas web). Pocas revistas prometen un proceso de revisión riguroso, lento y fiable. Nadie paga por eso. Como resultado muchas de estas revistas están publicando artículos que bien podrían ir a la papelera y que solo sirven para engrosar la vanidad de sus autores.

Yo, igual que Kapovich y quizás como todo el mundo, recibo todas las semanas varios correos invitándome a publicar artículos en revistas de “pago por publicar” y muy pocas veces junto a la invitación me indican que en mi caso será gratis. No, no caigo en la trampa, aunque alguno de mis doctorandos de vez en cuando me recuerda que muchas hasta tienen índice de impacto. ¡Qué me importará que tengan índice de impacto! Pero si tenemos dinero (público, pagado por todos los españoles) y podemos gastarlo en publicar rápido y seguro “pagando por publicar.” No, lo siento. Yo no caigo en la trampa. Incluso cuando me invitan a publicar gratis, que se ha dado el caso, me he dicho, sino publico pagando en esta revista, por qué voy a hacerlo gratis (no quiero la caridad de nadie).

Incluso, a mí muy pocas veces, Kapovich dice que a él muchas veces más, me han invitado a pertenecer al comité editorial de una de estas revistas (envíe su CV y le consideraremos como posible miembro). Siempre he rechazado estas invitaciones. Si no publico en una de estas revistas, porque me niego a hacerlo, por qué voy a pertenecer a su comité editorial. Digo yo. Mucha gente no comparte mi opinión (conozco a varios colegas que me han confesado que en la vida publicarán un artículo en algunas de las revistas en cuyo comité editorial se encuentran incluidos; da prestigio estar, pues ya está y “punto pelota”).

La revisión por pares en matemáticas (sobre todo en su parte más pura) es muy difícil, ya que el revisor debe garantizar que cualquier demostración en el artículo aceptado sea correcta (o al menos fuera de toda duda obvia). Ello requiere un estudio detallado de la demostración, paso por paso, revisando todos y cada uno de los argumentos, un análisis que el revisor realiza gratis y que le puede requerir meses de trabajo. No se puede realizar una revisión por pares con urgencia y aceptar cualquier demostración que parezca “razonable” porque el editor nos meta presión. Las demostraciones del artículo tienen que ser correctas (hasta donde los conocimientos matemáticos del revisor sean capaces de llegar). Si el revisor tras varios meses estudiando una demostración observa que es incapaz de saber si es correcta o no, debe indicarle al editor que busque otro revisor alternativo, que él no está preparado para cumplir con su labor con un 100% de fiabilidad. La revisión por pares en matemáticas no puede ser rápida y ágil, si queremos que sea fiable y rigurosa. Una demostración matemática no puede ser creíble, tiene que ser correcta.

Un problema añadido del sistema de “pago por publicar,” como nos indica Kapovich, es que muchos matemáticos reciben muy poco dinero público para financiar sus proyectos de investigación. Ya se sabe que a un matemático le basta con papel y lápiz para trabajar (hoy también necesita un ordenador). El dinero suele utilizarse para pagar viajes a congresos, cursos de verano, visitas a colegas y otras actividades de cooperación científica. Pocos investigadores piden dinero específico para “pagar por publicar” y cuando lo piden, muchos evaluadores de sus proyectos eliminan dicha partida por considerarla “inútil” (que publiquen donde es gratis, las revistas de “pago por publicar” son para los que escriben artículos de baja calidad).

Obviamente, en ciertas ciencias experimentales, este asunto es muy diferente. Publicar el primero y poder reclamar la prioridad de un descubrimiento merece “pagar por publicar” de la manera más rápida posible. Por ejemplo, los proyectos de investigación sanitaria en EE.UU., financiados por el NIH, deben incluir una partida específica para “pagar por publicar.” El NIH tiene una política que pretende favorecer la publicación en revistas de acceso abierto.

En mi opinión, que comparte Kapovich, la mejor manera de favorecer que todo el mundo tenga acceso a nuestras publicaciones científicas no es “pagar por publicar” sino publicar los manuscritos (preprints) en servidores como ArXiv. Allí todo el mundo puede acceder a nuestro artículo de forma gratuita y sin que el autor tenga que pagar nada. Además, la mayoría de las revistas internacionales aceptan que los artículos aparezcan en ArXiv, tanto antes de la revisión por pares como tras ella, aunque siempre en formato de manuscrito (la diferencia con el formato final de la revista es ridícula, puramente estética).

¿Qué opinas de todo esto? ¿Te parece necesario que todos los proyectos de investigación con financiación pública tengan una partida específica para “pagar por publicar”? ¿Debería haber una ley (o recomendación oficial) que obligara a (o recomendara) publicar todos los artículos de matemáticas en forma de manuscrito en ArXiv?

Ya está disponible el JCR (Journal of Citation Reports) del 2007 (o la revista Nature “remonta” y “vence” a Science)

Se acaba de publicar el nuevo Journal of Citation Reports (JCR), correspondiente al año 2007. Lo más llamativo para mí es que Nature vuelve a “vencer” a Science (quien la superó en las dos últimas ediciones. La política editorial de Nature, de diversificarse o dividirse en múltiples revistas diferentes, a la que personalmente yo le achaco la pérdida de la contienda, ahora se nos muestra que ha sido una buena idea y que puede seguir siendo la “vencedora”. En el JCR 2007 puedes observar que Nature Reviews Molecular Cell Biology alcanza 31.921 (5to puesto absoluto), Nature Reviews Cancer (29.190, 9no. puesto), Nature (28.751, 10mo. puesto), Nature Reviews Inmunology (28.300, 12vo. puesto), Nature Medice (26.386, 13vo. puesto), Nature Inmunology (26.218, 15vo. puesto), Nature Genetics (25.556, 17vo. puesto), y Nature Reviews Neuroscience (24.520, 19vo. puesto). Es decir, de las 20 revistas de mayor índice de impacto, 8 son del grupo del Nature Publishing Group. A eso se le llama una política editorial bien hecha.

Por otro lado, “vuelve la cordura” en el campo de la Óptica y Fotónica. Todo el mundo “sabe” que Optics Letters es una revista mejor y de más prestigio, donde es muchísimo más difícil publicar, que Optics Express (donde, además, para publicar hay que pagar, aunque con la ventaja de el acceso a los artículos es gratuito), sin embargo, en los últimos años había sido al revés. En el JCR 2007, además, estas dos revistas de la OSA (Optical Society of America) reinan en el área, siendo la primera y la segunda. Enhorabuena a la OSA.

Por otro lado, España pasa de 30 a 35 revistas en el JCR Science Edition y de 2 a 8 revistas en el JCR Social Science Edition (noticia presentada en un buen blog de Bibiometría, que recomiendo encarecidamente). Mucha gente se ha hecho eco de esta noticia (como APEI Garabuya).

Por cierto, recomendable y fresca lectura de cara al verano (cómo una empresa se defiende con uña y carne para no perder beneficios, por supuesto, me refiero a ISI Thomson Reuters y su pugna contre el índice de prestigio).

PD: ¡¡pobrecito de mí!! ¿para cuándo podré publicar en Nature o Science?

PDPD: ¡¡pobrecito de mí!! ¿para cuándo podré publicar en Optics Letters?