¿Te apetece comparar tu universidad (si es pública y española) con las demás?

Overworked businessman.

El grupo de investigación CTS-261 de la Universidad de Granada publica todos los años un ranking en producción y productividad en investigación de las universidades públicas españolas (Ranking 2011, Ranking 2010, Ranking 2009, Ranking 2008). También publica la relación de la productividad y eficiencia en investigación con la financiación de las comunidades autónomas españolas (Relación 2010, Relación 2009). ¿Se puede comparar la universidad europea con la del resto del mundo? Se está desarrollando un nuevo ranking específico para la UE, porque los patrones marcados por EEUU no son adecuados y la comparación está muy sesgada a favorecer a estos últimos.

¿Cuál es el rendimiento en el doctorado de los becarios en España? Diferencias entre CSIC y universidades públicas, entre los becarios FPU y FPI, y en función de la normativa de cada universidad. La normativa del doctorado en España ha pegado muchos bandazos y palos de ciego en los últimos años, culminando con las actuales Escuelas de Doctorado, cuya implantación no es sencilla. La Mención de Calidad de los programas de doctorado no es una buena Mención de Excelencia. El Doctorado en la UE necesita una normativa común que permita una convergencia real. Y no solo el doctorado, sino también la selección del profesora, en España centrada en la acreditación y el índice impacto del ISI WoS como índice bibliométrico.

La Universidad de Málaga, a la que estoy afiliado, aparece en el ranking de 2011 de producción y productividad de investigación en los siguientes puestos: Ranking por artículos en revistas JCR, producción total 21/48 y productividad (producción/profesor) 41/48; ranking por tramos de investigación (sexenios), producción total 17/48 y productividad (sexenios/profesor) 30/48; ranking por proyectos I+D, producción total 17/48 y productividad (proyectos/profesor) 32/48; ranking por tesis doctorales, producción total 20/48 y productividad 37/48; ranking por becas FPU, producción total 10/48 y productividad 12/48; ranking por doctorados con mención hacia la excelencia, producción total 29/48 y productividad 45/48; ranking por patentes, producción total 12/48 y productividad 17/48; y ranking global de producción y productividad en investigación, producción total 18/48 y productividad 37/48. A la vista de estos datos se puede afirmar que la Universidad de Málaga es grande, pero poco productiva.

Además, “la Universidad de Málaga en todas las ediciones ha ocupado puestos similares en productividad (39, 38, 38, 37). Ha mantenido una regularidad en su investigación, que no es sinónimo de excelencia, por supuesto y que, por tanto, plantea la necesidad de mayores esfuerzos para mejorar sus puestos en las siguientes ediciones del ranking.”

Os copio un extracto de las conclusiones generales del ranking (y os recomiendo su lectura para más detalles):

“Las diez universidades más productivas en investigación en España en el año 2011 fueron las siguientes: Pompeu Fabra, Pablo de Olavide, Rovira i Virgili, Miguel Hernández, Autónoma de Barcelona, Politécnica de Valencia, Politécnica de Cataluña, Barcelona, Carlos III y Autónoma de Madrid. Las primeras universidades en  este ranking (Pompeu Fabra, Pablo de Olavide y Rovira i Virgili) ocupan los puestos 28, 38 y 27, respectivamente, en el ranking de  producción total. En el lado contrario, la Universidad Complutense de Madrid, por ejemplo, ocupa el segundo puesto en producción y el 29 en productividad. Por tanto, existen grandes diferencias en cuanto a los recursos humanos con los que cuentan las universidades españolas, pero éstas también difieren, y mucho, en la productividad de esos recursos humanos.”

“Al ser ya la cuarta edición de este ranking se puede observar la evolución de las universidades públicas españolas y la tendencia que éstas siguen en cuanto a la investigación que se realiza en ellas. Comparando los datos de los años 2008, 2009, 2010 y 2011 se pueden extraer varias conclusiones. En primer lugar, que hay diez universidades (Pompeu Fabra, Pablo de Olavide, Rovira i Virgili, Miguel Hernández, Autónoma de Barcelona, Politécnica de Valencia, Politécnica de Cataluña, Barcelona, Carlos III y Autónoma de Madrid) que en todas las ediciones, y en diferente orden, siempre han ocupado los diez primeros puestos de la clasificación elaborada. Siempre han mantenido un elevado nivel de productividad.”

Más información leyendo el artículo que publica el ranking…

“La mejora de esas posiciones, de la visibilidad internacional de la ciencia que se hace en España y de la productividad de las universidades españolas, debería ser uno de los objetivos fundamentales de los gobiernos de las instituciones educativas, de las comunidades autónomas y del gobierno central. Sin embargo, para ello se requiere financiación y no parece que ésta vaya a aumentar en el contexto de crisis económica actual. Esto es un problema y un desafío para el sistema universitario español, integrado en el EEES y, por tanto, dentro de un contexto competitivo, en el que las mejores universidades atraerán mejores alumnos e investigadores y conseguirán más financiación, relegando a un segundo plano a las que se estanquen.”

Enhorabuena a todos, este blog logra el cuarto puesto en el ranking wikio de ciencia

Gracias a César, Experientia Docet, me he enterado que este blog ocupa el puesto número 4 en el ranking Wikio para blogs de ciencia correspondiente a este mes de septiembre; el mejor puesto logrado hasta ahora, ya que en agosto fue el número 7 y desde enero de 2010 orbita entre el 7 y el 13. Supongo que la razón detrás del cuarto puesto han sido mis artículos publicados en Amazings.es (el blog número uno indiscutible de la divulgación científica en español). Más aún, por primera vez, este blog ha entrado en la lista de los 100 primeros (puesto 95) en el ranking general; desde enero de 2011 orbita entre el 104 y el 158. Muchos blogs se hacen eco de la lista Wikio, como Daniel en Eureka, que nos recuerda que el ranking sirve para conocer nuevos blogs interesantes de ciencia. Copio los 20 primeros blogs (sin los tres anteriores), todos muy conocidos por todos: Amazings.es, Genciencia, Fogonazos, Ciencia Kanija, Eureka, Magonia, Ojo Cientifico, Tecnologia obsoleta, Gaussianos, Ciencia en Espaciociencia, Sonicando, El Pakozoico, La Ciencia y sus Demonios, Apuntes científicos desde el MIT, Redes en la Red, Maldita Ciencia, La ciencia es bella, La revolución naturalista, Historias de la ciencia, …

Por cierto, este blog también participa en el II Concurso de Divulgación Científica CPAN (Centro Nacional de Física de Partículas, Astropartículas y Nuclear). El blog que ganó el año pasado los 1000 euros del premio, La Hora Cero de Carlos, cerró en junio de 2011 (una pena); obtuvo una mención accésit y 500 euros nuestro amigo MiGUi, así como la web de divulgación del Centro Nacional de Aceleradores (CNA). Yo no participé (solo lo hicieron 12 blogs), aunque me enteré de la convocatoria y estuve a punto de hacerlo, pero me dije, para qué. Al enterarme del accésit de MiGUi me dio envidia (sana) y me quedé con la espinita clavada. Por ello, este segundo año mi participación era obligatoria. Por cierto, si tienes un blog de divulgación de la ciencia, con énfasis en la física y en la física de partículas, te recomiendo que participes. El plazo de presentación de trabajos finaliza el próximo 30 de septiembre. Participo también con un artículo de divulgación amateur (sobre la historia de la teoría de cuerdas).

Y ya que estamos, también envié un artículo (sobre un curioso fenómeno luminoso que se observó alrededor del transbordador espacial Endeavour en el vídeo de la NASA de su última misión) al I Certamen FECYT de comunicación científica organizado por la Fundación Española para la Ciencia y la Tecnología (FECYT). El plazo ya ha finalizado, lo siento mucho por los que hubieran querido participar. El jurado fallará antes del 15 de septiembre de 2011. Cruzo los dedos (hay tres premios de 500 euros para la categoría de artículos de divulgación amateur). Ya os informaré de quienes han sido los ganadores.

Por supuesto, en el caso de que mis artículos en estos concursos de divulgación no obtengan ningún premio los publicaré en este blog; en el otro caso, que obtengan algún premio, publicaré un resumen y un enlace a la web donde aparezcan publicados. Resulta, sé que es una chorrada pero así es, que tenían que ser artículos inéditos (los ya publicados solo podían participar si lo habían sido en medios de comunicación de masas y este blog, obviamente, no lo es).

El físico español Ignacio Cirac es firme candidato al Premio Nobel: el cuarto en un estudio que lo coloca por delante de Ed Witten

Dibujo20090708_Phys_Author_Rank_20_best_1967_1973_and_2006

Phys Author Rank Algorithm es un sitio web que mide el mérito científico de investigadores (físicos) que hayan publicado en revistas Physical Review (1893-2006) de la American Physical Society (APS). Ignacio Cirac aparece en el sexto lugar con solo dos Premios Nobel por delante, por lo que es el cuarto en la lista de candidatos al Premio Nobel según el nuevo algoritmo, una variante del algoritmo Page Rank de Google. El mérito de un físico se mide por el porcentaje de físicos que tienen una posición mejor en el ranking. Una novedad de este nuevo algoritmo es que presenta la evolución temporal de este ranking (más abajo tenéis el resultado para (Juan) Ignacio Cirac comparado con el de Edward Witten). En resumen, una nueva herramienta para añadir métricas de calidad en nuestro curriculum vitae (para contentar a los de la ANECA, “enamorados” como están de los números).  El artículo técnico que describe el nuevo algoritmo es Filippo Radicchi, Santo Fortunato, Benjamin Markines, Alessandro Vespignani, “Diffusion of scientific credits and the ranking of scientists,” ArXiv, Submitted on 6 Jul 2009. No entraré en detalles técnicos del algoritmo (método SARA, Science Author Rank Algorithm, aplicado a redes de citas ponderadas, WACNs, Weighted Author Citation Networks).

En la tabla que abre esta entrada aparecen los mejores 20 físicos en los años 1967-1973 (izquierda) y en los años 2003-2004 (derecha). La notación de los premios es NP=Premio Nobel, WP=Premio Wolf, BM=Medalla Boltzmann, DM=Medalla Dirac y PM=Medalla Planck. En gris los científicos que todavía no han recibido un premio de los grandes. ¿Estarán en la lista de la derecha los Premios Nobel de Física en los próximos años? Solo el futuro lo sabe. Pero los autores del estudio así lo creen. En dicho caso Ignacio Cirac cada día es más firme candidato al Premio Nobel de Física. Los españoles se alegrarán.

Por cierto, si no eres físico, tendrás que esperar un poco, ya que los autores afirman en su web que pretenden aplicar el algoritmo a otras bases de datos bibliográficos.

Dibujo20090708_Juan_Ignacio_Cirac_and_Edward_Witten_Phys_Author_Rank_Algorithm_Result

¿Cómo se comparan J.I. Cirac con, por ejemplo, Ed Witten? La figura muestra, a la izquierda, la evolución del prestigio de Cirac y a la derecha la de Ed Witten. El prestigio (mérito) de nuestro compatriota ha estado subiendo desde ser un físico del montón a principios de los 1990, hasta convertirse en firme candidato al Nobel en los últimos años. El prestigio de Witten empezó siendo bueno y se convirtió en uno de los mejores del mundo a mediados de los 1980, alcanzando su cénit alrededor del año 2000. Nota que en los últimos años, Cirac está mejor posicionado que Witten y sigue mejorando. Por cierto, en estos diagramas, el histograma (barras en gris) tiene una altura que representa la posición relativa del autor (en % en el ranking) y una anchura que mide el periodo de tiempo considerado. Un valor pequeño indica mejor posición en el ranking. La mejor posición de Cirac ha sido 0.0031% (de cada 10000 físicos solo tiene por encima a 31). La mejor posición de Witten ha sido mejor aún, un 0.0009% (solo con 9 físicos de cada 10000 por encima). La curva naranja es una interpolación para facilitar la interpretación de los datos.

Lo dicho, si sigue así, y seguirá así, Nacho acabará por darnos un Premio Nobel en Física para España (aunque ya hace muchos años que no trabaja en España, todos los españoles nos alegramos por nuestro compatriota).

Para los críticos, la siguiente afirmación de los propios autores: “It is clear that the obtained ranking is just an indicator and cannot embrace the multifaceted nature and the many processes at the origin of authors’ reputation. The obtained ranking has therefore to be considered as an extra element to be used with grain of salt.

Las conclusiones de los autores del ranking de universidades españolas

El Mundo publica una clasificación de las universidades españolas por carreras, todos los años. Este año El País publica la clasificación de las universidades españolas del Instituto de Análisis Industrial y Financiero (IAIF) de la Universidad Complutense de Madrid. Cada uno es completamente diferente. Yo creo que lo más interesante del estudio no es el ranking sino las conclusiones que han obtenido los que han realizado el estudio a partir del ranking. Permitidme resumirlas (el documento .doc tiene 153 páginas).

Antes de nada, os recuerdo que en este tipo de estudios la costumbre en España es extralimitarse a la hora de extraer conclusiones. ¿Realmente se puden obtener del estudio las siguientes conclusiones?

“El trabajo está basado en la metodología del análisis factorial que sintetiza la información de las variables altamente correlacionadas en un indicador compuesto, hipotético y no observable. También se puede resaltar que todos los indicadores son de carácter relativo, evitando así posibles derivados del tamaño de cada institución.”

La posición de cada universidad en el ranking no es lo más importante. Lo relevante es el valor real del índice, reflejado aquí como distancia relativa respecto al líder. En muchos casos, la diferencia entre universidades es de unos pocos puntos o incluso centésimas de punto.”

“La gran mayoría de los planes de estudios propuestos recientemente para adaptar la universidad española a las exigencias de “Bolonia” se basa en acuerdos que reflejan el poder de los departamentos a los que se adscribe el profesorado, mientras que los posibles análisis o estudios con respecto a las necesidades futuras de conocimientos y habilidades de los estudiantes apenas se consideran.”

Una evaluación obligatoria (del profesorado) que influya en los complementos salariales (los quinquenios) y en el acceso a plazas de promoción, podría incentivar a los profesores para dedicarse con más ímpetu a sus actividades docentes.”

Un sistema de universitario donde la excelencia ha perdido importancia y donde la descentralización de la educación no ha estado acompañada de un nivel mínimo de control por parte del Estado. Falta control de calidad y autocrítica de escuelas, institutos y universidades.”

La selección del personal docente e investigador es un proceso poco transparente. En cuanto a los requisitos generales para poder ser acreditado se debería exigir un nivel mínimo de inglés, publicaciones en revistas indexadas en el ranking JCR, y unas evaluaciones docentes positivas (excepto para la acreditación de profesor ayudante). Los procesos de selección deberían garantizar la transparencia mediante el uso obligatorio de internet para publicar de forma instantánea todas las decisiones y avisar a los candidatos por correo electrónico de las mismas.”

“La calidad de las tesis doctorales en España es muy diversa, lo que no se refleja en su calificación al ser costumbre que los doctorandos obtengan de forma generalizada un “cum laude”. Se deben valorar las diferencias en su calidad. [Debería ser obligatoria] para poder leer la tesis doctoral la publicación previa de los resultados en revistas de prestigio internacional dentro el campo científico del tema de la tesis. El número de “cum laúdes” se [debería] limitar a un 10 por ciento y el máximo número de sobresalientes a un veinticinco por ciento. Estos requisitos permitem a los que contratan a estos investigadores que pueden valorar su nivel académico real.”

“Otro problema que afecta a la calidad de las universidades es el bajo nivel salarial de los profesores. Un aumento generalizado de los salarios no tiene en cuenta que la productividad de un amplio conjunto de profesores es mínima, por lo que los cambios retributivos deben asociarse a la productividad.”

“La excelencia ha de ser el requisito central para progresar en la universidad sustituyendo al apadrinamiento [“enchufismo”] que actualmente domina la carrera académica. Se requiere el establecimiento de incentivos financieros que discriminen las instituciones académicas en función de su productividad y su calidad.”

No sé el porqué pero a mí la última frase es la que me resulta más reveladora. El puesto en el ranking no importa, pero eso sí, mide muy bien la productividad en docencia e investigación de cada universidad, habría que financiar a cada universidad por su productividad en docencia e investigación, entonces ¿importa el puesto?

Autores del estudio: Mikel Buesa (el “jefe” y, se le ve el plumero, también el “comentarista”) y Joost Heijs y Omar Kahwash (los “curritos”).

PS (26/mayo/2009): Noticia y comentarios en Menéame (sin desperdicio) “La universidad pública apuesta por la investigación; la privada, por la docencia,” =>”Ninguna universidad española está entre las 100 mejores del mundo. Hay que rebuscar, incluso, para encontrarlas entre las grandes europeas. Pero, ¿cómo se relacionan entre ellas? ¿Cuál es la mejor universidad de España? El Instituto de Análisis Industrial y Financiero (IAIF) de la Universidad Complutense de Madrid acaba de elaborar un listado que evalúa docencia e investigación en las 69 universidades presenciales de España. Entre las 25 mejor clasificadas, una privada, la que encabeza el ranking, la Universidad de Navarra.”