La universidad de Zurich abandona los ‘rankings’: ¿están estos sobrevalorados?
Estas clasificaciones reducen los indicadores a una puntuación y se centran en criterios cuantitativos
La Universidad de Zurich (Suiza), una de las más prestigiosas del mundo, ha anunciado que abandona el ranking de Times Higher Education (THE), uno de los más importantes a nivel mundial. La universidad alegó en un comunicado publicado hace unas semanas que, aunque estas clasificaciones «pretenden medir de manera integral los diversos logros de las universidades en enseñanza e investigación, no pueden hacerlo, ya que reducen los indicadores a una puntuación y se centran en criterios cuantitativos».
Además, explica en el mismo escrito, que este tipo de clasificaciones «suelen centrarse en resultados que se pueden medir, lo que puede tener consecuencias no deseadas» como por ejemplo «llevar a las universidades a concentrarse en aumentar el número de publicaciones en lugar de mejorar la calidad de su contenido».
Los rankings son una herramienta útil a la hora de informarse acerca del desempeño de las universidades alrededor del globo. Aunque, hay que tener siempre en cuenta que estas mediciones pueden traer consigo ciertos sesgos porque dependiendo del ranking, se utilizan distintas metodologías o estándares para medir la calidad. En ciertas ocasiones, como la expuesta con la Universidad de Zurich, estas entidades se sienten presionadas para acatar esos estándares de calidad para escalar los máximos puestos posibles.
Además, como afirma el director de la Unidad de Rakings de la Universidad de Navarra, Ignacio de Lorenzo, «aunque en la nota de prensa no lo dicen, están valorando retirarse de otros rankings (además del THE), para lo que están tomándose su tiempo para examinar cada caso».
Fortalezas y debilidades
En conversación con THE OBJECTIVE , De Lorenzo también comenta que «la Universidad de Zúrich tiene todo el derecho de retirarse de THE pero, aunque estoy de acuerdo en algunas de sus razones, no comparto su enfoque». Prosigue explicando que «los rankings son modelos de análisis de las universidades, y como todos, tienen sus fortalezas y debilidades».
Los rankings son «una herramienta que se puede emplear mal, por ejemplo, cuando se establece como objetivo sólo mejorar en ellos, aunque esto no mejore la universidad», afirma el experto, a lo que añade que «pobre de la universidad que evalúe su investigación exclusivamente a partir de los rankings», ya que ni ellos mismos lo recomiendan.
Desde el punto de vista del alumno, De Lorenzo, explica que los rankings «son el único modo sencillo para un alumno extranjero de conocer las universidades del otro lado del mundo y hacerse cargo de su realidad». Dicho esto, nombra a la investigadora italiana Gloria Origgi, la cual considera que estas herramientas para medir son parecidas a «las estrellas de Amazon: sabemos que no son garantía de que un producto sea bueno, pero nos ayudan a orientarnos». Dada esta premisa, De Lorenzo añade que «es necesario complementar la información de las estrellitas con otros datos que nos ayuden a entender que lo que pagamos merece la pena (aprendemos, por ejemplo, a no fiarnos si hay sólo 5 comentarios de 5 estrellas)».
Efectos perniciosos de los ‘rankings’
En cuanto a los efectos perniciosos de los rankings, Ignacio de Lorenzo explica que él mencionaría dos importantes. «Primero, no se puede atribuir a los rankings en exclusiva la tendencia de primar cantidad sobre calidad, pues hay muchos otros actores del sistema universitario que han favorecido en el pasado estos enfoques, empezando por las agencias evaluadoras». Aquí pone de manifiesto que esa presión de publicar un mayor número de investigaciones es causa no solo del interés de las universidad en escalar puestos, sino también en la manera en la que las empresas evalúan la calidad de las entidades educativas.
El segundo de esos efectos perniciosos se encontraría en el hecho de que «los rankings tienen mecanismos para incorporar más datos que el mero recuento de artículos publicados, que matizan esta forma simplista de evaluar la investigación». Por tanto, si un gobierno o una universidad favorece modos de evaluar «erróneos» o si un investigador «hace trampas» para hacer mejorar a su universidad «no es culpa de los rankings».
Ignacio De Lorenzo finaliza afirmando que «es cierto que los rankings tienen mucho que mejorar en transparencia, así como separar sus servicios de consultoría (en los cuales se paga) con los de análisis (los rankings, gratuitos)». Pero, el experto también deja claro que, «entre no tener la información accesible, comprensible y valiosa de los rankings (o no emplear datos para evaluar la investigación de las universidades) y asumir sus sesgos y limitaciones», tiene por seguro que dejará la puerta abierta a estas herramientas de medición de calidad.