Nuestros cursos:

Nuestros cursos:

5 Repercusión de los rankings y respuestas a las críticas

Desde su aparición, los rankings han merecido profundas objeciones conceptuales y críticas estimuladas por las posiciones no siempre favorables para muchas comunidades académicas en relación a sus expectativas. No podemos detallar aquí la innumerable cantidad de cuestionamientos, pero es importante señalar que la fuerza indudable de la tentación de clasificar a las instituciones por razones de mercado y opinión pública, además de prestigio de las comunidades académicas en juego, no sólo no debilitó el proceso de construcción de estos indicadores sino que se fortalecieron en la opinión pública y en su repercusión en las comunidades académicas.

La respuesta a las críticas fue la creación de un verdadero movimiento académico vinculado favorablemente con la elaboración de los rankings traducido en la creación del IREG (Observatory on Academic Ranking and Excellence) que fue establecido en 2004 en el marco de la Reunión de Seguimiento de la Mesa Redonda sobre “Indicadores Estadísticos para Evaluación de la Calidad de Instituciones de Educación Superior: Metodologías de Ranking y Tablas de Posiciones”, convocada conjuntamente por el Centro Europeo de la UNESCO para la Enseñanza Superior (CEPES) y el Instituto de Políticas de Educación Superior (IHEP).

El grupo de especialistas articulado en torno al IREG dio a conocer, durante la segunda reunión formal sobre rankings, celebrada en Berlín, Alemania (mayo de 2006), el documento titulado “Principios de Berlín sobre los Rankings de Instituciones de Educación Superior”. Con posterioridad a este ejercicio, el trabajo del IREG se ha enfocado a la organización del Observatorio Internacional sobre Rankings Académicos y Excelencia, a través del cual se difunde información sobre los principales rankings de carácter nacional e internacional, así como el programa de actividades del grupo de trabajo.

El documento de Berlín sostiene los siguientes principios: a) Ser una entre múltiples y diversas aproximaciones a la evaluación (assessment) de insumos, procesos y resultados de la educación superior. b) Reconocer la diversidad de instituciones y tomar en cuenta sus diferentes misiones y objetivos. c) Especificar el contexto lingüístico, cultural, económico e histórico de los sistemas educativos calificados mediante rankings. d) Dar preferencia a la medición de resultados.

La atenta lectura de estos criterios resalta la imposibilidad de la construcción de un ranking global unificado que incorpore todas las dimensiones señaladas. Justamente las críticas que reciben estas tablas clasificatorias son las aquí enumeradas. Cada una de las dimensiones planteadas ha sido rigurosamente cuestionada.

Así, los rankings aparecen como medidas absolutas y no como una de las diversas aproximaciones a la evaluación. Tienen criterios predefinidos y por ende no incorporan las diversidades de las instituciones y mucho menos sus distintas misiones y objetivos como sí hacen las evaluaciones institucionales. Mucho menos se amoldan a los distintos contextos nacionales de los sistemas educativos. Finalmente, muchos de los indicadores son de disponibilidad de recursos y no de resultados y otros son opiniones subjetivas estáticas sobre las instituciones.

Notablemente, estas y otras trabas extensamente enumeradas en este documento son presentadas como estándares para la construcción de rankings y no como luces rojas sobre las enormes dificultades para hacerlo. Como señalan agudamente Stella y Woodhouse (2006), parece como si una alerta sobre los peligros de fumar fuera convertida en un documento que dijera: “no hay problemas con fumar siempre y cuando usted evite los peligros del cigarrillo”.



Deja un comentario