Bien que très critiqués par les experts, les classements mondiaux des universités se sont imposés, avec des effets parfois pervers sur la gestion de ces établissements.
1Depuis le milieu de la décennie 2000, de nombreux dirigeants des universités, particulièrement en Europe, attendent chaque année avec une certaine nervosité l’annonce de leur position dans divers classements mondiaux. Les classements les plus connus sont celui dit de Shanghai, produit depuis 2003 par l’université Jiao Tong de cette ville (et depuis 2009 par Shanghai Ranking Consultancy, une organisation indépendante) et, en Angleterre, celui du Times Higher Education.
2Les experts en scientométrie et en évaluation ont fortement critiqué ces classements dès leur apparition. Malgré cela, et pour des raisons obscures, bon nombre de présidents d’université continuent non seulement de les prendre au sérieux, mais se fixent même comme objectif de grimper dans ces classements, sans trop se soucier de comprendre ce qu’ils mesurent vraiment sur le plan académique.
3Ayant été parmi ceux qui ont sonné l’alarme face à cette « fièvre de l’évaluation » il y a près de quinze ans, je ne pouvais que me réjouir de lire enfin, en novembre 2020, un « point de vue » publié dans l’influente revue Nature et annonçant avoir évalué et classé les classements !
4L’autrice, Elisabeth Gadd, de l’université de Loughborough, au Royaume-Uni, et présidente du groupe de travail sur l’évaluation de la recherche de l’International Network of Research Management Societies, nous y apprend que leur équipe a analysé de près tous les classements et que, selon ses critères de transparence, gouvernance et validité des mesures, peu de classements sont bien classés. Se montrant ouvert à ces organisations, le groupe de travail leur a demandé de s’autoévaluer, ce qu’elles ont toutes refusé, sauf l’équipe du CWTS, qui produit le classement de Leyde ! Comme quoi les évaluateurs n’aiment pas être évalués…
5L’article détaillant les travaux d’Elisabeth Gadd et ses collègues, paru en 2021, réitère et synthétise les critères auxquels devraient se conformer ces classements. De telles critiques finissent parfois par donner des résultats et entraîner des réformes nécessaires. Ainsi, un rapport d’experts sur les universités en 2030 pour la Commission européenne affirme que l’enseignement supérieur devrait enfin aller au-delà de la manie d’évaluer sur la base de classements jugés « beaucoup trop simplistes ».
6Le rappel de ces critiques est bienvenu. Cependant, le texte d’Elisabeth Gadd dans Nature laisse de côté un aspect rarement discuté mais très important : les effets des classements sur les pratiques académiques. On sait que certaines universités modifient leur gestion pour se conformer aux critères des classements. Plus grave : certains gestionnaires veulent influer sur les classements. Par exemple, ils écrivent aux professeurs de leur université en leur demandant des noms de contacts internationaux afin qu’ils puissent les intégrer à la base de données du classement du Times Higher Education, qui inclut une partie fondée sur un sondage d’opinion. Ces gestionnaires espèrent ainsi augmenter la probabilité que les personnes choisies pour classer les universités connaissent bien la leur.
7On sait aussi que pour améliorer la position d’une institution dans le classement de Shanghai, il suffit que ses chercheurs indiquent tous la même adresse d’affiliation. Ainsi, la pseudofusion d’institutions diverses sous le nom de « université Paris-Saclay » s’est aussitôt traduite par la présence de ce label en quatorzième position du classement de 2020 ! Qui peut croire que les activités réelles des chercheurs ainsi « fusionnés » aient surpassé celles de leurs « concurrents » d’autres organismes après moins d’un an d’existence ?