Les commentaires postés sur des plateformes telles que Twitter perturbent le processus classique d’évaluation des articles scientifiques.
1On entend régulièrement l’idée que, dans les publications scientifiques sérieuses, les articles sont « évalués par les pairs ». Ces personnes sont censées être des chercheurs qui connaissent très bien le domaine traité dans l’article soumis. On peut donc penser que lorsqu’une telle revue publie un article, les évaluateurs ont fait leur travail, c’est-à-dire qu’ils ont vérifié la méthode et les données, et qu’ils se sont assurés que les conclusions découlent bien des données analysées.
2Jusqu’au milieu des années 2000, cela s’effectuait dans le monde relativement clos des experts du domaine concerné par l’article. Car pour y identifier des erreurs, voire des fraudes, une lecture de près et donc une expertise suffisante sont nécessaires. De plus, à moins d’annoncer une découverte déconcertante remettant en question des faits ou des théories bien établies, il est probable que les évaluateurs, et ensuite les lecteurs, ne porteront pas trop d’attention aux détails méthodologiques, surtout si les résultats vont dans le sens prévu par le paradigme régnant dans le domaine.
3Or la multiplication des revues scientifiques en libre accès et l’usage généralisé des commentaires via des plateformes telles que Twitter transforment radicalement cette dynamique de l’évaluation scientifique. On assiste ainsi de plus en plus à ce que j’appellerais « l’évaluation par les tweets »: des chercheurs et des étudiants commentent librement des articles qu’ils ont lus ou dont ils ont simplement entendu parler, pour en suggérer la lecture ou pour les critiquer.
4Cette forme d’évaluation d’un article déjà publié peut bien sûr être utile et faire avancer la recherche ; mais on constate qu’elle dérive de plus en plus vers la dénonciation de résultats vus comme scandaleux par certaines personnes qui réclament alors - souvent sans véritables arguments - la rétractation de l’article.
5Un exemple suffira ici, mais on pourrait les multiplier. Un article de bibliométrie très technique paru le 17 novembre 2020 dans la revue Nature Communications concluait que les femmes scientifiques « mentorées », c’est-à-dire formées ou supervisées, par des hommes avaient plus d’impact scientifique (mesuré par le nombre de citations de leurs articles) que celles qui étaient mentorées par des femmes. Il n’en a pas fallu plus pour que quelques lecteurs et lectrices hurlent au sexisme et exigent la rétractation de l’article, pourtant signé par deux femmes et un homme. Les critiques mettaient en question l’interprétation voulant que « le sexe joue un rôle dans le succès des relations de mentorat entre les chercheurs débutants et confirmés », conclusion qui, selon elles, « mine le rôle des femmes mentors et mentorées ».
6Paniquée, Nature Communications a immédiatement ajouté sur son site que « cet article fait l’objet de critiques qui sont examinées par les éditeurs ». Un mois plus tard, l’article était rétracté et tant la revue que les auteurs s’excusaient de tout « dommage involontaire » créé par cette publication !
7Il ne s’agit pas ici de commenter la méthodologie complexe de cet article et son lien avec les conclusions, mais d’attirer l’attention sur l’effet pervers suivant : on peut raisonnablement penser que si les mêmes autrices, par la même méthodologie, avaient conclu le contraire, à savoir que les femmes mentorées par des femmes ont un impact scientifique supérieur à celles mentorées par des hommes, il est peu probable que l’article aurait été attaqué par une meute de « twitteux » et personne n’aurait exigé qu’il soit rétracté. Car, en science comme ailleurs, on critique rarement ce qui conforte nos croyances et convictions personnelles.