Depuis une trentaine d’années, le secteur de l’enseignement supérieur connaît une prolifération d’ « indicateurs de qualité » ou de « performance », souvent de type « numérique » (indices, facteurs, ratios, « benchmarks », etc.). Qu’il s’agisse de certification d’assurance qualité, d’accréditation d’établissements ou de programmes, de mesures de compétences, de classement de revues scientifiques (« facteur d’impact »), de palmarès des meilleures universités, de taux d’insertion et de revenu des diplômés, ou encore d’indices de productivité et d’impact des scientifiques individuels (« indice H »), l’évaluation quantitative de la qualité des produits, des processus de production et des producteurs académiques entraîne des transformations profondes quant aux modes de financement, aux missions, valeurs et motivations des acteurs du monde universitaire. Si beaucoup d’entre eux dénoncent avec vigueur les conséquences délétères de cette « frénésie d’évaluation » et de cette « manie des classements »[1], tout indique que ces pratiques ont trouvé un ancrage permanent dans l’organisation contemporaine de la recherche et des universités. Quelles logiques et raisons président à ce phénomène et quel cadre théorique est le plus apte à en appréhender le sens, telles sont les questions qui guident la présente analyse.
L’ÉVALUATION : INSTRUMENT DE L’AUTONOMIE PROFESSIONNELLE OU OPÉRATEUR DE NORMALISATION DE L’UNIVERSITÉ ?
L’université moderne peut être définie comme une institution relativement autonome (vis-à-vis de l’État et des marchés) constituée de divers établissements (collèges, facultés, départements, etc.) dont les fonctions premières sont la recherche de nouvelles connaissances dans tous les domaines du savoir, leur critique, leur codification, leur diffusion et leur transmission (notamment au travers de l’enseignement).[2] Que ce soit dans la recherche et la production de nouvelles connaissances ou dans l’appropriation de celles-ci par les étudiants, l’évaluation (ou le jugement) de la qualité des savoirs est une activité intrinsèque à la vie universitaire. Ainsi, les résultats d’une recherche quelconque ne comptent comme savoir que pour autant qu’ils sont soumis au jugement des pairs, c’est-à-dire publiés ou présentés, discutés, critiqués, repris, modifiés, etc., par d’autres personnes ayant une compréhension du domaine auquel ce savoir appartient. Implicitement ou explicitement, la qualité de l’enseignement et partant des enseignants est également constamment soumise au jugement des étudiants, des autres enseignants et de la hiérarchie universitaire. Les étudiants, cela va sans dire, sont eux-mêmes quotidiennement soumis à diverses formes d’évaluation dans le cadre de leur parcours académique.
Validité et collégialité sont les deux principes qui spécifient en propre ces diverses formes d’évaluation académique de la qualité des savoirs : un savoir est considéré valide s’il passe le crible de procédures épistémiques tenues pour légitimes par la communauté scientifique et collégialement administrées par des pairs. Le respect de ces deux principes est soumis à un certain nombre de conditions que résume la notion d’autonomie professionnelle. La liberté académique, tout d’abord, qui signifie le pouvoir des enseignants-chercheurs de déterminer leurs objets d’étude, leurs méthodes de travail, ainsi que les thématiques et le contenu de leurs cours, mais aussi la possibilité de critiquer les savoirs en vigueur, les institutions, les structures sociales, le pouvoir politique, etc., et ce sans devoir craindre rétorsions ou censure de la part de leur hiérarchie ou d’instances externes. La stabilité des collectifs de travail académique, ensuite, sans quoi l’autogestion collégiale des activités scientifiques et d’enseignement devient impossible. Cette dernière est fortement liée la sécurité des moyens d’existence et de travail, enfin, sans quoi l’on ne peut s’investir dans des recherches de longue haleine comportant une large part d’aléatoire (va-t-on trouver quelque chose ? si oui quoi, avec quelles retombées pratiques ? etc.), se risquer à des jugements qui dérangent les pouvoirs en place, prendre du recul pour réévaluer certaines évidences ou acquis, aller au fond des choses… Il faut souligner que le respect de ces conditions ne va pas de soi car les pressions externes sur le monde académique sont variées et multiples : afin de la préserver de certaines formes d’emprise politique, économique et idéologique, l’autonomie professionnelle des universitaires doit être institutionnellement orchestrée et activement protégée.
Or, ce sont précisément ces conditions qui sont mises à mal par ce que l’historien et sociologue des sciences Yves Gingras appelle « une véritable fièvre de l’évaluation de la recherche et des universités ».[3] Le type d’évaluation dont parle Gingras a peu en commun avec les formes sus-décrites se pratiquant traditionnellement au sein de la communauté scientifique. Leur logique est externe et hétérogène à l’institution universitaire, et sur beaucoup de plans, contraire aux principes et valeurs du travail académique. Comme l’écrit Annie Vinokur, professeur émérite de sciences économiques, « depuis le début de ce siècle et pour la première fois historiquement, on voit se développer un appareillage exogène de mesure, de normalisation et de gestion de la qualité à l’université ».[4] Lorsque les enseignants-chercheurs universitaires s’opposent à certaines formes d’évaluation auxquelles ils sont soumis, ils s’opposent à cette forme particulière d’évaluation. Comme nous le montrerons, celle-ci est « importée du monde de l’entreprise capitaliste »[5] et s’apparente davantage à un contrôle et à une contrainte externe de normalisation qu’à l’interprétation collégiale du sens et de la valeur des pratiques professionnelles intrinsèque à l’activité scientifique et professorale.
DEUX EXEMPLES : “FACTEUR D’IMPACT” ET “INDICE H”
De quoi s’agit-il plus précisément et en quoi ces nouvelles formes d’évaluation contreviennent-elles au bon fonctionnement de la recherche et de l’enseignement supérieur ? Afin de concrétiser notre propos, nous prendrons deux exemples d’ « indicateur de qualité » ou de « performance » en usage dans le monde académique aujourd’hui. Le facteur d’impact sert à classer les revues scientifiques ; l’indice H les chercheurs universitaires individuels.
Parmi ces deux indicateurs, le mieux connu et le plus anciennement en usage est le facteur d’impact. Créé dans les années 1960, il est utilisé pour « mesurer » la « valeur » des revues scientifiques en inventoriant le nombre moyen de citations par article sur une période donnée. Cette moyenne est calculée à partir des données recueillies par l’entreprise Thomson Scientific (anciennement appelé ISI, Institute for Scientific Information) et publiées dans le Journal Citation Reports. La base de données d’où Thomson Scientific extrait les références contient plus de 9 000 revues et est remise à jour chaque année. À partir de ces données, il est possible de compter la fréquence à laquelle un article donné est cité par des articles ultérieurs publiés dans le recueil des revues indexées. Si, par exemple, le facteur d’impact d’une revue est de 1,5 en 2007, cela indique qu’en moyenne les articles publiés durant les années 2005 et 2006 ont été cités 1,5 fois par les articles du recueil des revues indexées en 2007.[6]
D’un point de vue technique, le facteur d’impact est une moyenne simple résultant de la distribution des citations pour un ensemble d’articles dans une revue donnée pour une période donnée. Comme le pointent les mathématiciens Adler, Ewing et Taylor, il s’agit d’une statistique plutôt grossière qui permet autant de juger de la qualité d’une revue que le poids de la santé d’une personne.[7] Le terme même de « facteur d’impact » suggère que l’article qui cite un autre article est de quelque façon « basé » sur ce dernier, et que les citations sont en un sens le « mécanisme par lequel la recherche se propulse vers l’avant ».[8] Parmi les multiples biais, décisions arbitraires et problèmes épistémologiques que comporte cet indicateur[9], nous noterons seulement qu’il revient à évacuer complètement la question pourtant essentielle de la signification d’une citation. Comme l’écrit le philosophe Grégoire Chamayou, du point de vue du facteur d’impact, « qu’elle soit laudative, purement tactique, fortement polémique ou franchement disqualifiante, [une citation] a toujours, en fin de compte, la même valeur. L’analyse citationnelle est une taupe, quasi aveugle, ne répondant qu’à un seul stimulus : le nombre d’occurrences d’un nom et d’un titre ».[10] Étant donné qu’il n’existe pas de modèle a priori définissant ce qu’est être « meilleur » quand on compare deux revues, et que la signification du facteur d’impact n’est pas claire, on peine à voir de quelle manière il permettrait de « mesurer » la « qualité » d’une revue.
Malgré ces problèmes, le facteur d’impact est un indicateur incontournable dans le monde de la recherche et entraîne des répercussions considérables sur la culture académique et la carrière des universitaires. L’usage qui est fait de cet indicateur induit notamment un biais bien connu dans le monde académique consistant à imputer la « qualité » d’une revue donnée telle qu’elle est censée se matérialiser dans le facteur d’impact aux articles et, partant, aux auteurs y publiant. La logique consiste à dire que si tel chercheur a publié un article dans telle revue à haut facteur d’impact, tandis qu’un autre en a publié un dans une revue à facteur d’impact moindre, le premier article et son auteur doivent nécessairement être « meilleurs » que les seconds – une absurdité manifeste, mais qui pousse néanmoins des chefs de départements et des doyens de facultés, par exemple dans le cadre de procédures de promotion ou d’embauche, à poser comme critère d’évaluation des chercheurs de publier ou d’avoir publié des articles dans des revues à haut facteur d’impact. Ce genre de contrainte va de pair avec et renforce la tendance à se désintéresser des véritables questions qui devraient se poser dans l’évaluation d’un travail scientifique, à savoir si le travail en question contient des apports originaux, éclairants et corrects (ce qui supposerait, soit dit en passant, que les évaluateurs aient le temps et le loisir de lire l’article en question…).[11]
Le deuxième exemple d’« indicateur de qualité » que nous donnerons est l’« indice H » (h-index), du nom du physicien Jorge E. Hirsch, qui l’a proposé en 2005. Comme l’explique Gingras, « [l]’indice h d’un chercheur est défini comme étant égal au nombre d’articles n qu’il a publié et qui ont reçu au moins n citations (pour une période donnée). Par exemple, un auteur qui a publié 20 articles parmi lesquels 10 ont au moins 10 citations chacune aura un indice h de 10. Cet indicateur de ‘‘qualité’’ de la recherche d’un individu est donc un composite de la production (nombre d’articles écrits) et de la ‘‘visibilité’’ (nombre de citations reçues) et non pas, comme le dit son auteur, une mesure homogène d’output, c’est-à-dire d’extrant. Un tel mélange devrait déjà nous faire douter de la fiabilité d’un tel indice ».[12] L’exemple suivant donné par Gingras permet de comprendre l’absurdité de cet indicateur : « Comparons deux cas de figure : un jeune chercheur a publié seulement trois articles, mais ceux-ci ont été cités 60 fois chacun (pour une période de temps donnée) ; un second chercheur, du même âge, est plus prolifique et possède à son actif 10 articles, cités 11 fois chacun. Ce second chercheur a donc un indice h de 10, alors que le premier a un indice h de 3 seulement. Peut-on en conclure que le second est trois fois ‘‘meilleur’’ que le premier ? Bien sûr que non… ».[13]
D’après les mathématiciens Adler, Ewing et Taylor, l’une des raisons expliquant l’adhésion à ce genre d’indicateur manifestement non-scientifique et stupéfiant de naïveté, sinon de mauvaise foi, est une croyance magique qui veut que contrairement aux procédures qualitatives et complexes mais subjectives d’évaluation par des pairs, les nombres et les statistiques sont non seulement plus simples et plus lisibles, mais également « plus objectives », permettant dès lors une comparabilité et un classement entre revues, départements, universités et chercheurs individuels. Or, cette croyance est totalement infondée, non seulement parce que, comme nous le soulignions plus haut, les données bibliométriques ne disent rien du sens des occurrences qu’elles recensent et que les critères de construction de ces indicateurs se fondent sur une myriade de préjugés idéologiques et culturels non-soumis à une critique rationnelle, mais surtout parce que les informations qualitatives rejetées pour parvenir à la simplicité et l’homogénéité largement illusoires de ces indicateurs est absolument nécessaire pour comprendre et évaluer la véritable valeur des recherches, les capacités et compétences de leurs auteurs, et le potentiel des institutions qui les hébergent.[14]
Cependant, le souci avec ces indicateurs n’est pas leur impertinence, mais bien leurs effets extrêmement délétères pour la recherche et plus largement la vie académique. Ils entraînent en effet ce que Sylvain Piron appelle « une perturbation généralisée de la morale scientifique »[15], qui se manifeste notamment sous la forme d’une compétition et concurrence féroces entre les chercheurs pour publier autant d’articles que possible dans quelques revues hautement cotées, mettant à mal « ce qui devrait être au contraire les valeurs centrales de la recherche scientifique : le partage, la collaboration et la critique éclairée au sein de communautés bienveillantes ».[16] Cet esprit de compétition est responsable de pratiques qui sont à la fois éthiquement problématiques et qui nuisent grandement à la qualité de la recherche scientifique. Comme l’expliquent Abakumov et ses collègues, « [a]fin d’améliorer leurs performances chiffrées, beaucoup de scientifiques modifient leur manière de publier et de citer et cela au détriment de la qualité de leur travail. Se généralisent ainsi le saucissonnage des articles, les publications prématurées, les articles multiples de même contenu, le plagiat, les citations de complaisance ».[17] Il faut souligner que la généralisation de ces pratiques n’est pas simplement due à la faiblesse morale des personnes qui s’y adonnent, mais est une conséquence nécessaire du fait que les indicateurs bibliométriques deviennent des outils de décision pour octroyer des financements, accorder des promotions, etc. Une fois qu’ils acquièrent cette fonction, d’instruments de mesure scientométrique (leur fonction initiale et scientifiquement légitime), les indicateurs deviennent une fin en soi : « C’est la performance bibliométrique qui devient un objectif prioritaire, et non plus la découverte scientifique ».[18]
Comment expliquer la persistance voire la multiplication de ce type d’instruments de mesure de la « qualité » et de la « performance » académiques au vu des nombreuses critiques et appels – émanant souvent des milieux statisticiens et mathématiciens dont on peut difficilement suspecter une aversion pour les chiffres et les formules – à abandonner leur usage ? Si certains critiques imputent cela au narcissisme exacerbé des chercheurs universitaires ou suggèrent de pratiquer une psychosociologie des dirigeants académiques pour comprendre les raisons pour lesquelles ils acceptent de se soumettre à des classements sans aucun fondement scientifique[19], nous pensons pour notre part que la problématique gagne davantage à être comprise à partir de ses déterminants contextuels structurels. Il ne faut pas perdre de vue en effet que l’autonomie de l’université est relative aux deux instances principales de la société de marché que sont l’État et les marchés : dans des mesures différentes et selon des modalités changeantes, l’État subventionne l’université et participe directement ou indirectement à sa gouvernance, tandis que l’université, via les diplômes et certifications, pourvoie le marché du travail en main d’œuvre qualifiée. Il faut, par conséquent, se tourner vers une analyse économico-politique des logiques qui sous-tendent le nouveau système de classement ici étudié, qui apparaît sous ce jour comme un puissant instrument de la libéralisation de l’enseignement supérieur et de la recherche académique.
IL EST MÉTHODE À CETTE FOLIE : DE L’UNIVERSITÉ COMME BIEN PUBLIC À L’UNIVERSITÉ ENTREPRENEURIALE
Les classements académiques ne sont pas un phénomène isolé : ils sont ancrés dans un environnement organisationnel et social caractérisé par des pressions marchandes de plus en plus intenses sur un secteur jusque-là non-capitaliste largement socialisé.[20] Dans les pays de l’Espace Européen de l’Enseignement Supérieur notamment (mais aussi bien au-delà), l’université (et l’éducation en général), de bien public non-marchand, est en voie de devenir un marché académique extrêmement profitable. Annie Vinokur en impute la responsabilité à deux normativités exogènes et enchevêtrées, toutes deux issues du processus de démantèlement des secteurs publics non marchands (i.e., de l’État social), de libération des flux de capitaux au niveau international et de dérégulation financière depuis les années 1970-1980. L’une, managériale, vise la mise en place de l’« université entrepreneuriale » correspondant à l’opérateur académique du « ‘nouveau management public’ » (NMP), doctrine réformatrice de l’action publique issue des courants néolibéraux des années 1970 » ; l’autre, commerciale, vise à organiser un libre marché unifié des services universitaires en le dotant d’étalons communs et harmonisés.[21]
Transposé à l’université, le NMP transforme les rapports entre l’État et l’institution (et entre l’institution et les étudiants, qui en deviennent les clients). Le nouveau modèle managérial s’impose en premier lieu par le biais du sous-financement structurel de l’université, soit en raison de coupes budgétaires dans le cadre de politiques d’austérité, soit parce que la compétition sur le marché universitaire astreint les administrateurs à trouver davantage de moyens, notamment en augmentant les frais d’inscription, en créant des fondations, en multipliant les partenariats avec des acteurs du secteur marchand, etc. En lieu et place de la verticalité de l’administration étatique et de la relation de subsidiarité de la période précédente, on passe aujourd’hui à l’horizontalité des rapports contractuels où la frontière entre public et privé s’émousse : l’État en tant que simple partenaire (même si très puissant) ne fait plus que « piloter » l’université, qui est du même coup délivrée d’un grand nombre de contraintes de droit public, notamment celles liées à la permanence de l’emploi.[22] N’intervenant plus directement dans l’administration de l’université mais devant néanmoins s’assurer que les fonds investis sont utilisés conformément à la demande, les instances étatiques doivent recourir au « principe de l’agence » importé du secteur marchand : « [c]omme il ne peut faire confiance à l’agent, A met en œuvre les procédures d’audit et de contrôle nécessaires pour prévenir les tricheries. Dans le cas de l’enseignement supérieur, A (le ministère) fixe à B (l’université) des objectifs de performance chiffrés, prévoit des incitations (rémunération à la performance, non renouvellement du contrat en cas d’échec, etc.) et établit des audits et évaluations pendant toute la durée du contrat ».[23] Du point de vue de l’administration universitaire, cela résulte en l’accroissement de l’autonomie institutionnelle, consistant à gérer l’université comme n’importe quelle entreprise capitaliste (avec les libertés et surtout les contraintes que cela impose à l’administration). Du point de vue des enseignants-chercheurs, en revanche, cela résulte en l’atrophie de l’autonomie professionnelle : le règne des critères de rentabilité au détriment de la liberté académique et des enseignants-chercheurs et leurs collectifs non-protégés par la permanence de l’emploi.
Au-delà des sollicitations étatiques dans le cadre du NMP, l’ « université entrepreneuriale » en tant qu’unité de production sur le marché des services universitaires doit également répondre aux demandes de ses partenaires et clients privés. Les divers dispositifs de standardisation et d’évaluation de la qualité sont le lit de Procuste qui doit rendre cette réponse possible. En effet, « [u]n marché concurrentiel suppose que le produit soit homogène et les échangistes parfaitement informés, préalablement à l’échange, de la qualité intrinsèque de la chose échangée ».[24] Dans le cas des services universitaires, le service (l’enseignement) étant coproduit par le prestataire (le professeur) et le client (l’étudiant), le « produit » (le diplôme ou la certification, donnant accès à certains segments du marché du travail) ne peut ni être homogène, ni standardisé[25]. En outre, les universités étant en concurrence monopolistique non sur les prix, mais sur la qualité de leurs services, elles ne sont pas intéressées à pousser la standardisation et l’équivalence des diplômes trop loin, surtout au niveau international.[26]
La transplantation du monde de l’industrie des procédures d’assurance qualité du processus de production (la famille de normes ISO 9000)est l’une des voies indirectes pour assurer une homogénéisation des diplômes et certifications. Ces services sont mieux connus sous le nom d’accréditation et sont fournies par des agences privées dont le marché est en plein développement. Leur fonction première est de labelliser des seuils de qualité des processus de production, que les fournisseurs de services universitaires capitalisent ensuite dans leurs stratégies de marketing. Cependant, en raison de son coût élevé et de sa récurrence, l’accréditation est également un facteur de restructuration du marché universitaire par concentration de l’offre, puisque les établissements de moindre taille ou moins rentables ne peuvent s’en permettre le coût.
Si les seuils de qualité sont un signal fondamental pour les partenaires et clients des services universitaires (étudiants et employeurs), ils ne permettent pas une lecture comparative suffisamment affinée et claire de la performance des divers établissements qui les obtiennent. C’est pourquoi, parallèlement au marché de l’accréditation se développe un autre marché, encore plus dynamique : celui de la notation dont la fonction première est la hiérarchisation de la « performance » des universités.[27] Le marché des « palmarès des meilleurs établissements » est essentiellement commercial et est dominé par des logiques médiatiques. Le plus connu est le « palmarès de Shanghai » dont les très forts biais pro-états-uniens et le caractère notoirement non-scientifique sont bien connus.[28] Malgré cela, il est très difficile de s’en défaire. La raison en est simple : « [u]ne université qui veut élargir sa part de marché a tendance à s’interroger, non sur les critères et la qualité du palmarès qui l’a notée, mais sur son effet sur ses clients et partenaires. Si elle pense que ceux-ci y croient, il ne lui reste plus qu’à s’aligner sur les critères de notation du palmarès pour améliorer son classement. La prophétie devient autoréalisatrice (…) ».[29] Il faut souligner qu’il ne s’agit pas là d’un « effet pervers » de ces classements, mais d’une fonction organique d’alignement mimétique sur le modèle dominant de l’ « université entrepreneuriale » et de ses logiques –et partant d’homogénéisation des processus de production des services universitaires – à l’échelle internationale qu’aucun instrument juridique ou accord intergouvernemental n’est aujourd’hui en mesure de remplir.[30]
CONCLUSION : L’ÉVALUATION COMME INSTRUMENT DE NORMALISATION ET D’ASSUJETISSEMENT IDÉOLOGIQUE
Quel lien y a-t-il entre les indicateurs de qualité de type facteur d’impact et indice H d’un côté et les nouvelles normes managériales et instruments de standardisation marchandes de l’autre ? Pour le comprendre, il faut se rendre compte que les pressions marchandes ne s’exercent pas uniquement de l’extérieur de l’institution universitaire, mais s’immiscent au cœur même de la vie académique. L’alignement des administrations universitaires sur des logiques purement managériales et de libéralisation du secteur de l’éducation supérieure nécessite en effet de produire des subjectivités correspondantes du côté des producteurs académiques, notamment des enseignants et des chercheurs. Ce que l’application du NMP et les dispositifs de standardisation marchande réalisent au niveau des unités productives plus larges (universités, facultés, départements, etc.), l’usage des indicateurs de « qualité » l’accomplit au niveau du comportement et de l’habitus des producteurs individuels et de leurs collectifs. Ces formes d’évaluation sont donc essentiellement des dispositifs de gestion des écarts à la norme, un mode de régulation des comportements visant, au niveau macro, une réorganisation institutionnelle, et au niveau micro, une restructuration intérieure de la subjectivité des enseignants-chercheurs (leurs vision du monde et d’eux-mêmes, leur conception du sens de leur travail, de la rigueur, de la qualité, de leur rapport aux pairs, à l’institution, à la société, etc.), en adéquation avec les tendances économiques et idéologiques néolibérales dominantes.
[1] Evgeny Abakumov et alii, « Compter et mesurer. Réflexions sur Le souci du nombre dans l’évaluation de la production du savoir scientifique », Université Paris Est Marne la Vallée, Laboratoire d’Analyse et de Mathématiques Appliquées, 2010, consulté le 10 mai 2023 : http://hal.archives-ouvertes.fr/hal-00533570.
[2] Annie Vinokur, « La gouvernance des universités par la qualité », Recherche et pratiques pédagogiques en langues de spécialité [En ligne], Vol. 36 N°1 | 2017, consulté le 05 mai 2023, URL : http://apliut.revues.org/5571, p. 1.
[3] Yves Gingras, « La fièvre de l’évaluation de la recherche. Du mauvais usage de faux indicateurs », Bulletin de méthodologie sociologique [En ligne], 100 | 2008, mis en ligne le 01 octobre 2008, consulté le 03 mai 2023. URL : http://journals.openedition.org/bms/3313
[4] Annie Vinokur, « La gouvernance des universités par la qualité », art. cit., p. 2.
[5] Jean Blairon, « L’évaluation des enseignants, une victoire de plus de la révolution conservatrice ? », Intermag [En ligne], mai 2023, p. 2, consulté le 09 mai 2023, URL : https://intermag.be/images/stories/pdf/rta2023m05n1.pdf.
[6] Robert Adler, John Ewing, Peter Taylor, « Citation Statistics: A Report from the International Mathematical Union (IMU) in Cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS) », Statistical Science 2009, Vol. 24, No. 1, p. 4.
[7] Ibid., p. 1.
[8] Ibid., p. 11.
[9] Voir entre autres Nancy J. Adler, Anne-Wil Harzing, « When Knowledge Wins: Transcending the Sense and Nonsense of Academic Rankings », Academy of Management Learning & Education, 2009, Vol. 8, No. 1, pp. 72-95; Mayur Amin, Michael A. Mabe, « Impact factors: use and abuse », Medicina (Buenos Aires), 2003, 63, p. 347-354.
[10] Grégoire Chamayou, « Petits conseils aux enseignants-chercheurs qui voudront réussir leur évaluation », Revue du MAUSS, 2009/1 (N. 33), Editions La Découverte, p. 223.
[11] Robert Adler, John Ewing, Peter Taylor, art. cit., pp. 6-7.
[12] Yves Gingras, art. cit., p. 10.
[13] Ibid., p. 11.
[14] Robert Adler, John Ewing, Peter Taylor, art. cit., pp. 1-2.
[15] Sylvain Piron, « Lisons Peter Lawrence, ou les implications morales de l’évaluation bibliométrique », billet de blog publié le 6 décembre 2008, mis à jour 11 décembre 2008, consulté le 12 mai 2023, URL : https://evaluation.hypotheses.org/229.
[16] Grégoire Chamayou, art. cit., p. 216.
[17] Evgeny Abakumov et alii, art. cit., p. 5.
[18] Sylvain Piron, art. cit.
[19] Voir Yves Gingras, art. cit., p. 9-10.
[20] Annie Vinokur, « La gouvernance des universités par la qualité », art. cit., p. 13.
[21] Ibid., p. 2.
[22] Annie Vinokur, « La gouvernance des universités par la qualité », art. cit., p. 5-6.
[23] Ibid., p. 5.
[24] Ibid., p. 8.
[25] Annie Vinokur, « « La qualité de la mesure de la qualité dans l’enseignement supérieur : essai d’analyse économique », Éducation et sociétés, 2006/2 (n°18), Éditions De Boeck Supérieur, p. 111.
[26] Ibid.
[27] Ibid., p. 110.
[28] Voir Gingras, art. cit., p. 8-9.
[29] Annie Vinokur, « La qualité de la mesure de la qualité dans l’enseignement supérieur : essai d’analyse économique », art. cit., p. 122.
[30] Annie Vinokur, « La gouvernance des universités par la qualité », art. cit., pp. 10-11.