Classement académique des universités mondiales par l'université Jiao Tong de Shanghai

Le classement universitaire des universités mondiales par l'université Jiao Tong de Shanghai ou classement de Shanghai (appellation commune de l'Academic Ranking of World Universities en anglais, ou ARWU) est un classement des principales universités mondiales, établi par des chercheurs de l'université Jiao-tong de Shanghai en Chine.

Ces institutions sont classées selon un indice unique calculé à partir de six critères quantitatifs, notamment le nombre de publications dans les deux revues scientifiques Nature et Science, le nombre de chercheurs parmi ceux qui sont les plus cités, le nombre de prix Nobel scientifiques et de médailles Fields attribués aux anciens élèves et aux personnels de l'université, et un critère de productivité rapporté à la taille du corps enseignant si elle est connue.

La méthode de classement et sa pertinence sont vivement critiquées et en particulier l'affirmation selon laquelle ces critères seraient pertinents et objectifs. Aucun critère du classement n'évalue la qualité de l'enseignement ni le niveau des élèves diplômés, ce qui est paradoxal dans un classement d'institutions dont l'une des deux vocations premières, à côté de la recherche, est l'enseignement et la formation professionnelle d'élèves qui pour la plupart ne se destinent pas à la recherche. De plus, le classement favorise les institutions anciennes, de grande taille, et les sciences dures (particulièrement la médecine et la biologie) au détriment des sciences sociales et du droit. Ni les contraintes que subissent les établissements ni leurs ressources ne sont considérées.

Ce classement est particulièrement médiatisé en France, et il a eu un impact majeur sur les politiques publiques françaises: dans la mesure où le classement d’un établissement apparaissait fortement lié à sa taille, l'argument de la "montée dans les classements" a été souvent invoqué en appui des stratégies de regroupement ou de fusion de nombreuses institutions universitaires dans les années 2010.

HistoriqueModifier

Au début des années 2000, l'Université Jiao-tong de Shanghai cherche à élaborer un plan stratégique pour justifier les fonds publics versés pour qu'elle se hisse au niveau des meilleures universités internationales[1]. Le professeur Nian Cai Liu, un chimiste travaillant pour cette université, établit un premier classement des universités en 2003[2], pour évaluer l’écart qui existait entre les universités chinoises et celles qui devaient servir de modèle[1]. Ne disposant que de deux collaborateurs, il va alors au plus simple, ne prenant en compte que des données accessibles par Internet et jugées objectives[2] : le nombre de prix Nobel et médailles Fields (pour les mathématiques), le nombre de chercheurs les plus cités dans leur discipline, le nombre de publications dans les revues scientifiques Nature et Science et le nombre d'articles répertoriés dans deux bases de données d'articles scientifiques, l'une sur les sciences humaines, l'autre sur les sciences pures. Après sa publication en 2003, le classement est tout d'abord ignoré, puis critiqué, mais il aura un important impact mondial[3]. À partir de 2009, un classement par disciplines est aussi publié[4]. Depuis 2009, l’équipe de l’université Jiao-tong chargée du classement est devenue une société de consultants indépendante, ShanghaïRanking[1].

CritèresModifier

Les concepteurs du classement ont publié la méthode de calcul en 2005[5], qui selon eux « utilise des critères objectifs sélectionnés avec soin », « est fondé sur des données internationales comparables que tout le monde peut vérifier » et « ne comporte aucune mesure subjective », une série d'affirmations qui a fait l'objet de sérieuses critiques[6]. Cette méthode inclut les critères pondérés suivants :

Critères Indicateurs Pondération
Qualité de l'enseignement Nombre de prix Nobel et de médailles Fields parmi les anciens élèves[N 1] 10 %
Qualité de l'institution Nombre de prix Nobel et de médailles Fields parmi les chercheurs[N 2] 20 %
Nombre de chercheurs les plus cités dans leurs disciplines pendant les dix dernières années 20 %
Publications Articles publiés dans Nature et Science pendant les cinq dernières années[N 3] 20 %
Articles indexés dans Science Citation Index, et Social Sciences Citation Index[N 4] 20 %
Taille de l'institution Performance académique au regard de la taille de l'institution[N 5] 10 %

Les données brutes utilisées par les auteurs du classement restent confidentielles. Les créateurs du classement soulignent eux-mêmes certaines de ses limites, notamment un biais en faveur des institutions de grande taille comme le sont celles des pays anglophones, ainsi que les difficultés à définir des indicateurs adéquats pour classer les universités spécialisées dans les sciences sociales[7].

CritiquesModifier

Les critiques du classement portent principalement sur le choix des critères utilisés et sur la méthode de calcul pour en montrer le caractère arbitraire et non pertinent[6],[8],[9],[10]. Dans un article publié en avril 2009, J-C. Billaut, D. Bouyssou et Ph. Vincke décortiquent le fonctionnement du classement de Shanghai, avec leur éclairage de spécialistes d’aide multicritère à la décision. Il en ressort une critique très argumentée des critères qui sont utilisés (que les auteurs qualifient de « non pertinents »), ainsi que des paradoxes dans la méthode utilisée[6], les auteurs concluant que « le classement de Shangaï, malgré la grande couverture médiatique qu’il reçoit chaque année, n’est pas un outil pertinent pour juger de la « qualité » des institutions académiques, guider le choix des étudiants ou des familles, ou promouvoir des réformes du système d’enseignement supérieur »[6].

Critères non pertinentsModifier

Sur l'utilisation du nombre de prix Nobel pour mesurer la qualité de l'institution, le classement comptabilise le prix pour l'institution à laquelle appartient son récipiendaire au moment de l’annonce de la récompense, mais celle ci est due à une découverte qui peut être très ancienne et avoir été menée dans une autre institution. La façon dont le classement comptabilise des récompenses anciennes favorise les pays dont le paysage académique est très stable et des institutions anciennes[N 6] (en particulier, les affiliations des récipiendaires français du prix Nobel utilisées pour le classement ont fait l'objet de discussions[6]). Enfin, le classement ignore (sauf toutefois dans les classements thématiques par sujet) d'autres récompenses tout aussi prestigieuses que le prix Nobel, telles que le prix Turing en informatique ou la médaille Bruce en astronomie. Le nombre de prix Nobel et médailles Fields dans une institution semble donc mesurer des réputations anciennes, et ne permet pas d'estimer la qualité actuelle de la recherche ou de l'enseignement dans cette institution[6]. On ne peut donc pas considérer que la qualité actuelle de formation des étudiants soit prise en compte par le classement[11].

Concernant le critère des chercheurs dont les travaux sont « les plus cités » sur une période de 10 ans, la méthode utilisée prend insuffisamment en compte la mobilité des chercheurs séniors, qui sont susceptibles d’avoir changé d’institution au cours de leur carrière[6], et elle est faussée par les biais culturels importants affectant les citations[12] (les Italiens citent les Italiens[13], etc.). Ce critère ne mesure donc que très imparfaitement la capacité d’une institution à produire actuellement une recherche de fort impact[6].

Concernant les publications dans Nature et Science, c'est l'importance donnée à ces deux seules revues qui a été critiquée, de même que le mode de pondération des co-auteurs[6].

Pour tous les critères liés aux publications, on doit rappeler que l'attribution correcte d'un article à une institution particulière est un exercice difficile dans la mesure où les auteurs n'indiquent pas leur affiliation de façon normalisée sur leurs articles[6]. Le choix des bases de données utilisées favorise les articles publiés dans des revues internationales et dans le domaine des sciences au détriment des sciences humaines (les concepteurs du classement cherchent à corriger ce biais en attribuant un coefficient de 2 aux publications en sciences humaines et sociales). Le classement compte le nombre total d'articles publiés sans pondérer ces articles par leur impact[6]. En outre, les livres, les chapitres dans des ouvrages collectifs ou encore les articles de vulgarisation scientifique, ne sont pas comptabilisés[11]. En résumé, les critiques pointent le fait que le critère des publications est basé sur une approche restrictive de la publication scientifique.

Le critère de productivité prend en compte le nombre d’équivalents temps plein du corps académique de chaque institution s'il a pu être déterminé. Pour la France, il s'agit des données disponibles en open data sur le site du Ministère de l'Enseignement Supérieur.

Les auteurs de l'étude critique résument ainsi leur appréciation: « Les critères ont été choisis principalement sur la base de la disponibilité sur Internet des informations permettant de les renseigner, que chacun d’entre eux est lié de façon très approximative avec ce qu’il est censé mesurer et que leur évaluation fait intervenir des paramètres arbitraires et des microdécisions non documentées. L’impact de ces éléments sur le résultat final n’est pas examiné. Les données initiales utilisées ne sont pas rendues publiques et donc ne peuvent pas être vérifiées »[6].

La plupart des critères sont obtenus par des comptages de prix ou de publications, qui favorisent les institutions de grande taille[14], ainsi, « big is made beautiful » (le gros est rendu beau)[15],[16]. Philippe Mahrer explique ainsi que les pays disposant de nombreuses écoles ou universités de petite taille sont défavorisés dans le classement, de même que les universités, centres de recherche ou écoles travaillant en réseau comme c'est souvent le cas en Europe[17]. Ce dernier point est tout particulièrement dénoncé (et mis en évidence) par le prix Nobel de physique Albert Fert[18].

Le cas particulier des sciences humainesModifier

Les bases de données utilisées pour l'établissement du classement recensent des revues de toutes les langues. En sciences exactes, les journaux en langue autre que l'anglais ayant à peu près disparu, les revues recensées sont donc très majoritairement publiées en anglais, quel que soit leur pays d'édition (Amérique du Nord, Europe, Japon). Parmi celles-ci, Nature et Science bénéficient en sciences exactes d'une notoriété inégalée. En sciences humaines et sociales par contre, la promotion de travaux se fait également lors de conférences ou dans des revues non anglo-saxonnes, et ce pour des raisons multiples (coût, accessibilité, pertinence, impact, etc.). De fait, la publication des travaux de sciences humaines ne se fait donc pas majoritairement dans des revues internationales en langue anglaise et elle est, à ce titre, moins bien prise en compte par ce classement[12]. Pour atténuer ce défaut de prise en compte des sciences humaines et sociales, le classement attribue un poids double, dans le décompte des publications, aux publications référencées dans le Social Science Citation Index.

Technique d'agrégation déficienteModifier

Un autre type de critiques concerne la façon apparemment arbitraire dont les notes normalisées des différents critères sont agrégés en utilisant une somme pondérée pour calculer un indice unique, permettant le classement. En dépit de toute rigueur, la normalisation des scores change chaque année sans que les poids des critères soient modifiés en conséquence. Billaut, Bouyssou et Vincke expliquent en quoi cela démontre que « les auteurs du classement sont tombés dans ces pièges élémentaires liés à la normalisation »[19] au point « qu'on ne peut pas conclure que s’améliorer sur un critère permet de monter dans le classement »[6]. La méthode de calcul du classement est telle qu'une institution faible sur un critère particulier aurait même intérêt pour monter dans le classement à ce qu'une institution classée juste devant elle s'améliore sur ce critère[6].

Par ailleurs, calculer la moyenne pondérée de critères représentant la production (les cinq premiers) et la productivité (le dernier) conduit nécessairement à un résultat dénué de sens, comme si l'on cherchait à calculer la richesse d'un pays en faisant une moyenne du PIB et du PIB par habitant[6].

Questions négligéesModifier

Les auteurs du classement ne définissent pas ce qu'est une université (au point que le Collège de France, qui ne délivre aucun diplôme, a un temps fait partie du classement), ni ce qu'est une « université de classe mondiale ». Ils ignorent les contraintes, très différentes selon les pays, que peuvent subir les institutions, et les ressources qu'elles consomment (exception faite de la taille du « corps académique », mais seulement si elle est connue)[6]. L'objectif même de faire un tel classement n'est pas discuté, et les bonnes pratiques[20] sont oubliées: les institutions évaluées ne disposent pas des données leur permettant de comprendre comment elles l'ont été, et les auteurs n'anticipent pas la façon dont les institutions peuvent adapter leur comportement en réaction au système d’évaluation[6]. Par exemple, les notes de la plupart des critères du classement étant sensibles à la taille de l'établissement, constituer un regroupement d'institutions pourrait permettre de monter automatiquement dans le classement, sans changer la nature ou la qualité de la recherche[21] (voir le cas de la France ci-dessous).

ClassementModifier

 
Academic Ranking of World Universities, 2003–2018, Top ten
Academic Ranking of World Universities (500) – Top 50[22][Note 1]
Institution 2021 2020 2019 2018 2017 2016 2015 2014 2013 2012 2011 2010 2009 2008 2007 2006 2005 2004
  Université Harvard 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
  Université Stanford 2 2 2 2 2 2 2 2 2 2 2 3 2 2 2 3 3 2
  Université de Cambridge 3 3 3 3 3 4 5 5 5 5 5 5 4 4 4 2 2 3
  Massachusetts Institute of Technology 4 4 4 4 4 5 3 3 4 3 3 4 5 5 5 5 5 5
  Université de Californie à Berkeley 5 5 5 5 5 3 4 4 3 4 4 2 3 3 3 4 4 4
  Université Princeton 6 6 6 6 6 6 6 6 7 7 7 7 8 8 8 8 8 7
  Université d'Oxford 7 9 7 7 7 7 10 9 10 10 10 10 10 10 10 10 10 8
  Université Columbia 8 7 8 8 8 9 8 8 8 8 8 8 7 7 7 7 7 9
  California Institute of Technology 9 8 9 9 9 8 7 7 6 6 6 6 6 6 6 6 6 6
  University of Chicago 10 10 10 10 10 10 9 9 9 9 9 9 9 9 9 8 9 10
  Université Yale 11 11 11 12 11 11 11 11 11 11 11 11 11 11 11 11 11 11
  Université Cornell 12 12 13 12 14 13 13 13 13 13 13 12 12 12 12 12 12 12
  Université Paris-Saclay[Note 2] 13 14 37 42 41 46 41 42 39 37 40 45 43 49 52 64 61 48
  Université de Californie à Los Angeles 14 13 11 11 12 12 12 12 12 12 12 13 13 13 13 14 14 16
  University of Pennsylvania 15 19 17 16 17 18 17 16 15 14 14 15 15 15 15 15 15 15
  Johns Hopkins University 16 15 16 18 18 16 16 17 17 17 18 18 19 20 19 20 19 22
  University College London 17 16 15 17 16 17 18 20 21 21 20 21 21 22 25 26 26 25
  University of California, San Diego 18 18 18 15 15 14 14 14 14 15 15 14 14 14 14 13 13 13
  University of Washington 19 16 14 14 13 15 15 15 16 16 16 16 16 16 16 17 17 20
  Université de Californie à San Francisco 20 21 20 21 21 21 18 18 18 18 17 18 18 18 18 18 18 17
  École polytechnique fédérale de Zurich 21 20 19 19 19 19 20 19 20 23 23 23 23 24 27 27 27 27
  Université de Toronto 22 23 24 23 23 27 25 24 28 27 26 27 27 24 23 24 24 24
  Université Washington de Saint-Louis 23 23 22 20 20 23 32 32 32 31 31 30 29 29 28 28 28 28
  Université de Tokyo 24 26 25 22 24 20 21 21 21 20 21 20 20 19 20 19 20 14
  Imperial College London 25 25 23 24 27 22 23 22 24 24 24 26 26 27 23 23 23 23
  University of Michigan 26 22 20 27 24 23 22 22 23 22 22 22 22 21 21 21 21 19
  New York University 27 27 30 32 29 29 27 27 27 27 29 31 32 31 30 29 29 32
  Université Tsinghua 28 29 43 45 48 58 101-150 101-150 151-200 151-200 151-200 151-200 201-302 201-302 151-202 151-200 153-202 202-301
  University of North Carolina at Chapel Hill 29 30 33 30 33 35 39 36 43 41 42 41 39 38 58 59 55 56
  Université de Copenhague 30 33 26 29 30 30 35 39 42 44 43 40 43 45 46 56 57 59
  University of Wisconsin–Madison 31 32 27 28 28 28 24 24 19 19 19 17 17 17 7 16 12 8
  Duke University 32 27 28 26 26 25 31 31 31 36 35 35 31 32 32 31 32 31
  University of Melbourne 33 35 41 38 39 40 44 44 54 57 60 62 75 73 79 78 82 82
  Northwestern University 34 30 29 25 22 26 27 28 30 30 30 29 30 30 29 33 31 30
  Sorbonne Université[Note 3] 35 39 44 36 / / / 35 / / / / / / / / / /
  University of Manchester 35 36 33 34 38 35 41 38 41 40 38 44 41 40 48 50 53 78
  Kyoto University 37 34 32 35 35 32 26 26 26 26 27 24 24 23 22 22 22 21
  Université Paris sciences et lettres 38 36 / / / / / / / / / / / / / / / /
  University of Edinburgh 38 42 31 32 32 41 47 45 51 51 53 54 53 55 53 52 47 47
  University of Minnesota 40 40 41 37 34 33 30 30 29 29 28 28 28 28 33 32 32 33
  University of Texas at Austin 41 41 45 40 51 44 37 39 36 35 35 38 38 39 38 39 36 40
  Institut Karolinska 42 45 38 44 44 44 48 47 44 42 44 42 50 51 53 48 45 46
  Rockefeller University 42 43 35 30 36 37 33 33 34 32 33 34 32 32 30 30 30 29
  University of British Columbia 42 38 35 43 31 34 40 37 40 39 37 36 36 35 36 36 37 36
  Université de Pékin 45 49 53 57 71 71 101-150 101-150 151-200 151-200 201-300 151-200 201-302 201-302 203-304 201-300 203-300 202-301
  Université du Colorado à Boulder 46 44 38 38 43 38 34 34 33 33 32 32 34 34 34 34 35 34
  King's College London 47 47 51 56 46 50 55 59 67 68 68 63 65 81 83 83 80 77
  University of Texas Southwestern Medical Center at Dallas 48 48 49 48 48 43 44 45 46 48 51 49 48 41 39 38 38 36
  Université Louis-et-Maximilien de Munich 48 51 52 53 57 51 52 49 61 60 54 52 55 55 53 51 51 51
  Université d'Utrecht 50 52 49 51 47 65 56 57 52 53 48 50 52 47 42 40 41 39

NotoriétéModifier

L’influence réelle du classement de Shanghai sur les choix des étudiants fait l'objet de débats[23], alors qu'il pourrait s'agir d'un critère déterminant pour évaluer la pertinence d’un tel classement. Selon Philippe Mahrer, directeur du Collège des ingénieurs, ce classement n'a qu'une faible notoriété en Chine, même auprès des étudiants. Au contraire, selon l'ambassade de France en Chine : « [ce classement] trouve en effet un écho important chez les étudiants chinois, pour qui le prestige de l’université est déterminant car il fait partie des critères de recrutement professionnel en Chine »[17].

De fait, le classement est surtout considéré par les administrations, les équipes pédagogiques et les ministères (qui en ont fait un mode d'évaluation des universités) alors que l’orientation des étudiants, et notamment vers les universités de sciences sociales, prend en compte de nombreux facteurs, souvent personnels[24].

En FranceModifier

La France compte une poignée d'universités dans le top 100 du classement[25],[26] une vingtaine dans le top 500[8], et environ 35 dans le classement complet, étendu à 1000 universités à partir de l'année 2018. Paris-Saclay fait son entrée à la 14e place en 2020[27].

En , l'université Paris-Saclay confirme sa progression en atteignant la 13e place mondiale. Désormais, le top 100 mondial compte quatre universités françaises (Université Paris-Saclay, Sorbonne Université, Université Paris sciences et lettres et Université de Paris), soit une de moins que l'année précédente. Même chose pour le top 500 qui compte désormais dix-sept universités françaises, contre dix-huit pour l'édition 2020[28].

Particularités françaises au regard de la pertinence des critèresModifier

Un prix Nobel obtenu par un professeur d'université français peut valoir deux fois moins qu'un Nobel obtenu par un professeur d'université américain ou britannique. En effet, la recherche française s'effectuant en général dans des unités mixtes de recherche qui associent des universitaires au CNRS, le classement Shanghai attribue 50 % du bénéfice à l'université et 50 % à l'organisme du CNRS[18]. Mais puisque le CNRS et les autres organismes de recherche français n'apparaissent pas dans le classement Shanghai, cela veut dire que « la moitié du bénéfice du prix ne profite à personne et s'évapore complètement » (Albert Fert[18]). Pour ce qui concerne les 60 % de la note, qui dépendent du décompte d'articles et du nombre de citations, « le principe général est le même que pour les prix. (…) dans le cas de publications d'un laboratoire universitaire associant l'université et un organisme comme le CNRS, à peu près 50 % du bénéfice restera en général à l'université et 50 % s'évaporera en ne profitant à personne »[18]. Ce dernier point concerne en particulier la liste des chercheurs les plus cités: c'est pourquoi en 2019 une instruction de la Ministre de l'Enseignement Supérieur demande aux chercheurs concernés de corriger cet effet en mentionnant comme affiliation primaire le site universitaire qui héberge leur laboratoire[29].

Impact du classement en FranceModifier

Regroupements d'établissementsModifier

Le classement d’un établissement étant sensible à sa taille, il en a été souvent déduit qu'une façon de monter dans le classement était de regrouper des établissements, à moyen constants.

Cet argument de la montée dans les classements apparaît donc souvent au premier plan dans les présentations relatives aux nouveaux regroupements universitaires[30]

Le classement est très médiatisé en France[31],[32], contrairement à certains pays comme les États-Unis ou le Royaume-Uni dont les établissements sont pourtant très bien classés, et pousse la France à faire des choix qui vont à l’encontre de « l’esprit de service public », tels que la création de regroupements universitaires parfois artificiels, dans une logique de concurrence et de rationalisation économique[6],[23],[33], avec l'objectif clair de monter dans le classement[32],[34],[10],[35], mais sans que les effets de cette politique soient immédiatement détectables[26].

Dès 2005, le ministre de l'éducation nationale du gouvernement de Dominique de Villepin, Gilles de Robien, déclare que « pour affronter la concurrence internationale [il faut] remonter dans le classement, [et ainsi] redevenir capable d'attirer des talents étrangers »[3]. Dans sa lettre de mission à Valérie Pécresse, alors ministre de l’Enseignement supérieur et de la Recherche, Nicolas Sarkozy exigeait « l’amélioration du rang de nos établissements d’enseignement supérieur dans les classements internationaux, avec l’objectif de classer au moins deux établissements français parmi les 20 premiers et 10 parmi les 100 », ce qu'elle a réaffirmé en disant que « notre objectif est d’avoir dix universités françaises dans les cent premières de ce classement d’ici à 2012 »[32] (en 2012 elles étaient trois; elles n'étaient encore que cinq en 2020). Le classement était l'une des motivations principales de la constitution des Pôles de recherche et d'enseignement supérieur (PRES). Valérie Pécresse, justifiait en effet son influence ainsi : « Lorsqu'ils choisissent leur future université, les étudiants américains, australiens, chinois, indiens regardent ce classement. C'est la mondialisation. On ne peut s'en abstraire et nous devons donc gagner des places, ce qui n'est pas contraire à l'exigence d'excellence de l'université française »[30].

En 2013, lors d’une nouvelle publication du classement, la ministre de l’enseignement supérieur Geneviève Fioraso semblait indiquer un très léger changement de perspective vis-à-vis du classement : « Sans négliger les effets d'image et de visibilité que ces classements produisent, je me concentre plutôt sur la réussite des étudiants, l'introduction de l'anglais pour attirer des étrangers, l'incitation à multiplier les coopérations européennes[36] ». Mais elle affirmait « nous sommes des pastilles vues de Shanghaï »[37] pour justifier les regroupements d'universités.

En 2018, pour le PDG du CNRS Antoine Petit, il est nécessaire que la recherche française s'offre des chercheurs vedettes, parce que « on peut dire qu’on continue avec ce système de rémunération [des chercheurs] mais alors il faut arrêter de dire qu’on va gagner des places dans le classement de Shanghai. C’est l’un ou c’est l’autre, c’est à nous de décider »[38].

L'Université d'Aix-Marseille est créée en 2012 en fusionnant les trois universités marseillaises « pour atteindre à la 26e place du fameux classement de Shanghai » selon Valérie Pecresse[30] mais sans succès[N 7]. En 2020, l'établissement Paris-Saclay, créé en regroupant « 13 % du potentiel de recherche français » dans une seule université dans le but très clairement inscrit dans l’annexe du décret de « figurer parmi les plus grandes institutions universitaires mondiales », atteint la 14e place[27].

Le trafic des publications académiquesModifier

Dans une tribune libre, Yves Gingras note que certaines institutions offrent à leurs chercheurs des primes à la publication, et s'indigne que certains chercheurs monnaient des affiliations factices dans des institutions qui cherchent à monter dans le classement[39].

Aux États-UnisModifier

Le classement, dont les universités américaines occupent le haut[40], est devenu un élément du soft power américain[41]. Mais l’essayiste Ryan Craig estime que les classements détournent les universités américaines de leurs étudiants[40] : « Vous ne verrez rien sur la qualité des apprentissages, ni d’ailleurs sur l’emploi à la sortie. Pire : toutes les données sont aisément manipulables. Vous pouvez artificiellement gonfler votre vivier de candidats afin d’améliorer votre taux de sélectivité, ou votre nombre de donateurs ».

En ChineModifier

Le classement est ignoré des étudiants chinois, qui lui préfèrent les grands anglo-saxons, mais il a eu une influence importante sur l’enseignement supérieur chinois, l'objectif des dirigeants chinois depuis les années 1990 étant de hisser un système universitaire initialement inspiré par les Soviétiques à un autre calqué sur les campus américains. De fait, la Chine progresse chaque année dans son propre classement[1].

AlternativesModifier

Les principales alternatives au classement de Shanghaï sont le Times Higher Education, World University Rankings (THE-WUR) et le World University Rankings (ou "classement mondial des Universités", QS-WUR) (voir l'article Palmarès universitaires pour plus de détails)[42],[43]. L'initiative U-Multirank a été lancée par la commission européenne face au risque de voir le classement de Shanghaï marginaliser les établissements européens[43], et cherche à situer chaque établissement en fonction de cinq grands critères : enseignement et apprentissage, recherche, transfert de connaissances, orientation internationale, et engagement régional[42].

Notes et référencesModifier

NotesModifier

  1. Y compris le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel (« prix Nobel d'économie »). Sont pris en compte les élèves ayant obtenu leurs diplômes de bachelor, master et doctorat de l'institution. Un coefficient de 1 est attribué aux promotions postérieures à 2011, 0,9 aux promotions de 2001-2010 et ainsi de suite jusqu'à 0,1 pour les diplômes remis entre 1921-1930. Les personnes ayant obtenu plus d'un diplôme dans la même institution ne sont comptabilisées qu'une seule fois.
  2. Sont pris en compte les lauréats en poste dans l'institution lors de la remise du prix. Une pondération décroissante est appliquée : 1 pour les lauréats postérieurs à 2011, 0,9 pour les lauréats de 2001-2010, 0,8 pour 1991-2000, et ainsi de suite jusqu'à 0,1 pour les lauréats de 1921-1930. Si un lauréat a plusieurs affiliations, chaque affiliation se voit attribuer une fraction du coefficient. Pour les prix Nobel qui sont partagés, les coefficients sont proportionnels à la part du prix Nobel qu'ils ont obtenu. Les prix Nobel de littérature et prix Nobel de la paix sont exclus du barème.
  3. Les auteurs coécrivants sont comptabilisés ainsi : 1 pour l'affiliation de l'auteur correspondant, 0,5 pour l'affiliation du premier auteur (deuxième auteur si l'affiliation du premier auteur est la même que l'affiliation de l'auteur correspondant ), 0,25 pour l'affiliation de l'auteur suivant, et 0,1 pour les affiliations des autres auteurs. Seuls les articles ayant fait l'objet d'une publication sont pris en compte. Cet indicateur n'est pas pris en compte pour les institutions de sciences humaines et sciences sociales.
  4. Nombre total d'articles indexés dans Science Citation Index (version de base et augmentée) et Social Sciences Citation Index dans l'année précédant la parution du classement. Seuls les articles ayant fait l'objet d'une publication sont pris en compte.
  5. La somme pondérée des cinq indicateurs, divisée par le nombre d'enseignants-chercheurs (équivalent temps-plein).
  6. Gingras note qu'il faut s'interroger « sur la validité d’un indice qui fait varier la position d’une université de plus de 100 rangs par le seul fait d’attribuer à l’université de Berlin ou à l’université Humboldt le Prix Nobel d’Einstein obtenu en 1922 » (Gingras 2008).
  7. En 2007, l'Université de la Méditerranée (Aix-Marseille 2) et l'Université de Provence (Aix-Marseille 1) étaient dans les tranches 203-304 et 305-402 du classement, et l’Université Paul-Cézanne (Aix-Marseille 3) n’était pas classée. En 2020, l'Université d'Aix-Marseille est dans la tranche 101-150 du classement.
  1. Order shown in accordance with the latest result.
  2. Université Paris-Sud jusqu'en 2019.
  3. Université Pierre-et-Marie-Curie jusqu'en 2017.

RéférencesModifier

  1. a b c et d « Les vingt ans qui ont transformé le système universitaire chinois », Le Monde.fr,‎ (lire en ligne, consulté le )
  2. a et b Anthony Lattier et François-Xavier Rigaud, « L'homme de Shanghai », Le Point,
  3. a et b « Deux visions antagonistes de la compétition universitaire », Le Monde,‎ (lire en ligne, consulté le )
  4. « La France progresse dans le classement de Shanghai des universités », Le Monde,‎ (lire en ligne, consulté le )
  5. (en) Nian Cai Liu, Ying Cheng et Li Liu, « Academic ranking of world universities using scientometrics - A comment to the “Fatal Attraction” », Scientometrics, vol. 64, no 1,‎ , p. 101–109 (ISSN 0138-9130 et 1588-2861, DOI 10.1007/s11192-005-0241-z, lire en ligne, consulté le )
  6. a b c d e f g h i j k l m n o p q et r (en) Jean-Charles Billaut, Denis Bouyssou et Philippe Vincke, « Should you believe in the Shanghai ranking? », Scientometrics, vol. 84, no 1,‎ , p. 237–263 (lire en ligne, consulté le )
  7. (en) N. C. Liu et Y. Cheng, « Academic Ranking of World Universities – Methodologies and Problems » [PDF], Higher Education in Europe, vol. 30, no 2, (voir archive)
  8. a et b « Universités : pourquoi le classement de Shanghai n’est pas un exercice sérieux », Le Monde,‎ (lire en ligne, consulté le )
  9. Yves Gingras, « Le classement de Shanghai n’est pas scientifique », La Recherche, vol. 430,‎ , p. 46-50 (lire en ligne)
  10. a et b Yves Gingras, « Du mauvais usage de faux indicateurs », Revue d’histoire moderne et contemporaine, vol. 55-4bis, no 5,‎ , p. 67 (DOI 10.3917/rhmc.555.0067).
  11. a et b Le Point Vétérinaire.fr, « Le classement de Shangaï est publié », sur Le Point Vétérinaire.fr (consulté le )
  12. a et b (en) « Is China really becoming a science and technology superpower? », sur http://namesorts.com/, (consulté le )
  13. Sylvestre Huet, « Recherche scientifique : le faux miracle italien », sur {Sciences²}, (consulté le )
  14. (en) Domingo Docampo et Lawrence Cram, « On the effects of institutional size in university classifications: the case of the Shanghai ranking », Scientometrics, vol. 102, no 2,‎ , p. 1325–1346 (ISSN 1588-2861, DOI 10.1007/s11192-014-1488-z, lire en ligne, consulté le )
  15. (en) Big is (made) Beautiful : Some comments about the Shanghai ranking of world-class universities - Michel Zitt et Ghislaine Filliatreau, première conférence internationale sur les universités de classe mondiale, Shanghai, juin 2005 [PDF] (voir archive)
  16. (en) Zitt M. et Filliatreau G., The world-class university and ranking : aiming beyond status, UNESCO-CEPES, , 378 p. (ISBN 978-92-9069-184-6, 92-9069-184-0 et 9736104915, OCLC 187221880), « Big is (made) beautiful: Some comments about the Shanghai-ranking of world-class universities »
  17. a et b Philippe Mahrer, « Université-Grandes écoles, le vrai poids de la France », Les Échos,
  18. a b c et d Albert Fert (prix Nobel de physique), « Comment le classement de Shanghai désavantage nos universités », Le Monde,‎ (lire en ligne, consulté le )
  19. (en) Milica Jovanovic, Veljko Jeremic, Gordana Savic et Milica Bulajic, « How does the normalization of data affect the ARWU ranking? », Scientometrics, vol. 93, no 2,‎ , p. 319–327 (ISSN 0138-9130 et 1588-2861, DOI 10.1007/s11192-012-0674-0, lire en ligne, consulté le )
  20. (en) Diana Hicks, Paul Wouters, Ludo Waltman et Sarah de Rijcke, « Bibliometrics: The Leiden Manifesto for research metrics », Nature, vol. 520, no 7548,‎ , p. 429–431 (ISSN 1476-4687, DOI 10.1038/520429a, lire en ligne, consulté le )
  21. (en) Bahram Bekhradnia, « International university rankings: For good or ill? » [PDF], sur Higher Education Policy Institute,  : « ARWU presents a further data issue. Whereas in the case of the other rankings the results are adjusted to take account of the size of institutions, hardly any such adjustment is made by ARWU. So there is a distortion in favour of large institutions. If two institutions were to merge, the very fact of merger would mean that the merged institution would do nearly twice as well as either of the individual institutions prior to merger, although nothing else had changed. »
  22. « ARWU World University Rankings 2019 | Academic Ranking of World Universities 2019 | Top 1000 universities | Shanghai Ranking - 2019 », sur www.shanghairanking.com (consulté le )
  23. a et b Eric Nunès, « « Le classement de Shanghai n’est pas fait pour mesurer la qualité des universités françaises » », Le Monde,‎ (lire en ligne, consulté le )
  24. (en) Does the Shanghai Academic Ranking Really Matter? French and American Students Respond - Marc Goetzmann, La Jeune Politique, 30 août 2013 (voir archive)
  25. « Classement de Shanghaï : trois universités françaises dans le top 100 », Le Monde,‎ (lire en ligne, consulté le )
  26. a et b « Classement de Shanghai : pourquoi les universités françaises sont à la traîne », Le Monde,‎ (lire en ligne, consulté le )
  27. a et b « Paris-Saclay, première université française à percer dans le classement de Shanghaï », Le Monde.fr,‎ (lire en ligne, consulté le )
  28. le figaro, « Classement de Shanghai 2021: l’université Paris-Saclay confirme sa progression », sur Le Figaro Etudiant (consulté le )
  29. Marie-Christine Corbier, « Classement de Shanghai : la nouvelle règle qui va faire grimper les universités françaises », Les Échos,‎ (lire en ligne, consulté le )
  30. a b et c « Compte-rendu analytique de la réunion du 11 juillet 2007 », sur Sénat français : « Les trois grandes universités d'Aix-Marseille veulent fusionner et unir leurs forces pour atteindre à la 26e place du fameux classement de Shanghai. »
  31. Barats et Leblanc 2013.
  32. a b et c Jean Pérès, « Le classement de Shanghai des universités : une pernicieuse addiction médiatique », sur Acrimed | Action Critique Médias (consulté le )
  33. Hugo Harari-Kermadec. Le Classement De Shanghai. L'université Marchandisée.
  34. « Classement de Shanghai : "Il faut prendre cela avec beaucoup de recul", réagit le président de Paris-Sud, première université française du palmarès », sur Franceinfo, (consulté le ) : « La transformation de Paris-Sud en Paris-Saclay doit avoir comme conséquence de grimper dans différents classements, et en particulier dans le classement de Shanghai (Alain Sarfati, président de l'université Paris-Sud) »
  35. (en) D. Docampo, D. Egret et L. Cram, « The effect of university mergers on the Shanghai ranking », Scientometrics, vol. 104, no 1,‎ , p. 175–191 (ISSN 1588-2861, DOI 10.1007/s11192-015-1587-5, lire en ligne, consulté le )
  36. Classement de Shanghaï : un palmarès bousculé par l'Asie - Isabelle Rey-Lefebvre, Le Monde, 15 août 2013
  37. « Le gouvernement regroupe les universités en 25 grands ensembles », sur Les Echos, (consulté le )
  38. « Antoine Petit (CNRS) et les stars de la science », {Sciences²},‎ (lire en ligne, consulté le )
  39. Sylvestre Huet, « Les agents doubles du classement de Shanghai », Libération (consulté le )
  40. a et b « Malgré leurs bonnes évaluations, les universités américaines menacées de déclin », Le Monde.fr,‎ (lire en ligne, consulté le )
  41. « « Sur la valeur stratégique du Soft Power » - Interview de Joseph Nye », sur France Culture, (consulté le )
  42. a et b (en) Jean Winand, « À quoi servent les classements universitaires », sur The Conversation (consulté le )
  43. a et b Par Adrien de Tricornot et Marine Miller, « Universités : les alternatives au classement de Shanghaï », Le Monde,‎ (lire en ligne, consulté le )

BibliographieModifier

  • Jean-Charles Billaut, Denis Bouyssou et Philippe Vincke, « Faut-il croire le classement de Shangaï ? Une approche fondée sur l’aide multicritère à la décision », Revue de la régulation. Capitalisme, institutions, pouvoirs, no 8,‎ (ISSN 1957-7796, DOI 10.4000/regulation.9016, lire en ligne, consulté le )
  • Christine Barats et Jean-Marc Leblanc, « Généalogie de la co-construction médiatique du classement de Shanghai en France », Mots. Les langages du politique, no 102,‎ (DOI 10.4000/mots.21313, lire en ligne, consulté le )
  • Hugo Harari-Kermadec, Le Classement De Shanghai. L'université Marchandisée, Bord de l'eau, , 168 p. (ISBN 978-2-35687-680-5, lire en ligne)
Voir « Le classement de Shanghaï n’est pas fait pour mesurer la qualité des universités françaises » dans Le Monde, 15 août 2019, (Nunès 2019).

Voir aussiModifier

Article connexeModifier

Liens externesModifier