Ouvrir le menu principal

Classement académique des universités mondiales par l'université Jiao Tong de Shanghai

Le classement académique des universités mondiales par l'université Jiao Tong de Shanghai ou classement de Shanghai (appellation commune du Academic Ranking of World Universities en anglais, ou ARWU) est un classement des principales universités mondiales, établi par des chercheurs de l'université Jiao-tong de Shanghai en Chine.

Ces institutions sont classées selon un indice unique calculé à partir de six critères quantitatifs, notamment le nombre de publications dans les deux revues scientifiques Nature et Science, le nombre de chercheurs parmi ceux qui sont les plus cités, le nombre de prix Nobel scientifiques et de médailles Fields attribués aux anciens élèves et aux personnels de l'université, et un critère de productivité rapporté à la taille du corps enseignant si elle est connue.

L'affirmation selon laquelle ces critères seraient pertinents et objectifs ne résiste pas à l'analyse, et la méthode de classement et sa pertinence sont vivement critiquées. Le classement favorise les institutions anciennes, de grande taille, et les sciences dures (particulièrement la médecine et la biologie) au détriment des sciences sociales et du droit. Ni les contraintes que subissent les établissements ni leurs ressources ne sont considérées. Aucun critère du classement n'évalue la qualité de l'enseignement ni le niveau des élèves diplômés, ce qui est paradoxal dans un classement d'institutions dont l'une des deux vocations premières, à côté de la recherche, est l'enseignement et la formation professionnelle d'élèves qui pour la plupart ne se destinent pas à la recherche.

Ce classement est plus médiatisé en France que dans d'autres pays pourtant mieux classés, et il a un impact majeur sur les politiques publiques: les fusions d'institutions universitaires réalisées en France dans une logique de concurrence ont pour objectif au moins partiel de monter dans ce classement.

HistoriqueModifier

Le but initial de ce classement était de comparer les universités chinoises avec les meilleures universités mondiales. Pour répondre à la demande du président de l'université Jiao Tong qui souhaitait pouvoir envoyer ses étudiants dans les meilleures universités, le professeur Nian Cai Liu, un chimiste travaillant pour cette université, établit un premier classement en 2003[1]. Faute de moyens et ne disposant que de deux collaborateurs, il va alors au plus simple, ne prenant en compte que des données accessibles par Internet et jugées objectives[1] : le nombre de prix Nobel (exclusivement ceux récompensant les scientifiques) et médailles Fields (pour les mathématiques), le nombre de chercheurs les plus cités dans leur discipline, le nombre de publications dans les revues scientifiques Nature et Science et le nombre de chercheurs répertoriés dans deux bases de données d'articles scientifiques, l'une sur les sciences humaines, l'autre sur les sciences pures. Après sa publication en 2003, le classement est tout d'abord ignoré, puis critiqué, mais il aura un important impact mondial[2]. A partir de 2009, un classement par disciplines est aussi publié[3].

CritèresModifier

Les concepteurs du classement ont publié la méthode de calcul en 2005[4], qui selon eux « utilise des critères objectifs sélectionnés avec soin », « est fondé sur des données internationales comparables que tout le monde peut vérifier » et « ne comporte aucune mesure subjective », une série d'affirmations qui ne résiste pas à l'analyse[5]. Cette méthode inclut les critères pondérés suivants:

Critères Indicateurs Pondération
Qualité de l'enseignement Nombre de prix Nobel et de médailles Fields parmi les anciens élèves[N 1] 10 %
Qualité de l'institution Nombre de prix Nobel et de médailles Fields parmi les chercheurs[N 2] 20 %
Nombre de chercheurs les plus cités dans leurs disciplines pendant les vingt dernières années 20 %
Publications Articles publiés dans Nature et Science pendant les cinq dernières années[N 3] 20 %
Articles indexés dans Science Citation Index, et Arts & Humanities Citation Index[N 4] 20 %
Taille de l'institution Performance académique au regard de la taille de l'institution[N 5] 10 %

Les données brutes utilisées par les auteurs du classement restent confidentielles. Les créateurs du classement soulignent eux-mêmes certaines de ses limites, notamment un biais en faveur des institutions de grande taille comme le sont celles des pays anglophones, ainsi que les difficultés à définir des indicateurs adéquats pour classer les universités spécialisées dans les sciences sociales[6].

CritiquesModifier

L'analyse des critères utilisés et de la méthode de calcul démontre aisément le caractère arbitraire et non pertinent de ce classement[5],[7],[8],[9]. Dans un article publié en avril 2009, J-C. Billaut, D. Bouyssou et Ph. Vincke décortiquent le fonctionnement du classement de Shanghai, avec leur éclairage de spécialistes d’aide multicritère à la décision. Il en ressort une critique très argumentée des critères qui sont utilisés (que les auteurs qualifient de « non pertinents »), ainsi que des paradoxes dans la méthode utilisée[10],[5], les auteurs concluant que « le classement de Shangaï, malgré la grande couverture médiatique qu’il reçoit chaque année, n’est pas un outil pertinent pour juger de la « qualité » des institutions académiques, guider le choix des étudiants ou des familles, ou promouvoir des réformes du système d’enseignement supérieur »[5].

Critères non pertinentsModifier

Sur l'utilisation du nombre de prix Nobel pour mesurer la qualité de l'institution, le classement comptabilise le prix pour l'institution à laquelle appartient son récipiendaire au moment de l’annonce de la récompense, mais celle ci est due à une découverte qui peut être très ancienne et avoir été menée dans une autre institution. La façon dont le classement comptabilise des récompenses anciennes favorise les pays dont le paysage académique est très stable et des institutions anciennes et n'ayant jamais changé de nom[N 6] (en particulier, les affiliations des récipiendaires français du prix Nobel utilisées pour le classement sont très problématiques[10]). Enfin, le classement ignore certaines récompenses tout aussi prestigieuses que le prix Nobel, telles que le prix Turing en informatique ou la médaille Bruce en astronomie. Le nombre de prix Nobel et médailles Fields dans une institution ne permet donc pas d'estimer la qualité actuelle de la recherche ou de l'enseignement dans cette institution[5]. La qualité de formation des étudiants n'est pas prise en compte par le classement[11].

Concernant le critère des chercheurs dont les travaux sont « les plus cités » sur une période de 20 ans, la méthode utilisée favorise nettement la médecine et la biologie et les chercheurs séniors, qui sont susceptibles d’avoir changé d’institution au cours de leur carrière[5], et elle est faussée par des biais culturels importants[12] (les Italiens citent les Italiens[13], etc.). Ce critère ne mesure donc que très approximativement la capacité d’une institution à produire actuellement une recherche de fort impact[5].

Concernant les publications dans Nature et Science, l'importance donnée à ces deux seules revues pose question, de même que le mode de pondération des co-auteurs qui donne plus de poids pour une institution à un article co-signé par le plus possible de membres de cette institution[5]. Pour tous les critères liés aux publications, l'attribution correcte d'un article à une institution particulière est très difficile parce que les auteurs n'indiquent pas ce nom de façon normalisée sur leurs articles[5]. De part le choix de la base de données utilisée, ce critère favorise les articles publiés en anglais (et cherche à corriger ce biais en attribuant un coefficient arbitraire aux publications en SHS) et le classement compte le nombre total d'articles publiés sans chercher à pondérer ces articles par leur impact (l'identité du journal dans lequel les articles sont publiés)[5]. Des critiques pointent que seuls certains types de publications sont pris en compte, et que les livres, les chapitres dans des ouvrages collectifs ou encore les articles de vulgarisation scientifique, ne sont pas comptabilisés[11]. Le critère des publications est donc basé sur des choix particulièrement arbitraires.

Le critère de productivité prend en compte le nombre d’équivalents temps plein du corps académique de chaque institution s'il a pu être déterminé, et sans en définir clairement les contours. Les auteurs de l'étude résument ainsi: « Les critères ont été choisis principalement sur la base de la disponibilité sur Internet des informations permettant de les renseigner, que chacun d’entre eux est lié de façon très approximative avec ce qu’il est censé mesurer et que leur évaluation fait intervenir des paramètres arbitraires et des microdécisions non documentées. L’impact de ces éléments sur le résultat final n’est pas examiné. Les données initiales utilisées ne sont pas rendues publiques et donc ne peuvent pas être vérifiées »[5].

La plupart des critères sont obtenus par des comptages de prix ou de publications, qui favorisent arbitrairement les institutions de grande taille, ainsi, « big is made beautiful » (le gros est rendu beau)[14],[15]. Philippe Mahrer explique ainsi que les pays disposant de nombreuses écoles ou universités de petite taille sont exclus du classement, de même que les universités, centres de recherche ou écoles travaillant en réseau comme c'est de plus en plus le cas en Europe[16]. Ce dernier point est tout particulièrement dénoncé (et mis en évidence) par le prix Nobel de physique Albert Fert[17].

Le cas particulier des sciences humainesModifier

Les bases de données utilisées pour l'établissement du classement recensent des revues de toutes les langues. En sciences exactes, les journaux en langue autre que l'anglais ayant à peu près disparu, les revues recensées sont donc très majoritairement publiées en anglais, quel que soit leur pays d'édition (Amérique du nord, Europe, Japon). Parmi celles-ci, Nature et Science bénéficient en sciences exactes d'une notoriété inégalée. En sciences humaines et sociales par contre, la promotion de travaux se fait également lors de conférences ou dans des revues non anglo-saxonnes, et ce pour des raisons multiples (coût, accessibilité, pertinence, impact, etc.). De fait, la publication des travaux de sciences humaines ne se fait donc pas majoritairement en langue anglaise et elle est, à ce titre, moins bien prise en compte par ce classement[12].

Technique d'agrégation déficienteModifier

Un autre type de critiques concerne la façon apparemment arbitraire dont les notes normalisées des différents critères sont agrégés en utilisant une somme pondérée pour calculer un indice unique, permettant le classement. En dépit de toute rigueur, la normalisation des scores change chaque année sans que les poids des critères soient modifiés en conséquence. Billaut, Bouyssou et Vincke expliquent en quoi cela démontre que « les auteurs du classement sont tombés dans ces pièges élémentaires liés à la normalisation » au point « qu'on ne peut pas conclure que s’améliorer sur un critère permet de monter dans le classement ». La méthode de calcul du classement est telle qu'une institution faible sur un critère particulier aurait même intérêt pour monter dans le classement à ce qu'une institution classée juste devant elle s'améliore sur ce critère[5].

Par ailleurs, calculer la moyenne pondérée de critères représentent la production (les cinq premiers) et la productivité (le dernier) conduit nécessairement à un résultat vide de sens, comme si l'on cherchait à calculer la richesse d'un pays en faisant une moyenne du PIB et du PIB par habitant[5].

Questions négligéesModifier

Les auteurs du classement ne définissent pas ce qu'est une université (au point que le Collège de France, qui ne délivre aucun diplôme, a un temps fait partie du classement), ni ce qu'est une « université de classe mondiale ». Ils ignorent les contraintes, très différentes selon les pays, que peuvent subir les institutions, et les ressources qu'elles consomment (exception faite de la taille du « corps académique », mais seulement si elle est connue)[5]. L'objectif même de faire un tel classement n'est pas discuté, et les bonnes pratiques[18] sont oubliées: les institutions évaluées ne disposent pas des données leur permettant de comprendre comment elles l'ont été, et les auteurs n'anticipent pas la façon dont les institutions peuvent adapter leur comportement en réaction au système d’évaluation[5]. Par exemple, les notes de la plupart des critères du classement étant proportionnelles à la taille de l'établissement, les regrouper devrait suffire pour monter dans le classement, sans changer la nature ou la qualité de la recherche[19] (voir le cas de la France ci dessous).

NotoriétéModifier

Selon Philippe Mahrer, directeur du Collège des ingénieurs, ce classement n'a qu'une faible notoriété en Chine, même auprès des étudiants. Au contraire, selon l'ambassade de France en Chine : « [ce classement] trouve en effet un écho important chez les étudiants chinois, pour qui le prestige de l’université est déterminant car il fait partie des critères de recrutement professionnel en Chine. »[16] L’influence réelle du classement de Shanghai sur les choix des étudiants est faible[20], alors qu'il pourrait s'agir d'un critère prioritaire pour évaluer la pertinence d’un tel classement. En effet, le classement est principalement considéré par les administrations, les équipes pédagogiques et les ministères (qui en ont fait un mode d'évaluation des universités) alors que l’orientation des étudiants, et notamment vers les universités de sciences sociales, prend en compte de nombreux facteurs, souvent personnels[21].

En FranceModifier

La France compte une poignée d'université dans le top 100 du classement[22],[23] et une vingtaine dans le classement complet[7].

Particularités françaises au regard de la pertinence des critèresModifier

Un prix Nobel obtenu par un professeur d'université français peut valoir deux fois moins qu'un Nobel obtenu par un professeur d'université américain ou britannique. En effet, la recherche française s'effectuant en général dans des unités mixtes de recherche qui associent des universitaires au CNRS, le classement Shanghaï attribue 50 % du bénéfice à l'université et 50 % à l'organisme du CNRS[17]. Mais puisque le CNRS et les autres organismes de recherche français n'apparaissent pas dans le classement Shanghaï, cela veut dire que « la moitié du bénéfice du prix ne profite à personne et s'évapore complètement » (Albert Fert[17]). Pour ce qui concerne les 60 % de la note, qui dépendent du décompte d'articles et du nombre de citations, « le principe général est le même que pour les prix. (...) dans le cas de publications d'un laboratoire universitaire associant l'université et un organisme comme le CNRS, à peu près 50 % du bénéfice restera en général à l'université et 50 % s'évaporera en ne profitant à personne[17]. »

Impact et utilisation du classement en FranceModifier

Le classement est très médiatisé en France[24], contrairement à certains pays comme les Etats-Unis ou le Royaume-Uni dont les établissements sont pourtant très bien classés, et pousse la France à faire des choix qui vont à l’encontre de « l’esprit de service public », tels que la création de regroupements universitaires parfois artificiels, dans une logique de concurrence et de rationalisation économique[5],[20],[25], avec l'objectif clair de monter dans le classement[24],[26],[9], mais sans que les effets de cette politique soient encore détectables[23].

Dès 2005, le ministre de l'éducation nationale du gouvernement de Dominique de Villepin, Gilles de Robien, déclare que « pour affronter la concurrence internationale [il faut] remonter dans le classement, [et ainsi] redevenir capable d'attirer des talents étrangers »[2]. Dans sa lettre de mission à Valérie Pécresse, alors ministre de l’Enseignement supérieur et de la Recherche, Nicolas Sarkozy exigeait « l’amélioration du rang de nos établissements d’enseignement supérieur dans les classements internationaux, avec l’objectif de classer au moins deux établissements français parmi les 20 premiers et 10 parmi les 100 », ce qu'elle a réaffirmé en disant que « notre objectif est d’avoir dix universités françaises dans les cent premières de ce classement d’ici à 2012 »[24] (en 2012 elles n'étaient encore que trois, de même qu'en 2019). Le classement était l'une des motivations principales de la constitution des Pôle de recherche et d'enseignement supérieur (PRES). Valérie Pécresse, justifiait en effet son influence ainsi : « Lorsqu'ils choisissent leur future université, les étudiants américains, australiens, chinois, indiens regardent ce classement. C'est la mondialisation. On ne peut s'en abstraire et nous devons donc gagner des places, ce qui n'est pas contraire à l'exigence d'excellence de l'université française »[27]. L'Université d'Aix-Marseille est créée en fusionnant les trois universités marseillaises « pour atteindre à la 26e place du fameux classement de Shanghai » selon Valérie Pecresse[27],[N 7]. En 2013, lors d’une nouvelle publication du classement, la ministre de l’enseignement supérieur Geneviève Fioraso semblait indiquer un très léger changement de perspective vis-à-vis du classement : « Sans négliger les effets d'image et de visibilité que ces classements produisent, je me concentre plutôt sur la réussite des étudiants, l'introduction de l'anglais pour attirer des étrangers, l'incitation à multiplier les coopérations européennes[28] ». Mais elle affirmait « nous sommes des pastilles vues de Shanghai »[29] pour justifier les regroupements d'universités. En 2018, pour le PDG du CNRS Antoine Petit, il est nécessaire que la recherche française s'offre des chercheurs vedettes, parce que « on peut dire qu’on continue avec ce système de rémunération [des chercheurs] mais alors il faut arrêter de dire qu’on va gagner des places dans le classement de Shanghai. C’est l’un ou c’est l’autre, c’est à nous de décider »[30].

Certaines institutions offrent à leurs chercheurs des primes à la publication, et certains chercheurs monnaient des affiliations factices dans des université qui cherchent à monter dans le classement[31].

AlternativesModifier

Les principales alternatives au classement de Shanghaï sont le Times Higher Education, World University Rankings (THE-WUR) et le World University Rankings (ou "classement mondial des Universités", QS-WUR) (voir l'article Palmarès universitaires pour plus de détails)[32],[33]. L'initiative U-Multirank a été lancée par la commission européenne face au risque de voir le classement de Shanghaï marginaliser les établissements européens[33], et cherche à situer chaque établissement en fonction de cinq grands critères : enseignement et apprentissage, recherche, transfert de connaissances, orientation internationale, et engagement régional[32].

Notes et référencesModifier

NotesModifier

  1. Y compris le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel (« prix Nobel d'économie »). Sont pris en compte les élèves ayant obtenu leurs diplômes de bachelor, master et doctorat de l'institution. Un coefficient de 1 est attribué aux promotions de 1991-2000, 0,9 aux promotions de 1981-1990 et ainsi de suite jusqu'à 0,1 pour les diplômes remis entre 1901-1910. Les personnes ayant obtenu plus d'un diplôme dans la même institution ne sont comptabilisées qu'une seule fois. Les prix Nobel de littérature et prix Nobel de la paix sont exclus du barème.
  2. Est pris en compte le nombre de chercheurs travaillant dans l'institution lors de la remise du prix. Une pondération décroissante est appliquée : 1 pour les lauréats de 2001-2004, 0,9 pour les lauréats de 1991-2000, 0,8 pour 1981-1990, et ainsi de suite jusqu'à 0,1 pour les lauréats de 1911-1920. Si un lauréat a plusieurs affiliations, chaque affiliation se voit attribuer le même coefficient. Pour les prix Nobel qui sont partagés, les coefficients sont proportionnels à la part du prix Nobel qu'ils ont obtenu.
  3. Les auteurs coécrivants sont comptabilisés ainsi : 1 pour l'affiliation de l'auteur correspondant, 0,5 pour l'affiliation du premier auteur (deuxième auteur si l'affiliation du premier auteur est la même que l'affiliation de l'auteur correspondant ), 0,25 pour l'affiliation de l'auteur suivant, et 0,1 pour les affiliations des autres auteurs. Seuls les articles ayant fait l'objet d'une publication sont pris en compte. Cet indicateur n'est pas pris en compte pour les institutions de sciences humaines et sciences sociales.
  4. Nombre total d'articles indexés dans Science Citation Index (version de base et augmentée) et Arts & Humanities Citation Index en 2004. Seuls les articles ayant fait l'objet d'une publication sont pris en compte.
  5. La somme pondérée des cinq indicateurs, divisée par le nombre de chercheurs (équivalent temps-plein).
  6. Gingras note qu'il faut s'interroger « sur la validité d’un indice qui fait varier la position d’une université de plus de 100 rangs par le seul fait d’attribuer à l’université de Berlin ou à l’université Humboldt le Prix Nobel d’Einstein obtenu en 1922 » (Gingras 2008).
  7. En 2007, l'Université de la Méditerranée (Aix-Marseille 2) et l'Université de Provence (Aix-Marseille 1) étaient dans les tranches 203-304 et 305-402 du classement, et l’Université Paul-Cézanne (Aix-Marseille 3) n’était pas classée. En 2019, l'Université d'Aix-Marseille est dans la tranche 101-150 du classement.

RéférencesModifier

  1. a et b Anthony Lattier et François-Xavier Rigaud, « L'homme de Shanghai », Le Point,
  2. a et b « Deux visions antagonistes de la compétition universitaire », Le Monde,‎ (lire en ligne, consulté le 14 octobre 2019)
  3. « La France progresse dans le classement de Shanghaï des universités », Le Monde,‎ (lire en ligne, consulté le 14 octobre 2019)
  4. (en) Nian Cai Liu, Ying Cheng et Li Liu, « Academic ranking of world universities using scientometrics - A comment to the “Fatal Attraction” », Scientometrics, vol. 64, no 1,‎ , p. 101–109 (ISSN 0138-9130 et 1588-2861, DOI 10.1007/s11192-005-0241-z, lire en ligne, consulté le 13 septembre 2017)
  5. a b c d e f g h i j k l m n o et p Faut-il croire le classement de Shangaï ?. Une approche fondée sur l’aide multicritère à la décision.
  6. (en) N. C. Liu et Y. Cheng, « Academic Ranking of World Universities – Methodologies and Problems » [PDF], Higher Education in Europe, vol. 30, no 2, (voir archive)
  7. a et b « Universités : pourquoi le classement de Shanghaï n’est pas un exercice sérieux », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  8. Yves Gingras, « Le classement de Shanghai n’est pas scientifique », La Recherche, vol. 430,‎ , p. 46-50 (lire en ligne)
  9. a et b Yves Gingras, « Du mauvais usage de faux indicateurs », Revue d’histoire moderne et contemporaine, vol. 55-4bis, no 5,‎ , p. 67 (DOI 10.3917/rhmc.555.0067).
  10. a et b (en) Jean-Charles Billaut, Denis Bouyssou et Philippe Vincke, « Should you believe in the Shanghai ranking ? » [PDF], Rapport interne LI Tours,
  11. a et b Le Point Vétérinaire.fr, « Le classement de Shangaï est publié », sur Le Point Vétérinaire.fr (consulté le 1er juillet 2019)
  12. a et b (en) « Is China really becoming a science and technology superpower? », sur http://namesorts.com/, (consulté le 24 août 2014)
  13. Sylvestre Huet, « Recherche scientifique : le faux miracle italien », sur {Sciences²}, (consulté le 12 octobre 2019)
  14. (en) Big is (made) Beautiful : Some comments about the Shanghai ranking of world-class universities - Michel Zitt et Ghislaine Filliatreau, première conférence internationale sur les universités de classe mondiale, Shanghai, juin 2005 [PDF] (voir archive)
  15. Zitt M. et Filliatreau G., The world-class university and ranking : aiming beyond status, UNESCO-CEPES, (ISBN 9290691840, 9789290691846 et 9736104915, OCLC 187221880, lire en ligne), « Big is (made) beautiful: Some comments about the Shanghai-ranking of world-class universities »
  16. a et b Philippe Mahrer, « Université-Grandes écoles, le vrai poids de la France », Les Échos,
  17. a b c et d Albert Fert (prix Nobel de physique), « Comment le classement de Shanghaï désavantage nos universités », Le Monde,‎ (lire en ligne, consulté le 14 octobre 2019)
  18. (en) Diana Hicks, Paul Wouters, Ludo Waltman et Sarah de Rijcke, « Bibliometrics: The Leiden Manifesto for research metrics », Nature, vol. 520, no 7548,‎ , p. 429–431 (ISSN 1476-4687, DOI 10.1038/520429a, lire en ligne, consulté le 14 octobre 2019)
  19. (en) Bahram Bekhradnia, « International university rankings: For good or ill? » [PDF], sur Higher Education Policy Institute,  : « ARWU presents a further data issue. Whereas in the case of the other rankings the results are adjusted to take account of the size of institutions, hardly any such adjustment is made by ARWU. So there is a distortion in favour of large institutions. If two institutions were to merge, the very fact of merger would mean that the merged institution would do nearly twice as well as either of the individual institutions prior to merger, although nothing else had changed. »
  20. a et b « « Le classement de Shanghaï n’est pas fait pour mesurer la qualité des universités françaises » », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  21. (en) Does the Shanghai Academic Ranking Really Matter? French and American Students Respond - Marc Goetzmann, La Jeune Politique, 30 août 2013 (voir archive)
  22. « Classement de Shanghaï : trois universités françaises dans le top 100 », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  23. a et b « Classement de Shanghaï : pourquoi les universités françaises sont à la traîne », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  24. a b et c Jean Pérès, « Le classement de Shanghai des universités : une pernicieuse addiction médiatique », sur Acrimed | Action Critique Médias (consulté le 13 octobre 2019)
  25. Hugo Harari-Kermadec. Le Classement De Shanghai. L'université Marchandisée.
  26. « Classement de Shanghai : "Il faut prendre cela avec beaucoup de recul", réagit le président de Paris-Sud, première université française du palmarès », sur Franceinfo, (consulté le 12 octobre 2019) : « La transformation de Paris-Sud en Paris-Saclay doit avoir comme conséquence de grimper dans différents classements, et en particulier dans le classement de Shanghai (Alain Sarfati, président de l'université Paris-Sud) »
  27. a et b « Compte-rendu analytique de la réunion du 11 juillet 2007 », sur Sénat français
  28. Classement de Shanghaï : un palmarès bousculé par l'Asie - Isabelle Rey-Lefebvre, Le Monde, 15 août 2013
  29. « Le gouvernement regroupe les universités en 25 grands ensembles », sur Les Echos, (consulté le 15 octobre 2019)
  30. « Antoine Petit (CNRS) et les stars de la science », {Sciences²},‎ (lire en ligne, consulté le 13 octobre 2019)
  31. Sylvestre Huet, « Les agents doubles du classement de Shanghai », Libération (consulté le 13 octobre 2019)
  32. a et b (en) Jean Winand, « À quoi servent les classements universitaires », sur The Conversation (consulté le 12 octobre 2019)
  33. a et b Par Adrien de Tricornot et Marine Miller, « Universités : les alternatives au classement de Shanghaï », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)

BibliographieModifier

  • Jean-Charles Billaut, Denis Bouyssou et Philippe Vincke, « Faut-il croire le classement de Shangaï ?. Une approche fondée sur l’aide multicritère à la décision », Revue de la régulation. Capitalisme, institutions, pouvoirs, no 8,‎ (ISSN 1957-7796, DOI 10.4000/regulation.9016, lire en ligne, consulté le 1er juillet 2019)
  • Hugo Harari-Kermadec, Le Classement De Shanghai. L'université Marchandisée, Bord de l'eau, , 168 p. (ISBN 9782356876805, lire en ligne)

Voir aussiModifier

Article connexeModifier

Liens externesModifier