Ouvrir le menu principal

Classement académique des universités mondiales par l'université Jiao Tong de Shanghai

Le classement académique des universités mondiales par l'université Jiao Tong de Shanghai ou classement de Shanghai (appellation commune du Academic Ranking of World Universities en anglais, ou ARWU) est un classement des principales universités mondiales, établi par des chercheurs de l'université Jiao-tong de Shanghai en Chine.

Ces institutions sont classées selon un indice unique calculé à partir de six critères quantitatifs, notamment le nombre de publications dans les deux revues scientifiques Nature et Science, le nombre de chercheurs parmi ceux qui sont les plus cités, le nombre de prix Nobel scientifiques et de médailles Fields attribués aux anciens élèves et aux personnels de l'université, et un critère de productivité rapporté à la taille du corps enseignant si elle est connue.

La méthode de classement et sa pertinence sont vivement critiquées et en particulier l'affirmation selon laquelle ces critères seraient pertinents et objectifs. Aucun critère du classement n'évalue la qualité de l'enseignement ni le niveau des élèves diplômés, ce qui est paradoxal dans un classement d'institutions dont l'une des deux vocations premières, à côté de la recherche, est l'enseignement et la formation professionnelle d'élèves qui pour la plupart ne se destinent pas à la recherche. De plus, le classement favorise les institutions anciennes, de grande taille, et les sciences dures (particulièrement la médecine et la biologie) au détriment des sciences sociales et du droit. Ni les contraintes que subissent les établissements ni leurs ressources ne sont considérées.

Ce classement est plus médiatisé en France que dans d'autres pays pourtant mieux classés, et il a un impact majeur sur les politiques publiques françaises: le classement d’un établissement étant fortement lié à sa taille, de nombreuses institutions universitaires ont été fusionnées dans les années 2010 avec pour objectif de monter dans le classement.

HistoriqueModifier

Le but initial de ce classement était de comparer les universités chinoises avec les meilleures universités mondiales. Pour répondre à la demande du président de l'université Jiao Tong qui souhaitait pouvoir envoyer ses étudiants dans les meilleures universités, le professeur Nian Cai Liu, un chimiste travaillant pour cette université, établit un premier classement en 2003[1]. Faute de moyens et ne disposant que de deux collaborateurs, il va alors au plus simple, ne prenant en compte que des données accessibles par Internet et jugées objectives[1] : le nombre de prix Nobel et médailles Fields (pour les mathématiques), le nombre de chercheurs les plus cités dans leur discipline, le nombre de publications dans les revues scientifiques Nature et Science et le nombre de chercheurs répertoriés dans deux bases de données d'articles scientifiques, l'une sur les sciences humaines, l'autre sur les sciences pures. Après sa publication en 2003, le classement est tout d'abord ignoré, puis critiqué, mais il aura un important impact mondial[2]. A partir de 2009, un classement par disciplines est aussi publié[3].

CritèresModifier

Les concepteurs du classement ont publié la méthode de calcul en 2005[4], qui selon eux « utilise des critères objectifs sélectionnés avec soin », « est fondé sur des données internationales comparables que tout le monde peut vérifier » et « ne comporte aucune mesure subjective », une série d'affirmations qui a fait l'objet de sérieuses critiques[5]. Cette méthode inclut les critères pondérés suivants:

Critères Indicateurs Pondération
Qualité de l'enseignement Nombre de prix Nobel et de médailles Fields parmi les anciens élèves[N 1] 10 %
Qualité de l'institution Nombre de prix Nobel et de médailles Fields parmi les chercheurs[N 2] 20 %
Nombre de chercheurs les plus cités dans leurs disciplines pendant les dix dernières années 20 %
Publications Articles publiés dans Nature et Science pendant les cinq dernières années[N 3] 20 %
Articles indexés dans Science Citation Index, et Social Sciences Citation Index[N 4] 20 %
Taille de l'institution Performance académique au regard de la taille de l'institution[N 5] 10 %

Les données brutes utilisées par les auteurs du classement restent confidentielles. Les créateurs du classement soulignent eux-mêmes certaines de ses limites, notamment un biais en faveur des institutions de grande taille comme le sont celles des pays anglophones, ainsi que les difficultés à définir des indicateurs adéquats pour classer les universités spécialisées dans les sciences sociales[6].

CritiquesModifier

L'analyse des critères utilisés et de la méthode de calcul démontre aisément le caractère arbitraire et non pertinent de ce classement[5],[7],[8],[9]. Dans un article publié en avril 2009, J-C. Billaut, D. Bouyssou et Ph. Vincke décortiquent le fonctionnement du classement de Shanghai, avec leur éclairage de spécialistes d’aide multicritère à la décision. Il en ressort une critique très argumentée des critères qui sont utilisés (que les auteurs qualifient de « non pertinents »), ainsi que des paradoxes dans la méthode utilisée[10],[5], les auteurs concluant que « le classement de Shangaï, malgré la grande couverture médiatique qu’il reçoit chaque année, n’est pas un outil pertinent pour juger de la « qualité » des institutions académiques, guider le choix des étudiants ou des familles, ou promouvoir des réformes du système d’enseignement supérieur »[5].

Critères non pertinentsModifier

Sur l'utilisation du nombre de prix Nobel pour mesurer la qualité de l'institution, le classement comptabilise le prix pour l'institution à laquelle appartient son récipiendaire au moment de l’annonce de la récompense, mais celle ci est due à une découverte qui peut être très ancienne et avoir été menée dans une autre institution. La façon dont le classement comptabilise des récompenses anciennes favorise les pays dont le paysage académique est très stable et des institutions anciennes et n'ayant jamais changé de nom[N 6] (en particulier, les affiliations des récipiendaires français du prix Nobel utilisées pour le classement sont très problématiques[10]). Enfin, le classement ignore (sauf toutefois dans les classements thématiques par sujet) certaines récompenses tout aussi prestigieuses que le prix Nobel, telles que le prix Turing en informatique ou la médaille Bruce en astronomie. Le nombre de prix Nobel et médailles Fields dans une institution semble donc mesurer des réputations anciennes, et ne permet pas d'estimer la qualité actuelle de la recherche ou de l'enseignement dans cette institution[5]. La qualité de formation des étudiants n'est pas prise en compte par le classement[11].

Concernant le critère des chercheurs dont les travaux sont « les plus cités » sur une période de 10 ans, la méthode utilisée favorise nettement la médecine et la biologie et les chercheurs séniors, qui sont susceptibles d’avoir changé d’institution au cours de leur carrière[5], et elle est faussée par des biais culturels importants[12] (les Italiens citent les Italiens[13], etc.). Ce critère ne mesure donc que très approximativement la capacité d’une institution à produire actuellement une recherche de fort impact[5].

Concernant les publications dans Nature et Science, l'importance donnée à ces deux seules revues pose question, de même que le mode de pondération des co-auteurs[5].

Pour tous les critères liés aux publications, on doit rappeler que l'attribution correcte d'un article à une institution particulière est un exercice difficile dans la mesure où les auteurs n'indiquent pas ce nom de façon normalisée sur leurs articles[5]. Le choix des bases de données utilisées favorise les articles publiés en anglais (et cherche à corriger ce biais en attribuant un coefficient de 2 aux publications en SHS). Le classement compte le nombre total d'articles publiés sans chercher à pondérer ces articles par leur impact (l'identité du journal dans lequel les articles sont publiés)[5]. Des critiques pointent que seuls certains types de publications sont pris en compte, et que les livres, les chapitres dans des ouvrages collectifs ou encore les articles de vulgarisation scientifique, ne sont pas comptabilisés[11]. Le critère des publications est donc basé sur des choix contestables.

Le critère de productivité prend en compte le nombre d’équivalents temps plein du corps académique de chaque institution s'il a pu être déterminé. Pour la France, il s'agit des données disponibles en open data sur le site du Ministère de l'Enseignement Supérieur.

Les auteurs de l'étude critique résument ainsi leur appréciation: « Les critères ont été choisis principalement sur la base de la disponibilité sur Internet des informations permettant de les renseigner, que chacun d’entre eux est lié de façon très approximative avec ce qu’il est censé mesurer et que leur évaluation fait intervenir des paramètres arbitraires et des microdécisions non documentées. L’impact de ces éléments sur le résultat final n’est pas examiné. Les données initiales utilisées ne sont pas rendues publiques et donc ne peuvent pas être vérifiées »[5].

La plupart des critères sont obtenus par des comptages de prix ou de publications, qui favorisent les institutions de grande taille[14], ainsi, « big is made beautiful » (le gros est rendu beau)[15],[16]. Philippe Mahrer explique ainsi que les pays disposant de nombreuses écoles ou universités de petite taille sont exclus du classement, de même que les universités, centres de recherche ou écoles travaillant en réseau comme c'est de plus en plus le cas en Europe[17]. Ce dernier point est tout particulièrement dénoncé (et mis en évidence) par le prix Nobel de physique Albert Fert[18].

Le cas particulier des sciences humainesModifier

Les bases de données utilisées pour l'établissement du classement recensent des revues de toutes les langues. En sciences exactes, les journaux en langue autre que l'anglais ayant à peu près disparu, les revues recensées sont donc très majoritairement publiées en anglais, quel que soit leur pays d'édition (Amérique du nord, Europe, Japon). Parmi celles-ci, Nature et Science bénéficient en sciences exactes d'une notoriété inégalée. En sciences humaines et sociales par contre, la promotion de travaux se fait également lors de conférences ou dans des revues non anglo-saxonnes, et ce pour des raisons multiples (coût, accessibilité, pertinence, impact, etc.). De fait, la publication des travaux de sciences humaines ne se fait donc pas majoritairement en langue anglaise et elle est, à ce titre, moins bien prise en compte par ce classement[12]. Pour atténuer ce défaut de prise en compte des sciences humaines et sociales, le classement attribue un poids double, dans le décompte des publications, aux publications référencées dans le Social Science Citation Index.

Technique d'agrégation déficienteModifier

Un autre type de critiques concerne la façon apparemment arbitraire dont les notes normalisées des différents critères sont agrégés en utilisant une somme pondérée pour calculer un indice unique, permettant le classement. En dépit de toute rigueur, la normalisation des scores change chaque année sans que les poids des critères soient modifiés en conséquence. Billaut, Bouyssou et Vincke expliquent en quoi cela démontre que « les auteurs du classement sont tombés dans ces pièges élémentaires liés à la normalisation »[19] au point « qu'on ne peut pas conclure que s’améliorer sur un critère permet de monter dans le classement »[5]. La méthode de calcul du classement est telle qu'une institution faible sur un critère particulier aurait même intérêt pour monter dans le classement à ce qu'une institution classée juste devant elle s'améliore sur ce critère[5].

Par ailleurs, calculer la moyenne pondérée de critères représentant la production (les cinq premiers) et la productivité (le dernier) conduit nécessairement à un résultat vide de sens, comme si l'on cherchait à calculer la richesse d'un pays en faisant une moyenne du PIB et du PIB par habitant[5].

Questions négligéesModifier

Les auteurs du classement ne définissent pas ce qu'est une université (au point que le Collège de France, qui ne délivre aucun diplôme, a un temps fait partie du classement), ni ce qu'est une « université de classe mondiale ». Ils ignorent les contraintes, très différentes selon les pays, que peuvent subir les institutions, et les ressources qu'elles consomment (exception faite de la taille du « corps académique », mais seulement si elle est connue)[5]. L'objectif même de faire un tel classement n'est pas discuté, et les bonnes pratiques[20] sont oubliées: les institutions évaluées ne disposent pas des données leur permettant de comprendre comment elles l'ont été, et les auteurs n'anticipent pas la façon dont les institutions peuvent adapter leur comportement en réaction au système d’évaluation[5]. Par exemple, les notes de la plupart des critères du classement étant proportionnelles à la taille de l'établissement, les regrouper devrait suffire pour monter dans le classement, sans changer la nature ou la qualité de la recherche[21] (voir le cas de la France ci dessous).

NotoriétéModifier

Selon Philippe Mahrer, directeur du Collège des ingénieurs, ce classement n'a qu'une faible notoriété en Chine, même auprès des étudiants. Au contraire, selon l'ambassade de France en Chine : « [ce classement] trouve en effet un écho important chez les étudiants chinois, pour qui le prestige de l’université est déterminant car il fait partie des critères de recrutement professionnel en Chine. »[17] L’influence réelle du classement de Shanghai sur les choix des étudiants est faible[22], alors qu'il pourrait s'agir d'un critère prioritaire pour évaluer la pertinence d’un tel classement. En effet, le classement est principalement considéré par les administrations, les équipes pédagogiques et les ministères (qui en ont fait un mode d'évaluation des universités) alors que l’orientation des étudiants, et notamment vers les universités de sciences sociales, prend en compte de nombreux facteurs, souvent personnels[23].

En FranceModifier

La France compte une poignée d'universités dans le top 100 du classement[24],[25] une vingtaine dans le top 500[7], et environ 35 dans le classement complet, étendu à 1000 universités à partir de l'année 2018.

Particularités françaises au regard de la pertinence des critèresModifier

Un prix Nobel obtenu par un professeur d'université français peut valoir deux fois moins qu'un Nobel obtenu par un professeur d'université américain ou britannique. En effet, la recherche française s'effectuant en général dans des unités mixtes de recherche qui associent des universitaires au CNRS, le classement Shanghaï attribue 50 % du bénéfice à l'université et 50 % à l'organisme du CNRS[18]. Mais puisque le CNRS et les autres organismes de recherche français n'apparaissent pas dans le classement Shanghaï, cela veut dire que « la moitié du bénéfice du prix ne profite à personne et s'évapore complètement » (Albert Fert[18]). Pour ce qui concerne les 60 % de la note, qui dépendent du décompte d'articles et du nombre de citations, « le principe général est le même que pour les prix. (...) dans le cas de publications d'un laboratoire universitaire associant l'université et un organisme comme le CNRS, à peu près 50 % du bénéfice restera en général à l'université et 50 % s'évaporera en ne profitant à personne[18]. » Ce dernier point concerne principalement la liste des chercheurs les plus cités.

Impact et utilisation du classement en FranceModifier

Le classement est très médiatisé en France[26], contrairement à certains pays comme les Etats-Unis ou le Royaume-Uni dont les établissements sont pourtant très bien classés, et pousse la France à faire des choix qui vont à l’encontre de « l’esprit de service public », tels que la création de regroupements universitaires parfois artificiels, dans une logique de concurrence et de rationalisation économique[5],[22],[27], avec l'objectif clair de monter dans le classement[26],[28],[9],[29], mais sans que les effets de cette politique soient immédiatement détectables[25].

Dès 2005, le ministre de l'éducation nationale du gouvernement de Dominique de Villepin, Gilles de Robien, déclare que « pour affronter la concurrence internationale [il faut] remonter dans le classement, [et ainsi] redevenir capable d'attirer des talents étrangers »[2]. Dans sa lettre de mission à Valérie Pécresse, alors ministre de l’Enseignement supérieur et de la Recherche, Nicolas Sarkozy exigeait « l’amélioration du rang de nos établissements d’enseignement supérieur dans les classements internationaux, avec l’objectif de classer au moins deux établissements français parmi les 20 premiers et 10 parmi les 100 », ce qu'elle a réaffirmé en disant que « notre objectif est d’avoir dix universités françaises dans les cent premières de ce classement d’ici à 2012 »[26] (en 2012 elles n'étaient encore que trois, de même qu'en 2019). Le classement était l'une des motivations principales de la constitution des Pôles de recherche et d'enseignement supérieur (PRES). Valérie Pécresse, justifiait en effet son influence ainsi : « Lorsqu'ils choisissent leur future université, les étudiants américains, australiens, chinois, indiens regardent ce classement. C'est la mondialisation. On ne peut s'en abstraire et nous devons donc gagner des places, ce qui n'est pas contraire à l'exigence d'excellence de l'université française »[30]. L'Université d'Aix-Marseille est créée en fusionnant les trois universités marseillaises « pour atteindre à la 26e place du fameux classement de Shanghai » selon Valérie Pecresse[30],[N 7]. En 2013, lors d’une nouvelle publication du classement, la ministre de l’enseignement supérieur Geneviève Fioraso semblait indiquer un très léger changement de perspective vis-à-vis du classement : « Sans négliger les effets d'image et de visibilité que ces classements produisent, je me concentre plutôt sur la réussite des étudiants, l'introduction de l'anglais pour attirer des étrangers, l'incitation à multiplier les coopérations européennes[31] ». Mais elle affirmait « nous sommes des pastilles vues de Shanghai »[32] pour justifier les regroupements d'universités. En 2018, pour le PDG du CNRS Antoine Petit, il est nécessaire que la recherche française s'offre des chercheurs vedettes, parce que « on peut dire qu’on continue avec ce système de rémunération [des chercheurs] mais alors il faut arrêter de dire qu’on va gagner des places dans le classement de Shanghai. C’est l’un ou c’est l’autre, c’est à nous de décider »[33].

Certaines institutions offrent à leurs chercheurs des primes à la publication, et certains chercheurs monnaient des affiliations factices dans des université qui cherchent à monter dans le classement[34].

AlternativesModifier

Les principales alternatives au classement de Shanghaï sont le Times Higher Education, World University Rankings (THE-WUR) et le World University Rankings (ou "classement mondial des Universités", QS-WUR) (voir l'article Palmarès universitaires pour plus de détails)[35],[36]. L'initiative U-Multirank a été lancée par la commission européenne face au risque de voir le classement de Shanghaï marginaliser les établissements européens[36], et cherche à situer chaque établissement en fonction de cinq grands critères : enseignement et apprentissage, recherche, transfert de connaissances, orientation internationale, et engagement régional[35].

Notes et référencesModifier

NotesModifier

  1. Y compris le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel (« prix Nobel d'économie »). Sont pris en compte les élèves ayant obtenu leurs diplômes de bachelor, master et doctorat de l'institution. Un coefficient de 1 est attribué aux promotions de 1991-2000, 0,9 aux promotions de 1981-1990 et ainsi de suite jusqu'à 0,1 pour les diplômes remis entre 1901-1910. Les personnes ayant obtenu plus d'un diplôme dans la même institution ne sont comptabilisées qu'une seule fois.
  2. Sont pris en compte les lauréats en poste dans l'institution lors de la remise du prix. Une pondération décroissante est appliquée : 1 pour les lauréats de 2001-2004, 0,9 pour les lauréats de 1991-2000, 0,8 pour 1981-1990, et ainsi de suite jusqu'à 0,1 pour les lauréats de 1911-1920. Si un lauréat a plusieurs affiliations, chaque affiliation se voit attribuer le même coefficient. Pour les prix Nobel qui sont partagés, les coefficients sont proportionnels à la part du prix Nobel qu'ils ont obtenu. Les prix Nobel de littérature et prix Nobel de la paix sont exclus du barème.
  3. Les auteurs coécrivants sont comptabilisés ainsi : 1 pour l'affiliation de l'auteur correspondant, 0,5 pour l'affiliation du premier auteur (deuxième auteur si l'affiliation du premier auteur est la même que l'affiliation de l'auteur correspondant ), 0,25 pour l'affiliation de l'auteur suivant, et 0,1 pour les affiliations des autres auteurs. Seuls les articles ayant fait l'objet d'une publication sont pris en compte. Cet indicateur n'est pas pris en compte pour les institutions de sciences humaines et sciences sociales.
  4. Nombre total d'articles indexés dans Science Citation Index (version de base et augmentée) et Social Sciences Citation Index dans l'année précédant la parution du classement. Seuls les articles ayant fait l'objet d'une publication sont pris en compte.
  5. La somme pondérée des cinq indicateurs, divisée par le nombre d'enseignants-chercheurs (équivalent temps-plein).
  6. Gingras note qu'il faut s'interroger « sur la validité d’un indice qui fait varier la position d’une université de plus de 100 rangs par le seul fait d’attribuer à l’université de Berlin ou à l’université Humboldt le Prix Nobel d’Einstein obtenu en 1922 » (Gingras 2008).
  7. En 2007, l'Université de la Méditerranée (Aix-Marseille 2) et l'Université de Provence (Aix-Marseille 1) étaient dans les tranches 203-304 et 305-402 du classement, et l’Université Paul-Cézanne (Aix-Marseille 3) n’était pas classée. En 2019, l'Université d'Aix-Marseille est dans la tranche 101-150 du classement.

RéférencesModifier

  1. a et b Anthony Lattier et François-Xavier Rigaud, « L'homme de Shanghai », Le Point,
  2. a et b « Deux visions antagonistes de la compétition universitaire », Le Monde,‎ (lire en ligne, consulté le 14 octobre 2019)
  3. « La France progresse dans le classement de Shanghaï des universités », Le Monde,‎ (lire en ligne, consulté le 14 octobre 2019)
  4. (en) Nian Cai Liu, Ying Cheng et Li Liu, « Academic ranking of world universities using scientometrics - A comment to the “Fatal Attraction” », Scientometrics, vol. 64, no 1,‎ , p. 101–109 (ISSN 0138-9130 et 1588-2861, DOI 10.1007/s11192-005-0241-z, lire en ligne, consulté le 13 septembre 2017)
  5. a b c d e f g h i j k l m n o p et q Faut-il croire le classement de Shangaï ?. Une approche fondée sur l’aide multicritère à la décision.
  6. (en) N. C. Liu et Y. Cheng, « Academic Ranking of World Universities – Methodologies and Problems » [PDF], Higher Education in Europe, vol. 30, no 2, (voir archive)
  7. a et b « Universités : pourquoi le classement de Shanghaï n’est pas un exercice sérieux », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  8. Yves Gingras, « Le classement de Shanghai n’est pas scientifique », La Recherche, vol. 430,‎ , p. 46-50 (lire en ligne)
  9. a et b Yves Gingras, « Du mauvais usage de faux indicateurs », Revue d’histoire moderne et contemporaine, vol. 55-4bis, no 5,‎ , p. 67 (DOI 10.3917/rhmc.555.0067).
  10. a et b (en) Jean-Charles Billaut, Denis Bouyssou et Philippe Vincke, « Should you believe in the Shanghai ranking? », Scientometrics, vol. 84, no 1,‎ , p. 237–263 (lire en ligne, consulté le 16 octobre 2019)
  11. a et b Le Point Vétérinaire.fr, « Le classement de Shangaï est publié », sur Le Point Vétérinaire.fr (consulté le 1er juillet 2019)
  12. a et b (en) « Is China really becoming a science and technology superpower? », sur http://namesorts.com/, (consulté le 24 août 2014)
  13. Sylvestre Huet, « Recherche scientifique : le faux miracle italien », sur {Sciences²}, (consulté le 12 octobre 2019)
  14. (en) Domingo Docampo et Lawrence Cram, « On the effects of institutional size in university classifications: the case of the Shanghai ranking », Scientometrics, vol. 102, no 2,‎ , p. 1325–1346 (ISSN 1588-2861, DOI 10.1007/s11192-014-1488-z, lire en ligne, consulté le 16 octobre 2019)
  15. (en) Big is (made) Beautiful : Some comments about the Shanghai ranking of world-class universities - Michel Zitt et Ghislaine Filliatreau, première conférence internationale sur les universités de classe mondiale, Shanghai, juin 2005 [PDF] (voir archive)
  16. Zitt M. et Filliatreau G., The world-class university and ranking : aiming beyond status, UNESCO-CEPES, (ISBN 9290691840, 9789290691846 et 9736104915, OCLC 187221880, lire en ligne), « Big is (made) beautiful: Some comments about the Shanghai-ranking of world-class universities »
  17. a et b Philippe Mahrer, « Université-Grandes écoles, le vrai poids de la France », Les Échos,
  18. a b c et d Albert Fert (prix Nobel de physique), « Comment le classement de Shanghaï désavantage nos universités », Le Monde,‎ (lire en ligne, consulté le 14 octobre 2019)
  19. (en) Milica Jovanovic, Veljko Jeremic, Gordana Savic et Milica Bulajic, « How does the normalization of data affect the ARWU ranking? », Scientometrics, vol. 93, no 2,‎ , p. 319–327 (ISSN 0138-9130 et 1588-2861, DOI 10.1007/s11192-012-0674-0, lire en ligne, consulté le 16 octobre 2019)
  20. (en) Diana Hicks, Paul Wouters, Ludo Waltman et Sarah de Rijcke, « Bibliometrics: The Leiden Manifesto for research metrics », Nature, vol. 520, no 7548,‎ , p. 429–431 (ISSN 1476-4687, DOI 10.1038/520429a, lire en ligne, consulté le 14 octobre 2019)
  21. (en) Bahram Bekhradnia, « International university rankings: For good or ill? » [PDF], sur Higher Education Policy Institute,  : « ARWU presents a further data issue. Whereas in the case of the other rankings the results are adjusted to take account of the size of institutions, hardly any such adjustment is made by ARWU. So there is a distortion in favour of large institutions. If two institutions were to merge, the very fact of merger would mean that the merged institution would do nearly twice as well as either of the individual institutions prior to merger, although nothing else had changed. »
  22. a et b Eric Nunès, « « Le classement de Shanghaï n’est pas fait pour mesurer la qualité des universités françaises » », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  23. (en) Does the Shanghai Academic Ranking Really Matter? French and American Students Respond - Marc Goetzmann, La Jeune Politique, 30 août 2013 (voir archive)
  24. « Classement de Shanghaï : trois universités françaises dans le top 100 », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  25. a et b « Classement de Shanghaï : pourquoi les universités françaises sont à la traîne », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)
  26. a b et c Jean Pérès, « Le classement de Shanghai des universités : une pernicieuse addiction médiatique », sur Acrimed | Action Critique Médias (consulté le 13 octobre 2019)
  27. Hugo Harari-Kermadec. Le Classement De Shanghai. L'université Marchandisée.
  28. « Classement de Shanghai : "Il faut prendre cela avec beaucoup de recul", réagit le président de Paris-Sud, première université française du palmarès », sur Franceinfo, (consulté le 12 octobre 2019) : « La transformation de Paris-Sud en Paris-Saclay doit avoir comme conséquence de grimper dans différents classements, et en particulier dans le classement de Shanghai (Alain Sarfati, président de l'université Paris-Sud) »
  29. (en) D. Docampo, D. Egret et L. Cram, « The effect of university mergers on the Shanghai ranking », Scientometrics, vol. 104, no 1,‎ , p. 175–191 (ISSN 1588-2861, DOI 10.1007/s11192-015-1587-5, lire en ligne, consulté le 16 octobre 2019)
  30. a et b « Compte-rendu analytique de la réunion du 11 juillet 2007 », sur Sénat français
  31. Classement de Shanghaï : un palmarès bousculé par l'Asie - Isabelle Rey-Lefebvre, Le Monde, 15 août 2013
  32. « Le gouvernement regroupe les universités en 25 grands ensembles », sur Les Echos, (consulté le 15 octobre 2019)
  33. « Antoine Petit (CNRS) et les stars de la science », {Sciences²},‎ (lire en ligne, consulté le 13 octobre 2019)
  34. Sylvestre Huet, « Les agents doubles du classement de Shanghai », Libération (consulté le 13 octobre 2019)
  35. a et b (en) Jean Winand, « À quoi servent les classements universitaires », sur The Conversation (consulté le 12 octobre 2019)
  36. a et b Par Adrien de Tricornot et Marine Miller, « Universités : les alternatives au classement de Shanghaï », Le Monde,‎ (lire en ligne, consulté le 12 octobre 2019)

BibliographieModifier

  • Jean-Charles Billaut, Denis Bouyssou et Philippe Vincke, « Faut-il croire le classement de Shangaï ?. Une approche fondée sur l’aide multicritère à la décision », Revue de la régulation. Capitalisme, institutions, pouvoirs, no 8,‎ (ISSN 1957-7796, DOI 10.4000/regulation.9016, lire en ligne, consulté le 1er juillet 2019)
  • Hugo Harari-Kermadec, Le Classement De Shanghai. L'université Marchandisée, Bord de l'eau, , 168 p. (ISBN 9782356876805, lire en ligne)
Voir « Le classement de Shanghaï n’est pas fait pour mesurer la qualité des universités françaises » dans Le Monde, 15 août 2019, (Nunès 2019).

Voir aussiModifier

Article connexeModifier

Liens externesModifier