TESCREAL est l'acronyme de « transhumanisme, extropianisme, singularitarisme, cosmisme, rationalisme, altruisme efficace et long-termisme »[1]. Il est proposé par la chercheuse en informatique Timnit Gebru et le philosophe Émile P. Torres, qui soutiennent que ces idéologies devraient être traitées comme « interconnectées et se recoupant », ayant des origines communes[1]. Gebru et Torres affirment que ce mouvement permet à ses partisans d'utiliser la menace de l'extinction de l'humanité pour justifier des projets socialement coûteux ou préjudiciables. Ils considèrent ces idéologies comme omniprésentes dans les cercles sociaux et universitaires de la Silicon Valley centrés sur l'intelligence artificielle[2]. L'acronyme est de fait utilisé pour critiquer un système de croyance perçu comme associé aux Big Tech[3],[2],[4],[5].

La chercheuse en informatique Timnit Gebru et le philosophe Émile P. Torres proposent l'acronyme "TESCREAL" en 2023.

Origine

modifier

Gebru et Torres ont inventé l'acronyme « TESCREAL » en 2023, l'utilisant pour la première fois dans un brouillon d'article intitulé « Le groupe TESCREAL : l'eugénisme et la promesse de l'utopie grâce à l'intelligence artificielle générale »[1],[3]. L'article a ensuite été publié dans First Monday en avril 2024, bien que Torres et Gebru aient popularisé le terme ailleurs avant la publication du journal. Selon Gebru et Torres, le transhumanisme, l'extropianisme, le singularitarisme, le cosmisme (moderne), le rationalisme, l'altruisme efficace et le longtermisme sont un « groupe » d'« idéologies interconnectées et partageant des points communs » qui ont émergé de l'eugénisme du XXe siècle, avec des ancêtres communs[1]. Ils utilisent le terme « TESCREAList » pour désigner les personnes qui souscrivent ou semblent approuver la plupart ou la totalité des idéologies capturées dans l'acronyme[1],[2].

Analyse

modifier

Selon les critiques de ces philosophies, TESCREAL décrit des mouvements ayant des points communs soutenus par des personnalités éminentes de l'industrie technologique pour fournir un soutien intellectuel permettant de poursuivre et de prioriser des projets tels que l'intelligence artificielle générale (AGI), la prolongation de la vie et la colonisation spatiale[1],[3],[6]. L'auteur de science-fiction Charles Stross, utilisant l'exemple de la colonisation spatiale, a soutenu que les idéologies permettent aux milliardaires de poursuivre des projets personnels massifs motivés par une interprétation de droite de la science-fiction, arguant que ne pas poursuivre de tels projets présente un risque existentiel pour la société[7]. Gebru et Torres écrivent qu'en utilisant la menace d'extinction, les TESCREAListes peuvent justifier « des tentatives de construction de systèmes non clairement définis qui sont intrinsèquement dangereux »[1]. Le spécialiste des médias Ethan Zuckerman soutient que des projets ayant des effets négatifs plus immédiats, tels que l'iniquité raciale, les préjugés algorithmiques et la dégradation de l'environnement seraient plus justifiés que les objectifs long termistes du mouvement TESCREAL[8]. Danyl McLauchlan, écrivain politique s'exprimant à Radio New Zealand, déclare que bon nombre de ces philosophies ont peut-être commencé avec de bonnes intentions, mais ont peut-être été poussées « jusqu'au ridicule »[9].

Le philosophe Yogi Hale Hendlin a soutenu qu'en ignorant les causes humaines des problèmes sociétaux et en élaborant des solutions excessivement technologiques, les TESCREAListes ignorent le contexte à partir duquel de nombreux problèmes surgissent[10]. Camille Sojit Pejcha a écrit dans Document Journal que TESCREAL est un outil permettant de concentrer le pouvoir des élites technologiques[6]. Dave Troy a décrit TESCREAL dans The Washington Spectator comme un mouvement de type « la fin justifie les moyens » qui est antithétique à « une gouvernance démocratique, inclusive, patiente et juste » [3]. Gil Duran a écrit que « TESCREAL », « technocratie autoritaire » et « techno-optimisme » étaient des expressions utilisées début 2024 pour décrire une nouvelle idéologie émergente dans l'industrie technologique[11].

Gebru, Torres et d'autres ont comparé TESCREAL à une religion laïque en raison de ses parallèles avec la théologie chrétienne et l'eschatologie[1],[2], [7],[12]. Les auteurs de Current Affairs (en) ont comparé ces philosophies et le techno-optimisme qui en a résulté à « toute autre foi monomaniaque… dans laquelle les sceptiques sont considérés comme des ennemis et les croyances sont acceptées sans preuves ». Ils soutiennent que poursuivre TESCREAL empêcherait un avenir partagé véritablement équitable[13].

Ozy Brennan, écrivant dans un magazine affilié au Center for Effective Altruism, a critiqué l'approche de Gebru et Torres consistant à regrouper différentes philosophies comme s'il s'agissait d'un mouvement « monolithique ». Brennan soutient que Torres a mal compris ces différentes philosophies et a sorti les expériences de pensée philosophique de leur contexte[14]. James Pethokoukis, de l'American Enterprise Institute, n'est pas d'accord avec les critiques des partisans de TESCREAL. Il a fait valoir que les milliardaires de la technologie critiqués dans un article du Scientific American pour avoir prétendument épousé TESCREAL avaient réalisé des réalisations significatives grâce à leur richesse pour faire progresser la société[15]. Danyl McLauchlan a noté que les critiques du groupe TESCREAL se sont opposés au regroupement de ce qu'ils considèrent comme des idéologies disparates et parfois contradictoires, mais estime que TESCREAL est un bon moyen de décrire et de consolider bon nombre des « grandes idéologies bizarres de la Silicon Valley »[9].

Intelligence générale artificielle (AGI)

modifier

Une grande partie du discours autour d’un risque existentiel lié à l’AGI se déroule parmi les partisans des idéologies TESCREAL[3],[8],[16]. Les TESCREAListes sont soit considérés comme des « accélérateurs de l'IA », dans le sens où ils considèrent l'IA comme le seul moyen de poursuivre un avenir utopique où les problèmes sont résolus, soit comme des « condamnateurs de l'IA », dans le sens où ils considèrent que l'IA est susceptible d'être non alignée sur la survie humaine et susceptible de causer l'extinction de l'humanité[8],[12]. Malgré le risque, de nombreux « condamnateurs de l’IA » affirment que ce n’est qu’en développant d’abord l’AGI que le risque existentiel pourra être évité[17].

Gebru a comparé le conflit entre les « accélérateurs de l'IA » et les « doomers de l'IA » à une « religion laïque vendant l'utopie et l'apocalypse permises par l'AGI »[12]. Torres et Gebru soutiennent que les deux groupes utilisent des apocalypses hypothétiques et des futurs utopiques basés sur l’IA pour justifier une recherche, un développement et une déréglementation illimités de la technologie. En considérant uniquement les conséquences futures de grande envergure, en créant un battage médiatique autour d'une technologie non éprouvée et en semant la peur, Torres et Gebru affirment que les TESCREAListes détournent l'attention des impacts des technologies qui peuvent avoir un impact négatif sur la société, nuire de manière disproportionnée aux minorités par le biais de biais algorithmiques et avoir un impact néfaste sur la société. l'environnement[1],[4].

Biais envers les minorités

modifier

Gebru et Torres soutiennent que les idéologies TESCREAL proviennent directement de l'eugénisme du XXe siècle [1] et soutiennent que l'ensemble des idéologies plaide pour une deuxième vague de nouvel eugénisme[1],[18]. D’autres ont également soutenu que les idéologies TESCREAL se sont développées à partir de philosophies antérieures qui ont été utilisées pour justifier les meurtres de masse et le génocide[6],[17]. Certaines personnalités éminentes qui ont contribué aux idéologies de TESCREAL ont été accusées d'être racistes et sexistes[1],[16],[19], [20]. McLauchlan a déclaré que, même si certaines parties de certains mouvements peuvent soutenir l'eugénisme, d'autres sont surpris d'avoir été « regroupés dans cette conspiration eugéniste malveillante »[9].

Présumés « TESCREAListes »

modifier

Le capital-risqueur Marc Andressen s'est identifié comme un TESCREAListe[9],[8]. Il a publié « Le Manifeste techno-optimiste » en octobre 2023, qui a été décrit par Jag Bhalla et Nathan J. Robinson comme un « exemple parfait » des idéologies TESCREAL[13]. Dans le document, il affirme qu’une intelligence artificielle plus avancée pourrait sauver d’innombrables vies potentielles et que ceux qui travaillent à ralentir ou à empêcher son développement devraient être condamnés comme meurtriers[8],[6].

Elon Musk a été décrit comme sympathique à certaines idéologies TESCREAL [4],[21],[19]. En août 2022, Musk a tweeté que le livre long-termiste de MacAskill , What We Owe the Future, était « un match proche de ma philosophie »[22]. Certains auteurs considèrent que Neuralink d'Elon Musk poursuit les objectifs TESCREAListes[4],[21]. Certains experts en IA se sont plaints de l'accent mis par la société XAI de Musk sur le risque existentiel, arguant qu'elle et d'autres sociétés d'IA ont des liens avec les mouvements TESCREAL[23], [24]. Dave Troy considère les vues natalistes de Musk comme provenant des idéaux de TESCREAL[3].

Sam Altman et une grande partie du conseil d'administration d'OpenAI ont été décrits comme soutenant les mouvements TESCREAL, en particulier dans le contexte de sa tentative de licenciement en 2023[9], [23], [25], [12], [20]. Gebru et Torres ont exhorté Altman à ne pas poursuivre les idéaux de TESCREAL[5].

Les transhumanistes auto-identifiés Nick Bostrom et Eliezer Yudkowsky, tous deux influents dans les discussions sur le risque existentiel lié à l'IA[20], ont également été décrits comme des dirigeants du mouvement TESCREAL[2], [4], [16],[20].

Sam Bankman-Fried, ancien PDG de l'échange de crypto-monnaie FTX, était un membre éminent et auto-identifié de la communauté altruiste efficace avant son arrestation[26], et a été décrit comme un TESCREAListe [1],[3] ou influencé par ces idéologies[19]. Après l'effondrement de FTX, les administrateurs de la masse de la faillite ont fait part de leurs inquiétudes concernant les dons de Bankman-Fried pour aider à acheter des propriétés utilisées pour des conférences et des ateliers associés au long terme, au rationalisme et à l'altruisme efficace. La propriété a été utilisée pour des conférences controversées qui ont accueilli des eugénistes libéraux et d’autres orateurs aux antécédents racistes et misogynes. Selon The Guardian, les membres du mouvement TESCREAL pourraient avoir continué à bénéficier de l'argent obtenu via la fraude chez FTX même après le début de la procédure de faillite[19].

William MacAskill, altruiste efficace et de longue date, qui avait fréquemment collaboré avec Bankman-Fried pour coordonner des initiatives philanthropiques, a été décrit comme un TESCREAListe[1],[3],[8].

Voir aussi

modifier

Références

modifier
  1. a b c d e f g h i j k l m et n (en) Gebru et Torres, « The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence », First Monday, vol. 29, no 4,‎ (ISSN 1396-0466, DOI 10.5210/fm.v29i4.13636).
  2. a b c d et e Torres, « The Acronym Behind Our Wildest AI Dreams and Nightmares », TruthDig, (consulté le )
  3. a b c d e f g et h Troy, « The Wide Angle: Understanding TESCREAL — the Weird Ideologies Behind Silicon Valley's Rightward Turn », The Washington Spectator, (consulté le ).
  4. a b c d et e Ahuja, « We need to examine the beliefs of today's tech luminaries », Financial Times, (consulté le ).
  5. a et b Russell et Black, « He's played chess with Peter Thiel, sparred with Elon Musk and once, supposedly, stopped a plane crash: Inside Sam Altman's world, where truth is stranger than fiction », Business Insider, (consulté le ).
  6. a b c et d (en-US) Pejcha, « Techno-futurists are selling an interplanetary paradise for the posthuman generation—they just forgot about the rest of us » [archive du ], Document Journal, (consulté le )
  7. a et b (en) Stross, « Tech Billionaires Need to Stop Trying to Make the Science Fiction They Grew Up on Real » [archive du ], Scientific American, (consulté le )
  8. a b c d e et f (en) Zuckerman, « Two warring visions of AI » [archive du ], Prospect, (consulté le )
  9. a b c d et e Danyl McLauchlan, interview par Susie Ferguson, Danyl McLauchlan: Silicon Valley's cult of tech utopianism,  (consulté le ).
  10. (en) Hendlin, « Semiocide as Negation: Review of Michael Marder's Dump Philosophy », Biosemiotics, vol. 17, no 1,‎ , p. 233–255 (ISSN 1875-1342, DOI 10.1007/s12304-024-09558-x)
  11. Gil Duran, « The Tech Plutocrats Dreaming of a Right-Wing San Francisco », The New Republic,‎ (lire en ligne, consulté le )
  12. a b c et d Alexandre Piccard, « L’affaire Sam Altman a montré que les catastrophistes de l’intelligence artificielle ont perdu une bataille », Le Monde,‎ (lire en ligne, consulté le ).
  13. a et b (en) Jag Bhalla, Nathan J., « 'Techno-Optimism' is Not Something You Should Believe In », Current Affairs,‎ (lire en ligne, consulté le ).
  14. Brennan, « The "TESCREAL" Bungle » [archive du ], Asterisk, (consulté le )
  15. Pethokoukis, « Billionaires Dreaming Of a Sci-Fi Future Is a Good Thing » [archive du ], American Enterprise Institute, (consulté le )
  16. a b et c (en) Helfrich, « The harms of terminology: why we should reject so-called "frontier AI" », AI Ethics,‎ (ISSN 2730-5961, DOI 10.1007/s43681-024-00438-1, lire en ligne [archive du ], consulté le )
  17. a et b Van Rensburg, « AI and the quest for utopia » [archive du ], Vrye Weekblad, (consulté le )
  18. (en-US) Torres, « Effective Altruism Is a Welter of Lies, Hypocrisy, and Eugenic Fantasies », Truthdig, (consulté le )
  19. a b c et d (en-GB) Jason Wilson, Ali, « Sam Bankman-Fried funded a group with racist ties. FTX wants its $5m back », The Guardian,‎ (lire en ligne [archive du ], consulté le )
  20. a b c et d (en-US) Brownell, « Doom, Inc.: The well-funded global movement that wants you to fear AI »  , The Logic, (consulté le )
  21. a et b (en-US) Kandimalla, « The dark side of techno-utopian dreams: Ethical and practical pitfalls » [archive du ], New University, (consulté le )
  22. (en-US) Nicholas Kulish, « How a Scottish Moral Philosopher Got Elon Musk's Number », The New York Times,‎ (lire en ligne, consulté le )
  23. a et b (en-US) Goldman, « Doomer AI advisor joins Musk's xAI, the 4th top research lab focused on AI apocalypse » [archive du ], VentureBeat, (consulté le )
  24. (en) Torres, « AI and the threat of "human extinction": What are the tech-bros worried about? It's not you and me » [archive du ], Salon, (consulté le )
  25. (en-US) Melton et Mok, « 'Black Twitter' asks 'What if Sam Altman were a Black woman?' in the wake of ouster » [archive du ], Business Insider, (consulté le )
  26. (en-US) Leif Wenar, « The Deaths of Effective Altruism », Wired,‎ (lire en ligne, consulté le )