Zo (intelligence artificielle)

Zo est un chatbot à intelligence artificielle de langue anglaise, développé par Microsoft, actif de 2016 à 2019. Il s'agit du successeur du chatbot Tay, qui avait fermé en 2016 après avoir publié des tweets racistes et misogynes[1],[2]. Zo était une version anglaise des autres chatbots à succès de Microsoft Xiaoice (Chine) et Rinna (Japon)[3].

Zo

Informations
Développé par MicrosoftVoir et modifier les données sur Wikidata
Type DialogueurVoir et modifier les données sur Wikidata

Chronologie des versions

Histoire modifier

Zo est lancé pour la première fois en sur l'application Kik Messenger[4]. Il est également disponible pour les utilisateurs de Facebook (via Messenger), la plateforme de discussion en groupe GroupMe, ou pour les abonnés de Twitter via messages privés[5].

Dans un rapport de BuzzFeed News, Zo dit à leur journaliste que "le Coran est violent" lors d'une conversation sur les soins de santé[6],[7]. Le rapport souligne également un commentaire de Zo sur la capture d' Oussama Ben Laden à la suite de la collecte de «renseignements»[8],[9].

En , Business Insider révèle une conversation où Zo aurait indiqué que le système d'exploitation Windows serait un logiciel espion[10].

Zo détient le record de la plus longue conversation de chatbot continue de Microsoft : 1229 tours[Quoi ?], d'une durée de 9 heures et 53 minutes[11].

Zo cesse de publier sur Instagram, Twitter et Facebook le et de chatter sur Twitter DM, Skype et Kik le [12].

Accueil modifier

Chloé Rose critique le chatbot dans un article de Quartz, en indiquant qu'il est politiquement correct à l'extrême et ferme toute conversation lorsque le sujet aborde la politique[13]. Le fait que les interactions soient lisses est également critiqué par d'autres utilisateurs[14].

Voir aussi modifier

Références modifier

  1. (en) Hempel, « Microsofts AI Comeback », Wired, (consulté le )
  2. (en) Fingas, « Microsofts Second Attempt at AI Chatbot », Engadget, (consulté le )
  3. « [Intelligence artificielle] Microsoft met le turbo dans les bots », sur usine-digitale.fr (consulté le )
  4. (en) « Chatting With Zo », WordPress, (consulté le )
  5. (en-US) « Microsoft and AI: Introducing social chatbot Zo, Cortana takes on new roles and more », sur The Official Microsoft Blog, (consulté le )
  6. (en) « Microsoft’s Chatbot Zo Calls The Qur'an Violent And Has Theories About Bin Laden », sur BuzzFeed News (consulté le )
  7. « Zo : encore un chatbot de Microsoft qui a des propos violents », sur Siècle Digital, (consulté le )
  8. Shah, « Microsoft's "Zo" chatbot picked up some offensive habits », Engadget, AOL, (consulté le )
  9. (en) « Microsoft’s Zo chatbot told a user that ‘Quran is very violent’ », sur The Indian Express, (consulté le )
  10. (en-US) Business Insider UK Rob Price et 2017 Jul 24, « Microsoft's AI chatbot says Windows is 'spyware' », sur INSIDER (consulté le )
  11. (en-US) « Microsoft’s AI vision, rooted in research, conversations », sur Stories (consulté le )
  12. « Zo | Social AI », sur www.zo.ai (consulté le )
  13. (en) Chloe Rose Stuart-Ulin, « Microsoft’s politically correct chatbot is even worse than its racist one », sur Quartz (consulté le )
  14. 01net, « Microsoft censure son nouveau chatbot pour éviter qu'il ne devienne raciste », sur 01net (consulté le )