En informatique, l'effet ELIZA désigne la tendance à assimiler de manière inconsciente le comportement d'un ordinateur à celui d'un être humain.

Exemple de conversation avec ELIZA
Exemple de conversation avec ELIZA.

Éléments de définition modifier

Dans sa forme spécifique, l'effet ELIZA désigne uniquement « la prédisposition à attribuer à des suites de symboles générés par ordinateur (en particulier à des mots) plus de sens qu'ils n'en ont réellement[1] ». Douglas Hofstadter donne un exemple simple pour illustrer la forme spécifique de l'effet ELIZA : un distributeur automatique qui affiche « MERCI » à la fin d'une transaction. Certaines personnes pourraient penser que la machine exprime sa gratitude ; or, elle ne fait qu'afficher une suite de symboles pré-programmés[1].

Plus généralement, l'effet ELIZA se réfère à une situation[2],[3] où l'utilisateur reconnaît aux systèmes informatiques « des qualités intrinsèques et des capacités qu'un logiciel ne peut posséder »[4] ou « pense que les mots et autres informations générées par le programme ont été induits par une cause déterminée alors qu'il n'existe en réalité aucun rapport de cause à effet[5] ».

Les formes générale et spécifique de l'effet ELIZA apparaissent même si les utilisateurs sont conscients de la nature déterminée des programmations générées par le système. D'un point de vue psychologique, l'effet ELIZA résulterait d'une dissonance cognitive subtile entre la conscience de l'utilisateur vis-à-vis des limites de programmation et son comportement à l'égard des informations générées par le programme[6].

La découverte de l'effet ELIZA marque une évolution cruciale dans l'intelligence artificielle qui démontre l'utilité du principe d'ingénierie sociale face à la programmation explicite pour passer un test de Turing[7].

En février 2023, James Vincent alerte sur le fait que l'effet ELIZA peut être renforcé lors de conversation avec les IA génératives quand il s'agit de chatbots tels que Bard (de Google), ChatGPT (d'OpenAI), conçu pour imiter l'Humain et notamment pour simuler de l'empathie[8] ou tel que Bing (de Microsoft) qui « essaie de répondre ou de refléter le ton dans lequel on lui demande de fournir des réponses », évoquant parfois la flagornerie et pouvant créer un attachement voire une dépendance émotionnelle, et/ou entretenir ou renforcer certaines des croyances des usagers de ces IA, comme dans une bulle de filtre ou une chambre d'écho (question évoquée dans un article intitulé « Stochastic Parrots » (les perroquets stochastiques), critiquant les modèles de langage de l'IA)[8].

Origine du terme modifier

L'effet ELIZA tire son nom du chatterbot ELIZA, élaboré en 1966 par Joseph Weizenbaum, informaticien au MIT (Institut de technologie du Massachusetts). Lors de l'exécution du script DOCTOR créé par Joseph Weizenbaum, ELIZA imite un psychothérapeute rogérien, en reformulant fréquemment les réponses du « patient » en questions :

Humain : C'est mon petit ami qui m'a dit de te parler.
ELIZA : Votre petit ami vous a dit de me parler ?
Humain : Il dit que je suis souvent déprimée.
ELIZA : Je suis navrée d'apprendre que vous êtes déprimée.
Humain : C'est vrai. Je suis malheureuse.
ELIZA : Pensez-vous que me parler vous aidera à ne plus être malheureuse[9] ?

Bien qu'il soit conçu uniquement pour soutenir une « conversation en langage naturel »[10], le script DOCTOR du programme ELIZA serait parvenu à déclencher une réponse émotionnelle de la part des utilisateurs. En interagissant avec le programme, ces derniers ont commencé à attribuer à ELIZA des qualités de compréhension et une certaine motivation[11]. Comme Weizenbaum l'écrivit plus tard : « Je ne m'étais jamais rendu compte que […] de si courtes interactions avec un programme informatique relativement simple risquaient d'induire des pensées délirantes chez des personnes pourtant normales[12] ». En effet, le programme ELIZA n'avait pas été initialement conçu pour susciter ce type de réactions. Après observation, les chercheurs ont découvert que les utilisateurs pensent inconsciemment que les questions d'ELIZA reflétent une implication émotionnelle et un certain intérêt pour les sujets évoqués, même s'ils sont conscients qu'ELIZA ne simule pas l'émotion[13].

Notes et références modifier

(en) Cet article contient des extraits de la Free On-line Dictionary of Computing qui autorise l'utilisation de son contenu sous licence GFDL.

  1. a et b (en) Hofstadter, Douglas R., Fluid Concepts and Creative Analogies : Computer models of the fundamental mechanisms of thought, New York, Basic Books, , 518 p. (ISBN 978-0-465-02475-9, LCCN 93044294, lire en ligne), « Preface 4 The ineradicable Eliza Effect and its dangers, epilogue », p. 157.
  2. (en) Tom Fenton-Kerr, Computation for Metaphors, Analogy, and Agents, Springer, (lire en ligne), GAIA: An Experimental Pedagogical Agent for Exploring Multimodal Interaction, p. 156

    « Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction. »

  3. (en) Hamid R. Ekbia, Artificial Dreams : The Quest for Non-Biological Intelligence, Cambridge, Cambridge University Press, , 1re éd., relié (ISBN 978-0-521-87867-8, LCCN 2007045450, lire en ligne), p. 8.
  4. W. King, Technical Memorandum M-95-1, University of Washington, .
  5. (en) William B. Rouse et Kenneth R. Boff, Organizational Simulation, Hoboken, Wiley-IEEE, , 650 p. (ISBN 978-0-471-73943-2, lire en ligne), p. 308–309

    « This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do. »

  6. (en) Hamid R. Ekbia, Artificial Dreams : The Quest for Non-Biological Intelligence, Cambridge, Cambridge University Press, , 1re éd., relié (ISBN 978-0-521-87867-8, LCCN 2007045450, lire en ligne), p. 156

    « But people want to believe that the program is "seeing" a football game at some plausible level of abstraction. The words that (the program) manipulates are so full of associations for readers that they CANNOT be stripped of all their imagery. Collins of course knew that his program didn't deal with anything resembling a two-dimensional world of smoothly moving dots (let alone simplified human bodies), and presumably he thought that his readers, too, would realize this. He couldn't have suspected, however, how powerful the Eliza effect is. »

  7. (en) Robert Trappl, Paolo Petta et Sabine Payr, Emotions in Humans and Artifacts, Cambridge, Mass., MIT Press, , 390 p. (ISBN 978-0-262-20142-1, lire en ligne), p. 353

    « The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters. »

  8. a et b (en) James Vincent, « Introducing the AI Mirror Test, which very smart people keep failing », sur The Verge, (consulté le ).
  9. (en) Güven Güzeldere, Franchi, Stefano, « Dialogues with colorful personalities of early AI » (consulté le ).
  10. (en) Joseph Weizenbaum, « ELIZA--A Computer Program For the Study of Natural Language Communication Between Man and Machine », Communications of the ACM, Massachusetts Institute of Technology, vol. 9,‎ , p. 36 (DOI 10.1145/365153.365168, lire en ligne [archive du ], consulté le ).
  11. (en) Lucy A. Suchman, Plans and Situated Actions : The Problem of Human-Machine Communication, Cambridge, Cambridge University Press, , 203 p., poche (ISBN 978-0-521-33739-7, LCCN 87008013, lire en ligne), p. 24.
  12. (en) Joseph Weizenbaum, Computer power and human reason : from judgment to calculation, W. H. Freeman, , p. 7.
  13. (en) Lee Billings, « Rise of Roboethics », Seed,‎ (lire en ligne [archive du ]) :

    « (Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems—a phenomenon now known as the "Eliza Effect." »

    .

Annexes modifier

Articles connexes modifier

Bibliographie modifier

  • (en) Douglas Hofstadter, Fluid concepts and creative analogies : Computer models of the fundamental mechanisms of thought, New York, Basic Books, (lire en ligne), « Preface 4: The Ineradicable Eliza Effect and Its Dangers »
  • (en) S Turkle, Life on the screen—Identity in the Age of the Internet, Londres, Phoenix Paperback, , « Eliza Effect: tendency to accept computer responses as more intelligent than they really are »

Lien externe modifier