Effet ELIZA

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En informatique, l'effet ELIZA, désigne la tendance à assimiler de manière inconsciente le comportement d'un ordinateur à celui d'un être humain.

Dans sa forme spécifique, l'effet ELIZA désigne uniquement « la prédisposition à attribuer à des suites de symboles générés par ordinateur (en particulier à des mots) plus de sens qu'ils n'en ont réellement[1] ». Douglas Hofstadter donne un exemple simple pour illustrer la forme spécifique de l'effet ELIZA : un distributeur automatique qui affiche « MERCI » à la fin d'une transaction. Certaines personnes pourraient penser que la machine exprime sa gratitude ; or, elle ne fait qu'afficher une suite de symboles pré-programmés[1].

Plus généralement, l'effet ELIZA se réfère à une situation[2],[3] où l'utilisateur reconnaît aux systèmes informatiques « des qualités intrinsèques et des capacités qu'un logiciel ne peut posséder[4] » ou « pense que les mots et autres informations générées par le programme ont été induits par une cause déterminée alors qu'il n'existe en réalité aucun rapport de cause à effet[5]. » Les formes générale et spécifique de l'effet ELIZA apparaissent même lorsque les utilisateurs sont conscients de la nature déterminée des programmations générées par le système. D'un point de vue psychologique, l'effet ELIZA est le résultat d'une dissonance cognitive subtile entre la conscience de l'utilisateur vis-à-vis des limites de programmation et son comportement à l'égard des informations générées par le programme[6]. La découverte de l'effet ELIZA marque une évolution cruciale dans l'intelligence artificielle qui démontre l'utilité du principe d'ingénierie sociale face à la programmation explicite pour passer un test de Turing[7].

Origine du terme[modifier | modifier le code]

L'effet ELIZA tire son nom du chatterbot ELIZA, élaboré en 1966 par Joseph Weizenbaum, informaticien au MIT (Institut de technologie du Massachusetts). Lors de l'exécution du script DOCTOR créé par Joseph Weizenbaum, ELIZA imite un psychothérapeute rogérien, en reformulant fréquemment les réponses du « patient » en questions :

Humain : C'est mon petit ami qui m'a dit de te parler.
ELIZA : Votre petit ami vous a dit de me parler ?
Humain : Il dit que je suis souvent déprimée.
ELIZA : Je suis navrée d'apprendre que vous êtes déprimée.
Humain : C'est vrai. Je suis malheureuse.
ELIZA : Pensez-vous que me parler vous aidera à ne plus être malheureuse[8]?

Bien qu'il soit conçu uniquement pour soutenir une « conversation en langage naturel »[9], le script DOCTOR du programme ELIZA serait parvenu à déclencher une réponse émotionnelle de la part des utilisateurs. En interagissant avec le programme, ces derniers ont commencé à attribuer à ELIZA des qualités de compréhension et une certaine motivation[10]. Comme Weizenbaum l'écrivit plus tard : « Je ne m'étais jamais rendu compte que ... de si courtes interactions avec un programme informatique relativement simple risquaient d'induire des pensées délirantes chez des personnes pourtant normales[11]. » En effet, le programme ELIZA n'avait pas été initialement conçu pour susciter ce type de réactions. Après observation, les chercheurs ont découvert que les utilisateurs pensent inconsciemment que les questions d'ELIZA reflétent une implication émotionnelle et un certain intérêt pour les sujets évoqués, même s'ils sont conscients qu'ELIZA ne simule pas l'émotion[12].

Notes et références[modifier | modifier le code]

Cet article est fondé sur une traduction de la Free On-line Dictionary of Computing et est utilisé avec permission selon la GFDL.

  1. a et b (en) Hofstadter, Douglas R., Fluid Concepts and Creative Analogies: Computer models of the fundamental mechanisms of thought, New York, Basic Books,‎ 1996 (ISBN 978-0-465-02475-9, LCCN 93044294, lire en ligne), « Preface 4 The ineradicable Eliza Effect and its dangers, epilogue », p. 157
  2. (en) Tom Fenton-Kerr, Computation for Metaphors, Analogy, and Agents, Springer,‎ 1999, p. 156 :

    « Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction. »

  3. (en) Hamid R. Ekbia, Artificial Dreams: The Quest for Non-Biological Intelligence, Cambridge, Cambridge University Press,‎ 2008, 1e éd., relié (ISBN 978-0-521-87867-8, LCCN 2007045450, lire en ligne), p. 8
  4. W. King, Technical Memorandum M-95-1, University of Washington,‎ 1995
  5. (en) William B. Rouse et Kenneth R. Boff, Organizational Simulation, Hoboken, Wiley-IEEE,‎ 2005 (ISBN 978-0-471-73943-2, lire en ligne), p. 308–309 :

    « This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do. »

  6. (en) Hamid R. Ekbia, Artificial Dreams: The Quest for Non-Biological Intelligence, Cambridge, Cambridge University Press,‎ 2008, 1e éd., relié (ISBN 978-0-521-87867-8, LCCN 2007045450, lire en ligne), p. 156 :

    « But people want to believe that the program is "seeing" a football game at some plausible level of abstraction. The words that (the program) manipulates are so full of associations for readers that they CANNOT be stripped of all their imagery. Collins of course knew that his program didn't deal with anything resembling a two-dimensional world of smoothly moving dots (let alone simplified human bodies), and presumably he thought that his readers, too, would realize this. He couldn't have suspected, however, how powerful the Eliza effect is. »

  7. (en) Robert Trappl, Paolo Petta et Sabine Payr, Emotions in Humans and Artifacts, Cambridge, Mass., MIT Press,‎ 2002 (ISBN 978-0-262-20142-1, lire en ligne), p. 353publisher=MIT Press :

    « The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters. »

  8. (en) Güven Güzeldere, Franchi, Stefano, « Dialogues with colorful personalities of early AI » (consulté le 30 juillet 2007)
  9. (en) Joseph Weizenbaum, « ELIZA--A Computer Program For the Study of Natural Language Communication Between Man and Machine », Communications of the ACM, Massachusetts Institute of Technology, vol. 9,‎ janvier 1966, p. 36 (DOI 10.1145/365153.365168, lire en ligne)
  10. (en) Lucy A. Suchman, Plans and Situated Actions: The problem of human-machine communication, Cambridge, Cambridge University Press,‎ 1987, poche (ISBN 978-0-521-33739-7, LCCN 87008013, lire en ligne), p. 24
  11. (en) Joseph Weizenbaum, Computer power and human reason: from judgment to calculation, W. H. Freeman,‎ 1976, p. 7
  12. (en) Lee Billings, « Rise of Roboethics », Seed,‎ 2007-07-16 (lire en ligne) :

    « (Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems—a phenomenon now known as the "Eliza Effect." »

Annexes[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) Douglas Hofstadter, Fluid concepts and creative analogies : Computer models of the fundamental mechanisms of thought, New York, Basic Books,‎ 1995 (lire en ligne), « Preface 4: The Ineradicable Eliza Effect and Its Dangers »
  • (en) S Turkle, Life on the screen—Identity in the Age of the Internet, Londres, Phoenix Paperback,‎ 1997, « Eliza Effect: tendency to accept computer responses as more intelligent than they really are »

Lien externe[modifier | modifier le code]