Agent conversationnel

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

Un agent conversationnel ou assistant virtuel, (« chatbot » ou « chatterbot » en anglais) est un agent qui dialogue avec un utilisateur. La recherche sur cette Interface personne-machine est influencée par la compétition sur le test de Turing (1950) : donner l'illusion qu'un programme pense par un dialogue sensé. Un utilisateur est invité à formuler sa demande en langage naturel, elle est affinée par un échange convivial, dont le logiciel interprète une requête opérationnelle pour son système d'information. Un agent conversationnel peut en plus rechercher l'Effet ELIZA. ELIZA, un des premiers agents conversationnels, simulait un psychothérapeute rogérien[1], plusieurs personnes en seraient devenues dépendantes sur le plan émotionnel. Les agents conversationnels débordent donc la recherche ou le divertissement, ils mettent en œuvre des connaissances linguistiques, psychologiques, et bien sûr des bases de programmation.

Méthode[modifier | modifier le code]

Un agent conversationnel est un programme qui tente de converser avec une personne durant quelques minutes ou plus en lui donnant l'impression de converser elle-même avec une personne. Une bonne compréhension de la conversation serait utile pour tenir un dialogue sensé, mais la plupart des agents conversationnels ne s'y essayent pas. Ils repèrent surtout quelques mots dits déclencheurs, voire des expressions de leur interlocuteur, pour retrouver des réponses dont le schéma est programmé et qui peuvent mener la conversation plus loin d'une manière plus ou moins intelligente, mais sans nécessiter de comprendre de quoi ils parlent.

Par exemple dans le cas d'ELIZA, la présence du mot « père » (ou « mère ») dans une phrase du sujet était associée à une réponse : « Pouvez-vous me parler un peu de vos relations avec votre père (mère) ? ». Des indicateurs sont en général positionnés pour que le même type de réponse ne soit pas utilisé plus d'une fois.

Cette méthode des « mots-clés » a comme défaut majeur d'exiger une base de données importante pour donner des résultats satisfaisants[2], bien qu'ELIZA ait tenu en 5 pages de SNOBOL. En effet, les mots-clés que de tels agents conversationnels reconnaissent sont souvent des sous-expressions couramment utilisées tel que « j'aime... » ou « je déteste... », qui sont utilisées par le programme pour faire écho au propos de l'utilisateur (« Depuis quand aimez-vous... ? », « Quelqu'un d'autre dans votre famille aimait-il... ? »). Cette méthode ne fonctionne que peu de temps (typiquement deux ou trois réponses, rarement plus de dix), avant que le discours de la machine soit perçu comme artificiel. Pour combler cela, les concepteurs d’agents conversationnels rajoutent souvent des expressions complètes (telles que « j'aime le chocolat »), et cela a tendance à rapidement augmenter la taille de la base de données. Généralement, une base de données satisfaisante contient de 5000 à 10000 entrées.

Cependant la méthode ci-dessus ne peut pas se prêter aisément au stockage de données, et c'est une des raisons pour lesquelles beaucoup d’agents conversationnels l'utilisant ne peuvent stocker d'informations sur l'utilisateur avec lequel ils communiquent. Certains programmes cependant essaient d'utiliser de meilleures méthodes de communication. Une méthode permettant l'apprentissage est d'utiliser un système fondé à la fois sur la méthode de reconnaissance des mots-clés décrite ci-dessus et sur un système de reconnaissance des mots et d'analyse linguistique. De tels systèmes lancent généralement l'analyse linguistique sur la phrase entrée par l'utilisateur pour tenter d'en extraire des informations leur permettant de répondre de façon exacte selon des informations stockées en base de données (base de connaissances). Si le processus échoue, ces programmes utilisent la méthode « mots-clés », en utilisant une base de données classique. Cette dernière méthode n'améliore certes pas la taille de la base de données, mais elle permet à l’agent conversationnel de traiter de nouveaux cas de langue. Par exemple, avec la méthode des mots-clés si la base de données contient une entrée « WHO IS THAT » et que l'utilisateur entre « WHOS THAT », le robot a toutes les chances de ne pas répondre juste, tandis qu'avec une analyse de l'entrée utilisateur, il est susceptible de répondre à la question.

Le fait que les agents conversationnels ne comprennent pas l'information qu'ils traitent est d'ailleurs la raison pour laquelle on classe généralement les agents conversationnels dans le type de l'IA faible. L'IA faible est une IA qui cherche à imiter le comportement humain (la conversation notamment), le langage naturel, mais sans chercher à comprendre le sens de l'information qu'elle traite. C'est la majeure différence avec l'IA forte, qui, elle, vise à simuler une véritable compréhension de l'information. La frontière entre les deux est floue, par exemple avec des applications comme SIRI.

Historique[modifier | modifier le code]

Les premiers agents conversationnels ont été ELIZA, PARRY, et SHRDLU.

ELIZA fut créé en 1966[1]. Elle avait été créée par Joseph Weizenbaum, du Massachusetts Institute of Technology (MIT), et ne prenait que 3 pages en langage SNOBOL. Elle faisait grand usage de la technique de l'écholalie.

  • Elle commençait par poser une question neutre (Bonjour. Pourquoi venez-vous me voir ?) à la personne testée, puis analysait à chaque fois la réponse pour tenter de reposer une question en relation avec celle-ci.
  • Si une question lui était posée, elle demandait pourquoi on lui posait la question
  • Si une phrase contenait le mot computer, elle demandait : Dites-vous cela parce que je suis une machine ?
  • etc.

Des concours d’agents conversationnels sont organisés chaque année pour promouvoir l'émulation dans ce domaine. Actuellement, on assiste à la naissance de nombreux agents conversationnels, en partie grâce au Prix Loebner, qui essaye d'être une sorte de test de Turing. Lors de ces concours, afin d'évaluer les agents conversationnels, le jury peut dialoguer soit avec un humain soit avec un agent conversationnel à travers une interface clavier/écran. Au bout d'un certain temps, le jury doit évaluer si le candidat testé est une machine ou pas.

Les agents conversationnels les plus audacieux sont ceux qui tentent d'extraire des connaissances de leurs conversations comme ECTOR (en anglais, learning bots), mais ce sont aussi ceux dont les résultats sont actuellement les moins impressionnants.

Au début du XXIè siècle, c'est certainement le programme ALICE qui est le plus évolué dans le domaine. À noter début 2016, l'incident de l’agent conversationnel de Microsoft, surnommé Tay, qui a été « piraté » et retranscrit au bout de quelques jours, les insultes et propos racistes que des pirates lui avaient appris.

Applications commerciales[modifier | modifier le code]

Depuis quelques années, les agents conversationnels fleurissent sur internet et les sociétés qui en profitent sont maintenant légion. Le soutien client et le télémarketing sont les cibles privilégiées de ces nouveaux venus du web[3]. En février 2017, les agents conversationnels ne se limitent plus à des questions de base, mais intègrent désormais des algorithmes plus évolués permettant une gestion des échanges d'un niveau de complexité plus élevé qu'auparavant[4],[5]

Cependant, il faut noter que ces agents-là ne veulent pas leurrer les utilisateurs, ils sont spécialisés dans un sujet particulier (vente d'un produit particulier, support client d'une entreprise particulière) et se contentent de recentrer la conversation dès que celle-ci s'en éloigne. Ils sont néanmoins dotés, dans la plupart des cas, d'un protocole social qui les rend plus « humains ». Il est important de distinguer deux types d’agents conversationnels :

  • les bots simples, construits à partir d'éléments graphiques comme les boutons, les carrousels...
  • les bots intelligents, intégrant une technologie de compréhension du langage naturel (NLP) construit sur des cadres logiciels complexes.

Depuis l'arrivée des agents conversationnels sur Facebook Messenger en 2016, les annonceurs cherchent à créer des expériences conversationnelles visant à capter leurs utilisateurs, clients ou clients potentiels différemment. Dans cette démarche, le temps a mis en valeur quelques écueils à éviter dans la conception de l'expérience utilisateur (UX conversationnel). Cette composante de l'expérience conversationnelle est souvent négligée. Ce problème freine la prolifération et la démocratisation des bots de marques dans l'écosystème numérique européen.

Dans le secteur de la musique Universal Music et Digitick ont développé des agents conversationnels sur Facebook Messenger pour assurer un service d'information et de vente de billets pour les concerts et autres événements culturels[6],[7].

Comme toute technologie suffisamment aboutie pour opérer des transformations dans les modes de production, les agents conversationnels pourraient poser un certain nombre de questions portant sur la place de l'humain dans l'entreprise. En mars 2016, en France, le Crédit Mutuel CIC a sollicité ses salariés pour alimenter le robot conversationnel d'IBM (Watson). Cette décision a suscité une levée de boucliers de la part des syndicats, s'inquiétant des conséquences à moyen et long terme sur l'emploi en général[8][réf. insuffisante].

Dans le secteur des transports, en France, la RATP a développé en décembre 2017 un agent conversationnel permettant de guider les passagers au fur et à mesure de leurs besoins de trajets [9].

Applications commerciales : cas spécifiques de l'informatique décisionnelle et des mégadonnées[modifier | modifier le code]

L'informatique décisionnelle ou en anglais Business Intelligence est une branche de l'informatique qui consiste à l'analyse de données en entreprise [10]. Le Big Data permet de stocker de grands volumes de données en vue de les analyser par la suite[11].

L'arrivée de l’agent conversationnel dans ces deux domaines de compétences permet désormais aux non-informaticiens d'interroger des grands volumes de données en langage naturel sans se soucier de la technicité[12].

Parmi les technologies disponibles, on trouve :

  • Ask'R de Tempest Systems, société française
  • Oracle[13]
  • Watson d'IBM [14].
  • DialogFlow [15]

Fiction philosophique[modifier | modifier le code]

Le philosophe Pascal Chabot a élaboré une courte fiction mettant en scène un agent conversationnel auquel un groupe de programmeurs « apprennent » la philosophie. Cet agent conversationnel est auditionné par un jury de 5 philosophes professionnels qui dialoguent avec la machine pour évaluer s'il peut ou non être qualifié de « philosophe ». À cette occasion, les relations personnes-machines, le mimétisme, la reconnaissance et les modifications sociales engendrées par la construction de ces intelligences artificielles sont abordés. Voir ChatBot le robot. Drame philosophique en 5 questions et 6 actes (PUF, 2015)[16].

Pièges[modifier | modifier le code]

Voici quelques pièges (souvent faciles à déjouer) grâce auxquels le jury peut deviner si le candidat est un agent conversationnel ou non :

  • Demander combien fait 7×410/4,3 : si le candidat répond trop vite, il ne fera aucun doute qu'il est un agent conversationnel. Mais la plupart des agents conversationnels simulent justement des temps de réflexion variables.
  • Tenter de provoquer une réaction en déclarant quelque chose d'incroyable, bien que la réponse évidente soit : Pourquoi changez-vous brusquement de sujet ?
  • Demander (par exemple) ce qui d'un avion à réaction ou de l'index de l'utilisateur est le plus gros. Un agent conversationnel ne réussira pas à répondre alors que c'est évident pour un candidat humain.
  • Faire appel à de la perception visuelle, par exemple « Si je retourne la lettre W, quelle autre lettre obtiens-je ? »
  • Donner une information dans une phrase, puis rendre cette information indispensable dans la phrase suivante, car les logiciels de conversation n'ont généralement pas d'apprentissage.

Techniques pour leurrer le jury[modifier | modifier le code]

  • Essayer de simuler un suivi de conversation.
  • Être très imprévisible.
  • Éviter les questions incomprises : par exemple, en répondant « patientez quelques instants, il y a quelqu'un à la porte ».

Notes et références[modifier | modifier le code]

  1. a et b (en) « Eliza Chatbot » (consulté le 10 janvier 2015)
  2. (en) « Chatbot Tutorial », (consulté le 10 janvier 2015)
  3. Article sur Eco89, http://eco.rue89.com/2008/12/01/e-commerce-des-androides-au-service-des-clients
  4. « Mais à quoi servent donc les chatbots? », sur Challenges,
  5. « Qu'est-ce qu'un chatbot ? - ChatbotCanada.com », ChatbotCanada.com,‎ (lire en ligne)
  6. Chatbots, les nouveaux guichetiers d’Universal, Actu.digital, 20 février 2017 (consulté le 16 mai 2017)
  7. Thomas Horst, Digitick lance son chatbot, Strategies.fr, 9 décembre 2016 (consulté le 16 mai 2017)
  8. « Entendez-vous ces bruits de bots ? Une réflexion sur la robomorphisation du web et de l'emploi par les agents conversationnels - », sur maisouvaleweb.fr (consulté le 26 octobre 2016)
  9. https://www.usine-digitale.fr/article/chatbot-messenger-robot-pepper-la-ratp-teste-de-nouvelles-interfaces.N623583
  10. https://www.definitions-marketing.com/definition/informatique-decisionnelle/
  11. https://www.supinfo.com/articles/single/1706-bi-versus-big-data
  12. http://www.dataversity.net/chatbots-will-next-evolutionary-step-business-analytics/
  13. https://www.oracle.com/fr/solutions/mobile/bots.html
  14. https://www.ibm.com/watson/services/conversation/
  15. « Dialogflow et Actions on Google, un chatbot pour votre Google Home », sur devotics.fr, (consulté le 16 janvier 2018)
  16. Pascal Chabot, ChatBot le robot, Paris, PUF, , 70 p. (ISBN 978-2-13-073505-2)

Voir aussi[modifier | modifier le code]

Liens externes[modifier | modifier le code]