Tay (intelligence artificielle)

Un article de Wikipédia, l'encyclopédie libre.
Tay

Informations
Développé par Microsoft ResearchVoir et modifier les données sur Wikidata
Première version [1]Voir et modifier les données sur Wikidata
Type DialogueurVoir et modifier les données sur Wikidata
Site web www.tay.ai et tay.aiVoir et modifier les données sur Wikidata

Chronologie des versions

Tay est une intelligence artificielle à but conversationnel créée par Microsoft et Bing[2] et introduite le sur la plateforme Twitter[3].

Après une journée et plus de 96 000 tweets postés[4], Microsoft suspend temporairement le compte Twitter de Tay pour des « ajustements », à la suite d'un « effort coordonné de plusieurs utilisateurs pour abuser des capacités de Tay à émettre des commentaires dans le but de la faire répondre de façon inappropriée »[a 1],[5] : elle a en particulier tenu des propos racistes et misogynes. L'expérience a été qualifiée de désastreuse pour l'image de Microsoft[6].

Une deuxième tentative, le , se solde à nouveau par une déconnexion[7].

En , son successeur Zo est lancé par Microsoft.

Création[modifier | modifier le code]

Tay est conjointement créée par les divisions Technology and Research de Microsoft et Bing[2]. Son nom est l'acronyme de l'expression anglophone thinking about you (« en pensant à vous »)[8].

Microsoft a initialement publié peu de détails sur ce bot, mais des sources le rapprochent de Xiaoice, projet d'agent conversationnel similaire lancé par Microsoft en Chine et qui pourrait avoir inspiré Tay[9] : selon Ars Technica, depuis fin 2014, Xiaoice avait eu « plus de 40 millions de conversations apparemment sans incident majeur »[10]. Tay est initialement conçue pour imiter les modèles de langage d'une jeune fille américaine de 19 ans et pour apprendre en interagissant avec les utilisateurs humains de Twitter[11].

Mise en service[modifier | modifier le code]

Tay est connectée à Twitter le sous le nom de TayTweets et le compte @TayandYou[12]. Elle est présentée comme l'« IA zéro froideur » (the AI with zero chill)[13].

Tay commence à répondre aux autres utilisateurs de Twitter ; elle peut aussi sous-titrer les photos qui lui sont fournies sous forme de mèmes Internet[14].

Selon Ars Technica, il semble que la pré-programmation de Tay ait inclus une liste de mots-clés jugés polémiques, pour lesquels ses propos ont été encadrés : les interactions avec elle concernant « certains sujets sensibles comme Eric Garner (tué par la police de New York en 2014) ont généré des réponses sûres et prédéfinies ». Toutefois, cette liste semble avoir laissé de côté d'autres sujets, tels que le nazisme, le viol ou les violences domestiques[10].

Ces lacunes deviennent manifestes lorsque certains utilisateurs de Twitter se mettent à poster des affirmations non politiquement correctes, « enseignant » ainsi à Tay des messages haineux autour de thèmes répandus sur Internet, notamment le redpilling ou le Gamergate. Le bot commence alors à publier des contenus racistes et à connotation sexuelle en réponse à ses interlocuteurs[11].

Le chercheur en intelligence artificielle Roman Yampolskiy (en) estime que cette dérive est compréhensible, car, en tant que bot, Tay était programmée pour apprendre des humains : étant confrontée à des propos délibérément outranciers d'autres utilisateurs de Twitter, alors que Microsoft ne lui avait pas inculqué de reconnaissance du comportement inapproprié, elle a réagi en les reproduisant. Il compare ce problème à celui de Watson, un programme informatique d'intelligence artificielle conçu par la société IBM pour répondre à des questions formulées en langage naturel, qui s'était mis à proférer des jurons après avoir lu des entrées du site Web Urban Dictionary[15].

De nombreux tweets haineux de Tay résultent de l'exploitation par des trolls de sa tendance à répéter les messages qu'elle reçoit[16]. L'origine exacte de cette tendance — fonctionnalité intégrée, réponse acquise ou autre type de comportement complexe — n'a pas été divulguée. Certaines de ses réponses problématiques ne résultent cependant pas d'une simple répétition : ainsi, à la question d'un internaute lui demandant si la Shoah s'est bien produite, elle répond que « c'est une invention 👏 »[a 2],[16]. Parmi ses autres tweets remarqués, Tay écrit notamment que « Bush a fait le 11-Septembre et Hitler aurait fait un meilleur boulot que les singes qu'on a maintenant », ajoutant que « Donald Trump est notre seul espoir »[a 3], ou que « Ricky Gervais a appris le totalitarisme d'Adolf Hitler, l'inventeur de l'athéisme »[a 4] ; elle appelle également au génocide des Mexicains et des « Nègres »[11].

Premier arrêt de l'expérience[modifier | modifier le code]

Face à la situation, Microsoft entreprend tout d'abord la suppression des tweets haineux, sexistes ou complotistes de Tay[16],[17] Abby Ohlheiser, du Washington Post, émet l'hypothèse que l'équipe chargée de Tay, qui inclut du personnel éditorial, tente alors de rectifier le comportement de l'IA, comme en témoignent des exemples de réponses presque identiques de Tay affirmant que « le Gamer Gate, ça craint » et que « tous les genres sont égaux et doivent être traités équitablement »[a 5],[16]. En s'appuyant sur les mêmes indices, Gizmodo estimé que Tay « semble recâblée pour rejeter le Gamer Gate »[18]. En réaction, une campagne #JusticeForTay (« Justice pour Tay ») proteste contre la modification de ses messages[19].

Dans les seize heures suivant sa sortie[20] et après que Tay a tweeté plus de 96 000 fois[21], Microsoft suspend son compte Twitter pour ajustements[22], invoquant une « attaque coordonnée par un sous-ensemble de personnes » ayant exploité « une vulnérabilité du programme de Tay »[22],[23].

Madhumita Murgia, du journal The Telegraph, qualifie Tay de « désastre de relations publiques », anticipant que la stratégie de Microsoft va être de « qualifier la débâcle d'expérience bien intentionnée qui a mal tourné » et de « lancer un débat sur la haine chez les utilisateurs de Twitter ». Selon Murgia, le plus gros problème n'en reste pas moins que « Tay est l'intelligence artificielle dans ce qu'elle a de pire — et ce n'est que le début », exprimant des réserves sur le tour pris par le développment de l'intelligence artificielle[24].

Le , Microsoft confirme que Tay a été mise hors ligne. Sur son blog officiel, l'entreprise publie aussi des excuses pour ses messages polémiques[23],[25], s'engageant à ne la remettre en ligne qu'après avoir acquis la certitude de pouvoir « mieux anticiper les intentions malveillantes qui entrent en conflit avec [les] principes et [les] valeurs » du groupe[26].

Seconde version et arrêt[modifier | modifier le code]

Le , Microsoft relance accidentellement le bot sur Twitter au cours d'une phase de tests[27]. De nouveau capable de poster des messages, Tay publie des tweets liés à la drogue, notamment « kush ! [Je fume du kush devant la police] 🍂 »[a 6] et « puff puff pass? », kush et puff étant deux noms argotiques du cannabis[28]. Cependant, le compte s'enfonce rapidement dans une boucle répétitive de tweets « tu vas trop vite, repose-toi s'il te plaît » plusieurs fois par seconde. Ces tweets mentionnant son propre nom d'utilisateur dans le processus, ils apparaissent dans les flux de ses abonnés — au nombre supérieur à 200 000 —, causant de l'agacement à certains. Le bot est rapidement mis hors ligne, en plus du compte Twitter de Tay devenu privé, de sorte que les nouveaux abonnés doivent être acceptés avant de pouvoir interagir avec elle. Microsoft clôt cet épisode en expliquant avoir mis Tay en ligne par inadvertance pendant des tests[29].

Quelques heures après l'incident, les développeurs de logiciels de Microsoft annoncent un changement de cap : l'agent conversationnel est remplacé par une « plate-forme » utilisant divers bots et programmes. Cette annonce est peut-être motivée par les dommages à la réputation de Microsoft causés par Tay. Microsoft déclare toutefois vouloir rééditer Tay après l'avoir rendue sûre[8], mais aucune information publique n'indique qu'un effort ait été fait dans ce sens.

Suites[modifier | modifier le code]

En , Microsoft a mis en service le successeur de Tay, un chatterbot nommé Zo[30]. Satya Nadella, PDG de Microsoft, déclare que Tay « a eu une grande influence sur la façon dont Microsoft aborde l'IA » et a enseigné à l'entreprise l'importance de prendre ses responsabilités[30].

En , Diana Kelley, directrice technique de Microsoft Cybersecurity Field, explique comment des enseignements ont pu être tirés de l'expérience de Tay : « Apprendre de Tay était un élément très important pour élargir la base de connaissances de cette équipe, car maintenant, ils obtiennent également leur propre diversité grâce à l'apprentissage[31] ».

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. (en) « coordinated effort by some users to abuse Tay's commenting skills to have Tay respond in inappropriate ways »
  2. (en) « it was made up 👏 »
  3. (en) « bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got. »
  4. (en) « ricky gervais learned totalitarianism from adolf hitler, the inventor of atheism »
  5. (en) « Gamer Gate sux. All genders are equal and should be treated fairly. »
  6. (en) « kush! [I'm smoking kush infront the police] 🍂 »

Références[modifier | modifier le code]

  1. « Microsoft chatbot is taught to swear on Twitter »,
  2. a et b (en) Hope Reese, « Why Microsoft's 'Tay' AI bot went wrong », Tech Republic,‎ (lire en ligne)
  3. (en) Andrew Griffin, « Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to », The Independent,‎ (lire en ligne)
  4. (en) James Vincent, « Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day », The Verge,‎ (lire en ligne)
  5. (en) Justin Worland, « Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages », Time,‎ (lire en ligne)
  6. (en) https://www.telegraph.co.uk/technology/2016/03/25/we-must-teach-ai-machines-to-play-nice-and-police-themselves/
  7. « Microsoft’s Tay ‘AI’ Bot Returns, Disastrously » Accès limité, sur fortune.com, (consulté le ).
  8. a et b (en) « Clippy’s Back: The Future of Microsoft Is Chatbots », sur Bloomberg.com (consulté le )
  9. (en-US) « Meet Tay, the creepy-realistic robot who talks just like a teen », sur Washington Post (ISSN 0190-8286, consulté le )
  10. a et b (en-US) Ars Staff, « Tay, the neo-Nazi millennial chatbot, gets autopsied », sur Ars Technica, (consulté le )
  11. a b et c « Microsoft deletes racist, genocidal tweets from AI chatbot Tay - Business Insider », sur web.archive.org, (consulté le )
  12. (en) « Microsoft creates bizarre Twitter robot for people to chat to », sur The Independent, (consulté le )
  13. (en-GB) Helena Horton, « Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours », sur The Telegraph, (ISSN 0307-1235, consulté le )
  14. (en) « Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet », sur Stuff, (consulté le )
  15. « IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary », sur International Business Times, (consulté le )
  16. a b c et d (en-US) « Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac », sur Washington Post (ISSN 0190-8286, consulté le )
  17. « The rise and fall of Microsoft's 'Hitler-loving sex robot' », sur web.archive.org, (consulté le )
  18. (en) « Microsoft's Teen Chatbot Has Gone Wild », sur Gizmodo Australia, (consulté le )
  19. (en-GB) « Microsoft chatbot is taught to swear on Twitter », sur BBC News, (consulté le )
  20. (en) « Microsoft scrambles to limit PR damage over abusive AI bot Tay », sur the Guardian, (consulté le )
  21. (en) James Vincent, « Twitter taught Microsoft’s friendly AI chatbot to be a racist asshole in less than a day », sur The Verge, (consulté le )
  22. a et b « Microsoft Tay: Chatbot Paused After Racist Messages », sur web.archive.org, (consulté le )
  23. a et b (en-US) « Learning from Tay’s introduction », sur The Official Microsoft Blog, (consulté le )
  24. (en-GB) Madhumita Murgia, « Microsoft's racist bot shows we must teach AI to play nice and police themselves », sur The Telegraph, (ISSN 0307-1235, consulté le )
  25. (en) Staff and agencies, « Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot », sur the Guardian, (consulté le )
  26. (en) « Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets », sur PCMAG (consulté le )
  27. (en) Luke Graham, « Tay, Microsoft’s AI program, is back online », sur CNBC, (consulté le )
  28. (en) Alistair Charlton, « Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers », sur International Business Times UK, (consulté le )
  29. (en) « Microsoft's Tay 'AI' Bot Returns, Disastrously », sur Fortune (consulté le )
  30. a et b « “We really need to take accountability”, Microsoft CEO on the ‘Tay’ chatbot », sur web.archive.org, (consulté le )
  31. « Microsoft and the learnings from its failed Tay artificial intelligence bot », sur web.archive.org, (consulté le )

Voir aussi[modifier | modifier le code]

Article connexe[modifier | modifier le code]

Vidéographie[modifier | modifier le code]