Tay (intelligence artificielle)

Un article de Wikipédia, l'encyclopédie libre.
Tay

Informations
Développé par Microsoft ResearchVoir et modifier les données sur Wikidata
Première version [1]Voir et modifier les données sur Wikidata
Type DialogueurVoir et modifier les données sur Wikidata
Site web www.tay.ai et tay.aiVoir et modifier les données sur Wikidata

Chronologie des versions

Tay est une intelligence artificielle et agent conversationnel lâché le par Microsoft sur la plateforme Twitter[2]. Le bot a été créé par des équipes du Microsoft Technology and Research et de Bing[3].

Après une journée et plus de 96 000 tweets envoyés[4], Microsoft suspend temporairement le compte Twitter de Tay pour des « ajustements », à la suite d'un « effort coordonné de plusieurs utilisateurs pour abuser des compétences à commenter de Tay dans le but que Tay réponde de manière inappropriée »[a 1],[5]. Il avait en particulier tenu des propos racistes et misogynes, et l'expérience a été qualifiée de désastreuse pour l'image de Microsoft[6]. Une deuxième tentative le s'est à nouveau soldée par une déconnexion[7].

En , son successeur Zo est lancé par Microsoft.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Traduction de « coordinated effort by some users to abuse Tay's commenting skills to have Tay respond in inappropriate ways ».

Références[modifier | modifier le code]

  1. « Microsoft chatbot is taught to swear on Twitter »,
  2. (en) Andrew Griffin, « Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to », The Independent,‎ (lire en ligne)
  3. (en) Hope Reese, « Why Microsoft's 'Tay' AI bot went wrong », Tech Republic,‎ (lire en ligne)
  4. (en) James Vincent, « Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day », The Verge,‎ (lire en ligne)
  5. (en) Justin Worland, « Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages », Time,‎ (lire en ligne)
  6. (en) https://www.telegraph.co.uk/technology/2016/03/25/we-must-teach-ai-machines-to-play-nice-and-police-themselves/
  7. « Microsoft’s Tay ‘AI’ Bot Returns, Disastrously » Accès limité, sur fortune.com, (consulté le ).

Article connexe[modifier | modifier le code]