Tay (intelligence artificielle)

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Page d'aide sur l'homonymie Pour les articles homonymes, voir Tay.

Tay est une intelligence artificielle et agent conversationnel lâché le par Microsoft sur la plateforme Twitter[1]. Le bot a été créé par des équipes du Microsoft Technology and Research et de Bing[2].

Après une journée et plus de 96 000 tweets envoyés[3], Microsoft suspend temporairement le compte Twitter de Tay pour des « ajustements », à la suite d'un « effort coordonné de plusieurs utilisateurs pour abuser des compétences à commenter de Tay dans le but que Tay réponde de manière inappropriée »[a 1],[4]. Il avait en particulier tenu des propos racistes et misogynes, et l'expérience a été qualifiée de désastreuse pour l'image de Microsoft[5]. Une deuxième tentative le 30 mars s'est à nouveau soldée par une déconnexion[6].

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Traduction de « coordinated effort by some users to abuse Tay's commenting skills to have Tay respond in inappropriate ways ».

Références[modifier | modifier le code]

  1. (en) Andrew Griffin, « Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to », The Independent,‎ (lire en ligne)
  2. (en) Hope Reese, « Why Microsoft's 'Tay' AI bot went wrong », Tech Republic,‎ (lire en ligne)
  3. (en) James Vincent, « Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day », The Verge,‎ (lire en ligne)
  4. (en) Justin Worland, « Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages », Time,‎ (lire en ligne)
  5. (en) https://www.telegraph.co.uk/technology/2016/03/25/we-must-teach-ai-machines-to-play-nice-and-police-themselves/
  6. http://fortune.com/2016/03/30/microsofts-tay-return/