Usine à trolls

Un article de Wikipédia, l'encyclopédie libre.

Une usine à trolls[1],[2],[3],[4] (en anglais « troll factory »), ou une ferme à trolls[5] (de l'anglais « troll farm »), est un groupe organisé de trolls sur internet, voire de hackers, payés pour diffuser de manière massive des informations partielles, partiales ou totalement informations mensongères sur les réseaux sociaux. Leur but est la déstabilisation géopolitique ou politique, le lobbying ou la propagande politique[1],[6]. Ces groupes peuvent soit se former spontanément, soit être constitués et coordonnés par un gouvernement, parti politique ou tout autre groupe de pression. Les méthodes utilisées incluent la rémunération de commentateurs sur les réseaux sociaux, le trolling agressif de journalistes, ou la création de bots informatiques et de médias diffusant des informations mensongères[7].

L'organisation de diffusion de propagande russe Internet Research Agency, ayant participé à des activités d'ingérence électorale dans l'élection présidentielle américaine de 2016[8],[9], est souvent qualifiée d'usine à troll.

Terminologie[modifier | modifier le code]

En anglais, l'usage de l'expression « troll farm » (ferme de troll) ou « troll army » (armée de trolls) s'est répandue à partir de l'enquête The Agency, publiée en 2015 par le New York Times, sur une usine à troll à Saint-Petersbourg chargée de publier des messages pro-Vladimir Poutine, anti-Ukraine et anti-américain[10],[11]. Le terme gagne en popularité avec les enquêtes sur les ingérences russes dans l'élection présidentielle américaine de 2016, et en particulier l'enquête du magazine américain New Yorker, qui utilise à la fois le terme « troll farm » et de « Russian hacks » (militants ou hackers russes)[12]. L'ONG américaine Freedom House parle de « keyboard armies » (armée de claviers). Le site d'information américain Bloomberg parle de « state-sponsored trolling » (trolling d'État)[13].

En français, l'expression « usine à troll » apparait dès 2015 sur FranceInfo, à la suite à de l'enquête du New York Times[10]. Certains journalistes préfèrent néanmoins utiliser les termes de « propagandiste », pour appuyer la différence avec le simple pourrissage non-rémunéré de forums sur internet par des trolls classiques, voire « d'armées de troll »[1].

D'autres traductions ou néologismes apparaissent dans d'autres langues, tels que les « web-brigades » (en russe : Веб-бригады), mot-valise créé par la journaliste russe Anna Polianskaïa, calquée sur les Red brigades (Brigades rouges, en russe : Красные бригады).

Trolls non humains[modifier | modifier le code]

Depuis le milieu des années 2010 au moins, certains trolls ne sont plus des humains, mais des bots, parfois dénommés « Bad Bots ».

Générés et gérés par une plate-forme dite d'intelligence artificielle, ils sont capables de délivrer des messages ciblés, construit en fonction de la personnalité de l'internaute visé,[14].

Les algorithmes qui les construisent se basent sur la science de l'influence psychologique. Mis au service de la publicité et de la propagande politique[15], ils ont déjà pu contribuer à fausser des processus électoraux ou de référendums[16],[17],[14].

Ce type de trollisme virtuel, qui peut être associé aux fermes de trolls classiques, a été révélé par le scandale Facebook-Cambridge Analytica / AggregateIQ et la découverte de la plateforme logicielle Ripon (crée par AggregateIQ pour le Groupe SCL, afin de truquer les processus électoraux ou référendaires, en influençant artificiellement les émotions et le choix de vote des votants (sans leur consentement, et sans qu'ils aient conscience d'être manipulés)[16],[14].
Silvia Lombardo craint que ces bots générateurs de « deepfakes » (« hypertrucages »), construit pour manipuler les esprits et la vérité (en construisants des faits alternatifs, souvent alors parfois appuyés par des hypertrucages) peuvent conduire, ou conduit déjà depuis le milieu des années 2010 au développement de politiques populistes, et à un avenir plus dystopique[18].

Dans le monde[modifier | modifier le code]

Plusieurs pays dans le monde ont hébergé ou ont été la cible d'actions menées par des usines à troll. Selon l'ONG américaine Freedom House, au moins 30 gouvernements dans le monde avaient en 2017 créé ou eu recours à des usines à troll dans le but de discréditer le modèle démocratique[7], dont 18 pour influencer directement des élections[15].

Dans la culture populaire[modifier | modifier le code]

Télévision[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. a b et c « Propagande : la redoutable usine à trolls du Kremlin », sur L'Obs (consulté le 2 octobre 2020)
  2. 01net, « Facebook démantèle trois opérations d’intox d’origine russe », sur 01net (consulté le 27 septembre 2020)
  3. « Etats-Unis : quand la Chine et l'Iran s'invitent dans la campagne », sur France Culture (consulté le 27 septembre 2020)
  4. « «Bienvenue dans le monde des dark PR», Jérôme Lascombe (Wiztopic) », sur Stratégies, (consulté le 27 septembre 2020)
  5. « Visite guidée d'une « ferme à trolls » russe », sur Les Echos, (consulté le 27 septembre 2020)
  6. « Russian troll factory paid US activists to help fund protests during election - World news - The Guardian » [archive du ], (consulté le 12 janvier 2018)
  7. a et b (en) « New Report - Freedom on the Net 2017: Manipulating Social Media to Undermine Democracy », sur Freedom House (consulté le 27 septembre 2020)
  8. a et b « Visite guidée d'une « ferme à trolls » russe », sur Les Echos, (consulté le 27 septembre 2020)
  9. a et b « Présidentielle américaine : le retour des trolls russes », sur France 24, (consulté le 27 septembre 2020)
  10. a et b « L'usine à trolls du Kremlin condamnée par la justice russe », sur Franceinfo, (consulté le 2 octobre 2020)
  11. (en-US) Adrian Chen, « The Agency », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le 2 octobre 2020)
  12. (en-US) Adrian Chen, « The Real Paranoia-Inducing Purpose of Russian Hacks », sur The New Yorker (consulté le 2 octobre 2020)
  13. a et b « [titre manquant] », sur www.bloomberg.com (consulté le 2 octobre 2020)
  14. a b c et d (en) « The Aggregate IQ Files, Part One: How a Political Engineering Firm Exposed Their Code Base », sur www.upguard.com (consulté le 21 mars 2021)
  15. a et b (en-GB) James Titcomb, « Governments in 30 countries are paying 'keyboard armies' to spread propaganda, report says », The Telegraph,‎ (ISSN 0307-1235, lire en ligne, consulté le 27 septembre 2020)
  16. a b et c (en) Carole Cadwalladr, « The Cambridge Analytica files. ‘I made Steve Bannon's psychological warfare tool': meet the data war whistleblower », The Guardian,‎ (lire en ligne)
  17. a et b « "Sans Cambridge Analytica, il n'y aurait pas eu de Brexit", affirme le lanceur d'alerte Christopher Wylie », sur francetvinfo.fr, (consulté le 28 mars 2018).
  18. (en) Silvia Lombardo, « The Bad, the Good, and the Rebellious Bots: World's First in Artificial Intelligence », sur Analyzing Future Applications of AI, Sensors, and Robotics in Society, (consulté le 21 mars 2021)
  19. Katie DeRosa, « Victoria firm AggregateIQ denies link to data-miner at heart of Facebook controversy », sur Times Colonist (consulté le 26 janvier 2021)
  20. (en) « Invasion of the troll armies: ‘Social media where the war goes on’ », sur the Guardian, (consulté le 2 octobre 2020)
  21. (en) « How Facebook powers money machines for obscure political 'news' sites », sur the Guardian, (consulté le 2 octobre 2020)
  22. (en-US) Patrick Kingsley, « Highly Secretive Iranian Rebels Are Holed Up in Albania. They Gave Us a Tour. », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le 2 octobre 2020)
  23. (en) « Troll farms from North Macedonia and the Philippines pushed coronavirus disinformation on Facebook », sur NBC News (consulté le 2 octobre 2020)
  24. « « Le Bureau des légendes », saison 5 : le récap’ », Le Monde.fr,‎ (lire en ligne, consulté le 27 septembre 2020)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]