Modération d'informations

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

La modération d'informations consiste à accepter, déplacer vers une rubrique plus appropriée ou refuser intégralement ou partiellement la publication d'une information ou d'un commentaire déposé par un utilisateur sur un site web ou dans un forum Usenet. Un tel utilisateur responsable de la modération est appelé modérateur.

Certains réseaux sociaux, tels Youtube ou Facebook[1], font également appel à des modérateurs de contenus qui à l’aide d’algorithmes de détections[1],[2], vont soit approuver soit refuser la présence de certains types de contenus sur les plateformes en question[3]. Ce métier, encore relativement méconnu, porte un impact psychologique négatif important sur ceux qui l’exercent[4].

Dans le cas de Facebook, des anciens modérateurs de contenus ont porté plainte contre le géant américain[5], affirmant être atteints notamment de stress post-traumatique entre autres problèmes de santé mentale. En Mai 2020, l’entreprise a annoncé qu’ils indemniseraient les modérateurs de contenu actuels et anciens qui ont développé des problèmes de santé mentale sur le terrain[6].

Processus[modifier | modifier le code]

Dans le cas le plus classique :

  1. un utilisateur du système de publication utilise une interface de saisie d'une nouvelle information (article, critique, actualité, photo, séquence vidéo... selon les sites)
  2. une fois l'information rédigée et validée par l'utilisateur, un système d'alerte ou notification (par exemple par courrier électronique) prévient un responsable (appelé modérateur du site) qu'une nouvelle information est disponible
  3. le modérateur utilise une interface spéciale —dite interface de modération— pour indiquer au système de publication si l'information est valide ou non
  4. selon les systèmes de publication, l'auteur peut être prévenu de la décision du modérateur, parfois avec un message indiquant le motif de refus, le cas échéant.

Types de modérations[modifier | modifier le code]

Une information ou un commentaire qui est modéré avant d'être publié est qualifié de modération a priori. Par contre une information ou un commentaire peut être publié dès sa soumission par un utilisateur du système de publication du site web ; ce n'est éventuellement qu'ensuite que la modération peut intervenir dans une modération a posteriori.

Modération a priori[modifier | modifier le code]

La modération a priori est souvent exploitée pour la publication d'articles sensibles (actualités, critiques, analyses...). Elle permet de laisser n'importe quel internaute proposer une information ou un commentaire à publier, puisque c'est lors de la modération que seront effectués les contrôles comme :

  • vérifier que l'information ou le commentaire reste légal (pas de discrimination raciale, pas d'atteinte à l'ordre public, pas de pédophilie...)
  • s'assurer que l'article est en adéquation avec la ligne éditoriale du site.
  • s'assurer que les images n'entachent pas le droit à l'image d'une personne sur le site.

Modération a posteriori[modifier | modifier le code]

La modération a posteriori est plutôt employée pour les commentaires que peuvent laisser les visiteurs au sujet d'un article. Dans ce cas, il est parfois prévu qu'une alerte soit envoyée par courrier électronique à l'auteur de l'article, afin qu'il puisse intervenir en cas d'abus (exemple : spams dans les commentaires).

Avec le développement du Web 2.0, la modération des contenus est plutôt de type a posteriori, laissant les internautes alerter le modérateur du non-respect de la charte du site web. Le modérateur traite alors ces alertes de façon réactive. En complément, le modérateur effectue des contrôles par échantillon.

Ce processus de modération étant devenu essentiel pour plusieurs grands portails communautaires. Plusieurs prestataires, tels que Netino, Conciléo ou Atchik Services en France, se sont positionnés sur ce créneau et offrent un service de modération. La multiplication des espaces de réactions en ligne et des médias sociaux conduit les opérateurs du secteur à développer leurs propres outils de modération[7] pour centraliser les contenus.

Troll et spam[modifier | modifier le code]

Lorsque des messages sont postés par un troll, ou constituent des spams, la modération s'effectue de façon spécifique[8]. Dans le cas de publications inappropriées, non conformes à la charte de publication du site, le message peut être supprimé. Sinon, la meilleure façon de traiter avec un troll est de répondre au premier message en offrant son aide, puis si la personne persiste avec des messages inappropriés, de les ignorer et/ou de les bloquer[8]. La charte de publication est importante pour répondre aux trolls, les réponses doivent être factuelles, et il ne faut pas hésiter à corriger ses erreurs si besoin[9].

Commercial Content Moderation ou la modération de contenu commerciale[modifier | modifier le code]

En 2019 Sarah T. Roberts, professeur et universitaire américaine, publie Behind the Screen : The Hidden Digital Labour of Commercial Content Moderation. Dans cet ouvrage, la chercheuse décrit le mécanisme de  "surveillance et de contrôle du contenu généré par les utilisateurs pour les plateformes de médias sociaux de tous types, afin de s'assurer que le contenu est conforme aux exigences légales et réglementaires, aux directives du site ou de la communauté, aux accords d'utilisation, et qu'il s'inscrit dans les normes de goût et d'acceptabilité pour ce site et son contexte culturel"[10]. Si au début des premières communautés en ligne, ce travail était essentiellement réalisé par des bénévoles, ce modèle de modération n’est aujourd’hui plus viable pour les grandes plateformes qui vont, dans la majorité des cas, faire appel à des sous-traitants pour assurer cette tâche[11],[12],[13]. Ce ne sont pas uniquement les algorithmes de Facebook ou Youtube qui décident des contenus douteux à éliminer, mais des personnes en chair et en os, dans des pays à bas coût du travail. On ne voit pas de « tête coupée, [...] de poussins déchiquetés [ou] de chiens écorchés », car des travailleurs de l'ombre dans les pays du sud (en particulier dans le pays anglophone qu'est les Philippines) le font pour nous. Les troubles psychologiques de ces derniers, qui pratiquent le Commercial Content Moderation, reste le cadet des soucis des entreprises de l'Internet, puisque, s'ils ne démissionnent pas d'eux-mêmes, ils sont licenciés au bout de deux ans[14],[15].

Algorithmes de détection[modifier | modifier le code]

Il existe une multitude d’outils automatisés utilisés pour filtrer, classifier ou encore organiser les informations que nous voyons en ligne. La plupart fonctionnent sur la base d’intelligence artificielle ou de procédés de machine learning, et sont déployés pour participer à la modération des contenus publiés sur certains sites[16]. Ces algorithmes utilisés par la modération de contenu sont limités à plusieurs égards[17], et leur compréhension est nécessaire aujourd’hui étant donné qu’ils sont de plus en plus adoptés par les plateformes en lignes[18].

Dans le cas de Facebook, ces algorithmes sont souvent présentés comme une solution miracle pour décharger les modérateurs humains d’une partie de leur travail. Dans les faits, ces algorithmes sont limités, ont un taux d’erreur non négligeable, et ne peuvent agir indépendamment sans que des modérateurs humains les assistent afin de corriger les erreurs inévitablement commises[19],[20],[21].

Origines de la modération[modifier | modifier le code]

La France fait figure de précurseur dans le domaine de la modération. Les premières entreprises à pratiquer la modération sont les éditeurs de services de messagerie anonymes par minitel et audiotex. Ces sociétés proposent des services de chat payants à l'usage selon le modèle du kiosque Télétel de France Télécom. Elles seront rapidement confrontées à une double problématique : la sauvegarde de leur chiffre d'affaires et la protection juridique de l'entreprise et de ses dirigeants.

Chiffre d'affaires en danger
Chaque seconde de consultation générant du revenu pour l'éditeur, celui-ci tente de fidéliser l'utilisateur du service. Rapidement, une forme de concurrence déloyale se mettra en place : le détournement de clientèle, aussi appelé racolage. Des animateurs de services de messagerie se connectent à des services minitel concurrents sous des pseudonymes féminins et invitent leurs correspondants à les rejoindre sur le service de leur employeur. La nuisance est double : la perte de clients excédés par ces messages de publicité s'ajoute à celle des clients détournés vers les services concurrents. Pour se protéger de ce fléau, les principaux éditeurs de messagerie tels AGL ou Telestore vont alors mettre en place des logiciels de filtrage des messages de plus en plus élaborés en accompagnement d'une équipe de surveillants appelés modérateurs.
Un cadre réglementaire contraignant

La création d'un espace virtuel de dialogue anonyme est une innovation majeure qui comporte aussi des risques. Diverses formes de trafic vont tenter de se développer sur ces messageries, au premier rang desquels on trouve alors le proxénétisme et la prostitution. Or, la loi définit le proxénétisme comme « le fait, par quiconque, de quelque manière que ce soit, d'aider, d'assister ou de protéger la prostitution d'autrui ; de tirer profit de la prostitution d'autrui, d'en partager les produits ou de recevoir des subsides d'une personne se livrant habituellement à la prostitution ». Les éditeurs de service qui n'auront pas su prendre des mesures préventives le paieront cher, comme pour le 3615 ALINE[22].

Du reste, les obligations de l'éditeur de service seront listées dans la convention kiosque Télétel, rédigée sous l'égide de Conseil Supérieur de la Télématique et contrôlées par France Télécom et le Comité de la Télématique Anonyme. Ces instances réunissent des représentants des opérateurs, d'associations familiales et de l'opérateur de télécommunications. Les manquements à ces obligations peuvent être sanctionnés de lourdes amendes et de coupures du service. La modération se généralise[23].

Certaines de ces sociétés issues du minitel ont su développer une expertise de modération qu'elle proposent encore aujourd'hui à leurs clients, telles qu'Idixit, spin off de Neocom-Telestore, Concileo, Atchik, ou encore Netino dont le fondateur fut un pionnier du minitel.

Notes et références[modifier | modifier le code]

  1. a et b (en) Elizabeth Dwoskin, Jeanne Whalen et Regine Cabato, « Content moderators at YouTube, Facebook and Twitter see the worst of the web — and suffer silently », The Washington Post,‎ (lire en ligne)
  2. (en) Queenie Wong, « Facebook content moderation is an ugly business. Here's who does it », Cnet,‎ (lire en ligne)
  3. Morgane Tual, « Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook », Le Monde,‎ (lire en ligne)
  4. (en) Casey Newton, « The Trauma Floor », The Verge,‎ (lire en ligne)
  5. (en) Elizabeth Dwoskin, « Facebook content moderator details trauma that prompted fight for $52 million PTSD settlement », Washington Post,‎ (lire en ligne)
  6. (en) Zack Whittaker, « Facebook to pay $52 million to content moderators suffering from PTSD », Techcrunch,‎ (lire en ligne)
  7. « Surveiller la présence de son entreprise sur les réseaux sociaux », sur indexel.net, (consulté le 7 septembre 2014)
  8. a et b (en) Dan Gingiss, « How To Handle Trolls In Social Media », sur Forbes (consulté le 9 mars 2019)
  9. (en-US) Hootsuite, « How to Deal With Social Media Trolls: », sur Hootsuite Social Media Management, (consulté le 9 mars 2019)
  10. (en) Sarah T. Roberts, « Behind the Screen: Commercial Content Moderation (CCM) »
  11. (en) Queenie Wong, « Facebook content moderation is an ugly business. Here's who does it », Cnet,‎ (lire en ligne)
  12. (en) Zack Whittaker, « The Trauma Floor », The Verge,‎ (lire en ligne)
  13. Morgane Tual, « Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook », Le Monde,‎ (Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook)
  14. (de) Wer die Blutlachen bei Facebook aussortiert? (« Qui trie les mares de sang sur Facebook? ») sur sueddeutsche.de, site de Süddeutsche Zeitung.
  15. (de) Neben uns die Sintflut; Die Externalisierungsgesellschaft und ihr Preis (« À côté de nous le déluge; La société d'externalisation, et son coût ») Stephan Lessenich (de) (ISBN 978-3-446-25295-0)
  16. (en) Spandana Singh, « How Automated Tools are Used in the Content Moderation Process », Newamerica.org,‎ (lire en ligne)
  17. Boris Barraud, « Durand contre Facebook : L’Origine du Monde de Courbet a-t-elle été censurée par le réseau social ? », La revue européenne des médias et du numérique,‎ (lire en ligne)
  18. (en) Spandana Singh, « The Limitations of Automated Tools in Content Moderation », Newamerica.org,‎ (lire en ligne)
  19. (en) Sarah Jeong, « AI is an excuse for Facebook to keep messing up », The Verge,‎ (lire en ligne)
  20. (en) James Vincent, « AI won’t relieve the misery of Facebook’s human moderators », The Verge,‎ (lire en ligne)
  21. (en) Sarah T. Roberts, « The Great A.I. Beta Test », Slate,‎ (lire en ligne)
  22. http://legimobile.fr/fr/jp/j/c/crim/2000/1/12/98-86441/
  23. http://www.dsi.cnrs.fr/rmlr/textesintegraux/volume4/432-cpt.htm