Règlement européen contre la diffusion du terrorisme en ligne

Un article de Wikipédia, l'encyclopédie libre.
Lutte contre la diffusion des contenus à caractère terroriste en ligne

Présentation
Titre Règlement (UE) 2021/784 du Parlement européen et du Conseil du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne
Sigle TERREG, TCO
Référence Règlement (UE) no 2021/784
Organisation internationale Drapeau de l’Union européenne Union européenne
Territoire d'application Espace économique européen
Type Règlement de l'Union européenne
Branche Droit de l'Internet
Adoption et entrée en vigueur
Législature 9e législature
Gouvernement Commission von der Leyen
Adoption
Publication
Entrée en vigueur et applicable à partir du

Lire en ligne

Règlement 2021/784

Le règlement européen contre la diffusion du terrorisme en ligne (officiellement Règlement (UE) 2021/784 du Parlement européen et du Conseil du relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne) est un règlement du Parlement européen et du Conseil de l'Union européenne, adopté le , dont la mesure phare oblige les plateformes Internet à retirer dans l'heure tout contenu à caractère terroriste notifié par les autorités.

Historique[modifier | modifier le code]

Depuis un diner organisé en octobre 2014, il y a une coopération volontaire entre les États membres et certaines plateformes (Facebook, Google, Twitter) afin de lutter plus efficacement contre les contenus à caractère terroriste en ligne[1].

Le Conseil européen des 22 et 23 juin 2017 invite les plateformes à mettre « au point de nouvelles technologies et de nouveaux outils en vue d'améliorer la détection automatique et la suppression des contenus qui incitent à la commission d'actes terroristes. Cela devrait être complété par les mesures législatives appropriées au niveau de l'Union européenne, si nécessaire »[2].

Le 1er mars 2018, la Commission européenne adopte une série de « recommandations pour lutter efficacement contre le contenu illégal en ligne »[3] et déclare rester attentive aux mesures prises afin de déterminer ultérieurement si des mesures législatives sont finalement nécessaires[4]. Le commissaire européenne à la sécurité Julian King indique que dans presque tous les attentats perpétrés en Europe entre 2015 et 2018, les auteurs « avaient utilisé Internet pour diffuser leur message de haine, fournir des informations sur la manière de commettre des atrocités et se vanter de leurs résultats mortels ». Emmanuel Macron et Angela Merkel ont poussé pendant plus d'un an pour imposer une régulation faisant reposer la censure des contenus Internet sur les acteurs privés[5].

Six mois plus tard, la Commission européenne présente son projet de règlement le [6]. Le 10 décembre 2020, la neuvième législature du Parlement européen et le Conseil parviennent à un accord final sur le projet de règlement proposé par la Commission européenne[7],[8]. Le 11 janvier 2021, la Commission des libertés civiles, de la justice et des affaires intérieures (LIBE) du Parlement européen vote en faveur du projet de règlement par cinquante-quatre voix pour, treize voix contre et une abstention[9]. Aucun vote en séance plénière n'a eu lieu. En application de l'article 69 du règlement intérieur du Parlement européen, le Président annonce en séance plénière que l’acte proposé est adopté si aucune proposition de rejet de la position du Conseil ni aucun amendement à celle-ci n'ont été déposés.

Trente deux mois auront été nécessaires pour que ce texte controversé soit adopté le [10]. Étant un règlement européen, le règlement est obligatoirement et directement applicable à l’ensemble des pays membres de l'Union européenne. Il n'est pas nécessaire de transposer cette réglementation dans le droit national pour la rendre applicable[11]. Le règlement, entré en vigueur le , sera applicable à partir du [12].

Ce règlement intervient dans un domaine déjà très régulé : directive sur le commerce électronique, directive (UE) 2017/541 relative à la lutte contre le terrorisme, directive (UE) 2018/1808 « services de médias audiovisuels », code de conduite visant à combattre les discours de haine illégaux en ligne, code de bonnes pratiques contre la désinformation, ainsi que des mesures nationales prises au titre de la lutte contre les contenus haineux et les fausses informations (loi contre les contenus haineux sur internet et loi contre la manipulation de l'information en France, Netzwerkdurchsetzungsgesetz en Allemagne)[13].

Objectif[modifier | modifier le code]

L'exposé des motifs de la proposition de règlement de la Commission européenne indique en préambule : « Les attentats terroristes perpétrés récemment sur le territoire de l’Union ont montré comment les terroristes abusent de l’internet pour faire des émules et recruter des sympathisants, pour préparer et faciliter des activités terroristes, pour faire l’apologie de leurs atrocités et pour exhorter d’autres à leur emboîter le pas et à semer la peur parmi le grand public »[13]. Le projet de règlement vise à repérer et retirer plus efficacement les contenus à caractère terroriste diffusés sur les plateformes. Le recours au règlement est destiné à éviter un morcellement des lois nationales[11],[14].

Lors de la présentation du projet de règlement par la Commission européenne, Europol a déclaré évaluer à 150 le nombre de plateformes — services de partage de fichiers ou médias sociaux, situées hors de l'Union européenne pour la plupart — hébergeant des contenus à caractère terroriste[15],[16].

Principales dispositions[modifier | modifier le code]

Acteurs concernés[modifier | modifier le code]

Le règlement s'applique indifféremment à tous les fournisseurs de services d’hébergement qui proposent, dans l’Union européenne, des services consistant à stocker des informations fournies par et à la demande d’un fournisseur de contenus en vue d’une mise à disposition au public ou à des tiers[13]. Les réseaux sociaux, forums de discussion, wikis et plateformes de partage de documents, de photo et de vidéo sont soumises à ce règlement, qu'il s'agisse de plateformes géantes comme Google ou Facebook, ou de petits hébergeurs, coopératifs ou associatifs[5],[17]. Les messagerie privée ne relèvent pas du champ d’application du règlement.

Les plateformes visées sont celles ayant « un lien étroit » avec l'Union européenne. Cela peut prendre la forme d'un établissement dans l'Union, ou bien le fait d'avoir un nombre significatif d'utilisateurs, ou encore le fait de cibler les activités de la plateforme vers un ou plusieurs États membres[11].

Contenus concernés[modifier | modifier le code]

La définition des « contenus à caractère terroriste » renvoie à la définition de la directive européenne relative à la lutte contre le terrorisme de 2017[18],[19] et le règlement précise qu'il s'agit d'un contenu qui :

  • provoque à la commission d’infractions terroristes, ou fait l’apologie de telles infractions, y compris en les glorifiant, ce qui entraîne un risque que de tels actes soient commis,
  • encourage la participation à des infractions terroristes,
  • promeut les activités d’un groupe terroriste, notamment en encourageant la participation ou le soutien à un groupe terroriste,
  • fournit des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes[20].

L'exposé des motifs rappelle que les contenus à buts éducatifs, journalistiques, artistiques ou de recherche, ou à des fins de sensibilisation contre les activités terroristes doivent être protégés. Il en est de même pour « l’expression d’opinions radicales, polémiques ou controversées dans le cadre du débat public sur des questions politiques sensibles »[21].

Retrait dans l'heure[modifier | modifier le code]

Dans chaque État membre, une autorité compétente pourra émettre une injonction de retrait requérant de retirer dans l'heure, 24 heures sur 24, 7 jours sur 7, les contenus à caractère terroriste ou de bloquer l’accès à ces contenus dans tous les États membres[11],[22].

Le règlement prévoit également une possibilité de recours pour contester le retrait de contenu[18].

Mesures proactives[modifier | modifier le code]

Les plateformes exposées à des contenus à caractère terroriste doivent prendre des mesures proactives tenant compte des risques et du degré d’exposition aux contenus à caractère terroriste. Bien que le règlement n'impose formellement ni surveillance générale des contenus postés, ni recours à des outils automatisés[23], la Commission européenne reconnaitra que « compte tenu du volume considérable de contenus diffusés sur de nombreuses plateformes, des outils automatisés sont nécessaires pour détecter les contenus terroristes potentiels. Une intervention purement humaine ne serait pas assez rapide pour faire face aux tactiques agressives des terroristes »[24].

Autres mesures[modifier | modifier le code]

La plateforme doit désigner un représentant légal, obligatoirement établi dans l'Union[11].

Les plateformes qui ont pris des mesures de lutte contre la diffusion des contenus à caractère terroriste devront publier un rapport de transparence[24].

Sanctions[modifier | modifier le code]

Le règlement laisse le soin aux États membres de déterminer le régime des sanctions. Elles doivent néanmoins être « effectives, proportionnées et dissuasives »[14].

Sauf lorsqu'il s'agit d'un manquement systématique à des injonctions de suppression. Ce manquement sera sanctionné financièrement par une amende pouvant atteindre jusqu’à 4 % du chiffre d’affaires mondial[11],[13].

Critiques[modifier | modifier le code]

Le projet de règlement a été critiqué par de nombreuses associations professionnelles[N 1],[25], organisations de défense des droits humains, des associations de journalistes[N 2],[26], des chercheurs[27], ainsi que par trois rapporteurs spéciaux des Nations unies[N 3],[28],[29].

Liberté d'expression[modifier | modifier le code]

Dans une lettre signée par soixante-seize organisations, il est indiqué que cette proposition législative ferait peser de graves menaces sur « les droits et libertés fondamentaux, en particulier la liberté d'expression et d'opinion, la liberté d'accès à l'information, le droit à la vie privée et l'État de droit ». Pour Éva Simon de Civil Liberties Union for Europe « cela signifie qu’une personne comme Viktor Orbán pourrait demander la suppression du contenu téléchargé dans un autre pays parce qu'il critique son gouvernement »[27]. Pour remédier à ce risque, le règlement offre un droit de regard à l’autorité compétente de l’État membre dans lequel est située la plateforme, afin de vérifier sous soixante-douze heures que la décision de retrait est justifiée et qu’elle respecte les libertés et les droits fondamentaux[30]. Pour l'avocat Olivier Iteanu, « il est tout à fait possible que Facebook ou Google soient drastiques avec des mouvements de contestation comme celui des Gilets jaunes… »[5].

Outils automatisés de modération[modifier | modifier le code]

Le très court délai de retrait va inciter « les plates-formes à déployer des outils automatisés de modération de contenu, tels que les filtres de téléchargement » rendant compliqué la distinction des contre-discours, des satires et du travail journalistique[30]. Pour le député européen Patrick Beyer, les plateformes « vont appliquer des techniques de géolocalisation quand ils recevront l’ordre de bloquer un contenu. En effet, on ne leur demande pas de supprimer le contenu lui-même, mais de le bloquer pour les utilisateurs de l’UE. »[31]

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Organisations professionnelles : Bitkom, Business Software Alliance (BSA), Computer & Communications Industry Association (CCIA), DIGITALEUROPE, DOT Europe, Eco, EuroISPA, Sapie
  2. Société civile : Access Now, Amnesty International, Antigone, ARTICLE 19, Asociația pentru Tehnologie și Internet (ApTI), Association des journalistes européens, Bits of Freedom, Bulgarian Helsinki Committee, Centre for Democracy & Technology (CDT), Chaos Computer Club (CCC), Civil Liberties Union for Europe (Liberties), Comité de Vigilance en matière de Lutte contre le Terrorisme (Comité T), Comité pour la protection des journalistes (CPJ), Communia, Digitalcourage, Cres-Terminal, Cecil, Digitale Gesellschaft, Digital Rights Ireland, Državljan D, Electronic Frontier Finland (Effi), Electronic Frontier Foundation (EFF), Elektroniks Forpost Norge (EFN), Entropia e.V., epicenter.works, European Digital Rights (EDRi), Fédération européenne des journalistes, Fédération internationale pour les droits humains (FIDH), Fitug e.V., Föreningen för digitala frioch rättigheter (DFRI), Freemuse, Global Forum for Media Development (GFMD), Global Voices, Globenet, Helsinki Foundation for Human Rights, Hermes Center, Homo Digitalis, Human Rights Monitoring Institute, Human Rights Watch, International Commission of Jurists, Internationale Liga für Menschenrechte, Internet sans frontières, Internet society France, Internet Governance Project, School of Public Policy at the Georgia Institute of Technology, IT Political Association of Denmark (IT-Pol), Irish Council for Civil Liberties, La Quadrature du Net (LQDN), Latvian Human Rights Committee, Liga voor de Rechten van de Mens, Liga voor Mensenrechten, Ligue des droits de l’Homme, Mnemonic, Observatoire des libertés et du numérique, Open Technology Institute, Panoptykon Foundation, Ranking Digital Rights, Renaissance numérique, Reporters Without Borders (RSF), Rights International Spain, Statewatch, Vrijschrift, Syndicat de la magistrature, Syndicat des avocats de France, Wikimedia Deutschland, Wikimédia France, WITNESS, Xnet, 7amleh - The Arab Center for the Advancement of Social Media.
  3. Rapporteurs spéciaux des Nations unies : David Kaye (rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression), Joseph Cannataci (rapporteur spécial sur le droit à la vie privée) et Fionnuala Ní Aoláin (rapporteuse spéciale sur la promotion et la protection des droits de l'homme et des libertés fondamentales dans la lutte contre le terrorisme).

Références[modifier | modifier le code]

  1. (en-GB) « Facebook, Twitter and Google to attend EU anti-extremist meeting », BBC News,‎ (lire en ligne, consulté le )
  2. « Conclusions du Conseil européen sur la sécurité et la défense, 22/06/2017 », sur www.consilium.europa.eu (consulté le )
  3. (en) « Recommandation de la Commission relative à des mesures visant à lutter efficacement contre le contenu illicite en ligne », sur Commission européenne, (consulté le )
  4. Mehreen Khan et Aliya Ram, « Social media faces EU ‘1-hour rule’ on taking down terror content », Financial Times,‎ (lire en ligne, consulté le )
  5. a b et c Pascal Hérard, « Règlement antiterroriste européen : la censure d'Internet automatisée par les GAFA ? », TV5 Monde,‎ (lire en ligne, consulté le )
  6. (en) Daniel Boffey, « Remove terror content or be fined millions, EU tells social media firms », The Guardian,‎ (lire en ligne, consulté le )
  7. (en) « Terrorist content online: Council presidency and European Parliament reach provisional agreement », sur www.consilium.europa.eu (consulté le )
  8. (en) « Security Union: Commission welcomes political agreement on removing terrorist content online », sur Commission européenne, (consulté le )
  9. (en) « Civil Liberties endorses regulation addressing terrorist content online | News | European Parliament », sur www.europarl.europa.eu, (consulté le )
  10. #LeBrief, « Le Parlement européen a adopté, sans vote final, le règlement contre le terrorisme », Next INpact,‎ (lire en ligne, consulté le )
  11. a b c d e et f Marc Rees, « Ligne par ligne, la proposition de règlement européen contre le terrorisme », Next INpact,‎ (lire en ligne, consulté le )
  12. « Blocage de sites web : la CNIL publie le rapport d’activité 2020 de la personnalité qualifiée », sur www.cnil.fr (consulté le )
  13. a b c et d Philippe Mouron, « Le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste », Revue Européenne des Médias et du Numérique, vol. 50-51,‎ , p. 18-20 (ISSN 1967-2756, lire en ligne)
  14. a et b Céline Castets-Renard, Droit du marché unique numérique et intelligence artificielle, Éditions Bruylant, (ISBN 978-2-8027-6854-8), p. 179-192
  15. Ingrid Vergara, « Modération des contenus terroristes : l'Europe va mettre les plateformes à l'amende », Le Figaro,‎ (lire en ligne, consulté le )
  16. Europol, Internet Organised Crime Threat Assessment, (lire en ligne), p. 53
  17. (en-GB) « Social media faces EU fine if terror lingers for an hour », BBC News,‎ (lire en ligne, consulté le )
  18. a et b « L’Union européenne s’accorde sur un retrait en une heure des contenus « à caractère terroriste » sur Internet », Le Monde,‎ (lire en ligne, consulté le )
  19. directive (UE) 2017/541
  20. Julien Lausson, « L'Europe s'accorde pour supprimer les contenus terroristes sur Internet en une heure », Numerama,‎ (lire en ligne, consulté le )
  21. « Règlement (UE) 2021/784 du Parlement européen et du Conseil du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne », sur Journal officiel de l'Union européenne, (consulté le )
  22. Mathieu Pollet, « Règlement européen : les plateformes en ligne ont désormais une heure pour retirer le contenu terroriste », Euractiv,‎ (lire en ligne, consulté le ).
  23. Derek Perrotte, « L'Europe va imposer le retrait en une heure des contenus terroristes en ligne », Les Échos,‎ (lire en ligne, consulté le )
  24. a et b Mathieu Pollet, « Modération du contenu terroriste en ligne : la Commission se veut rassurante après le cri d'alerte des associations », Euractiv,‎ (lire en ligne, consulté le )
  25. « Lettre ouverte »,
  26. « Lettre commune appelant à voter contre le règlement de prévention de la diffusion de contenus à caractère terroriste en ligne », sur Ligue des droits de l’Homme, (consulté le )
  27. a et b « Modération en ligne : des ONG appellent le Parlement européen à rejeter le règlement contre les contenus terroristes », Le Monde,‎ (lire en ligne, consulté le )
  28. David Kaye, Joseph Cannataci et Fionnuala Ní Aoláin, « Mandates of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression; the Special Rapporteur on the right to privacy and the Special Rapporteur on the promotion and protection of human rights and fundamental freedoms while countering terrorism », sur Haut-Commissariat des Nations unies aux droits de l'homme,
  29. (en-US) Adam Satariano, « Europe Is Reining In Tech Giants. But Some Say It’s Going Too Far. », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  30. a et b « Ultime feu vert pour le règlement européen imposant aux plates-formes le retrait en une heure des publications « à caractère terroriste » », Le Monde,‎ (lire en ligne, consulté le )
  31. Rachel Knaebel, « Au nom de la lutte anti-terroriste, un projet de règlement européen pourrait tuer l'internet indépendant », Basta !,‎ (lire en ligne, consulté le )

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Céline Castets-Renard, « Responsabilité pour modération des contenus terroristes et pédopornographiques », dans Droit du marché unique numérique et intelligence artificielle, Éditions Bruylant, (ISBN 978-2-8027-6854-8), p. 179-192
  • Philippe Mouron, « Le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste », Revue Européenne des Médias et du Numérique, vol. 50-51,‎ , p. 18-20 (ISSN 1967-2756, lire en ligne)
  • Marc Rees, « Ligne par ligne, la proposition de règlement européen contre le terrorisme », Next INpact,‎ (lire en ligne)

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Sur les autres projets Wikimedia :