Deepfake

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

Deepfake, ou hypertrucaque[1] ou permutation intelligente de visages[2], est une technique de synthèse d'image basée sur l'intelligence artificielle. Elle est principalement utilisée pour combiner et superposer des images et des vidéos existantes sur d'autres images et/ou vidéos (par exemple : le changement de visage d'une personne sur une vidéo). Le terme est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux »)[3].

Les deepfakes sont surtout connus pour avoir été utilisés afin de créer de fausses vidéos érotiques (sextapes), mettant en scène des célébrités, et de la pornodivulgation (revenge porn)[4]. La pornographie deepfake est apparue sur Internet en 2017, notamment sur Reddit[5], et a depuis été interdite par Reddit, Twitter, Pornhub et d'autres[6],[7],[8]. Cette technique peut être utilisée pour créer des infox et des canulars malveillants[9],[10].

Il est facile de trouver sur des sites de diffusion en flux continu (streaming) comme YouTube ou Vimeo des deepfakes non pornographiques[réf. nécessaire]. Il est aussi possible de faire facilement des deepfakes en utilisant l'application FakeApp[11], qui utilise TensorFlow, un outil open source développé par Google[12].

Les techniques pour simuler des mouvements faciaux et les transposer sur une personne-cible ont été initialement présentés en 2016 et permettaient, en temps quasi réel, de contrefaire des expressions faciales dans des vidéos en 2D[13].

Pornographie[modifier | modifier le code]

Au cours de l'automne 2017, un utilisateur anonyme du site Reddit publie, sous le pseudonyme « Deepfakes », plusieurs vidéos pornographiques. La première à attirer l'attention et l'un de celles ayant suscité le plus de réactions, met en scène l'actrice Daisy Ridley. Un autre montre l'actrice Gal Gadot (vedette du fim Wonder Woman) ayant des relations sexuelles avec son beau-frère. D'autres célébrités — Emma Watson, Katy Perry, Taylor Swift ou Scarlett Johansson — ont également été la cible de vidéos créées par l’utilisateur « Deepfakes ». Ces mises en scène, obtenues au moyen de l'intelligence artificielle, devient être démystifiées peu de temps après.

Avec le temps, la communauté Reddit a corrigé les défauts des vidéos, les rendant de plus en plus réalistes. Le phénomène deepfake a d'abord été dénoncé en dans la section technique et scientifique du magazine Vice, conduisant à de nombreux reportages dans d'autres médias[14].

Au Royaume-Uni, les producteurs de deepfakes peuvent être poursuivis pour harcèlement, mais il y a des appels à faire du deepfake un délit à part entière[15].

Politique[modifier | modifier le code]

La permutation de visages a été utilisée pour donner une image fausse de politiciens connus sur des portails vidéos, des plateformes de streaming et de discussion en ligne. Par exemple, le visage du président argentin Mauricio Macri a été remplacé par celui d'Adolf Hitler, et le visage d'Angela Merkel par celui de Donald Trump[16],[17]. En , Jordan Peele et Jonah Peretti ont montré les dangers des deepfakes en créant une fausse vidéo de Barack Obama faisant une annonce publique[18].

Applications[modifier | modifier le code]

En , a été mise en ligne une application appelée FakeApp qui permet de créer facilement des vidéos où les visages ont été permutés et de les partager. L'application utilise des réseaux de neurones artificiels. Elle utilise la puissance de la carte graphique plus 3 ou 4 Go de stockage pour générer le rendu final. Pour un bon rendu, le programme a besoin de beaucoup de photos de la personne, en effet, le programme doit apprendre quels aspects de la vidéo cible doivent être modifiés et pour ce faire, il utilise des algorithmes d'apprentissage profond. Le logiciel utilise TensorFlow, un outil développé par Google, qui, entre autres, a été déjà utilisé pour créer DeepDream. Les célébrités sont les principales cibles de ces fausses vidéos sexuelles, mais certaines autres personnes sont aussi touchées[19],[20],[21]. En août 2018, des chercheurs de l'université de Californie à Berkeley ont publié une étude qui présente la création de fausses vidéos de danseurs. Un individu peut être collé sur les mouvements d'un danseur professionnel[22],[23].

Critiques[modifier | modifier le code]

Abus[modifier | modifier le code]

Le quotidien suisse germanophone Aargauer Zeitung affirme que la retouche d'images et de vidéos à l'aide de l'intelligence artificielle pourrait devenir un phénomène de masse dangereux. Cependant, la falsification d'images et de vidéos est antérieure à l'avènement des logiciels de montage vidéo et des programmes de retouche d'images ; dans ce cas, c'est le réalisme qui devient un nouveau problème.

Il est également possible d'utiliser le deepfake pour des canulars ciblés et du revenge porn[24],[25].

Effets sur la crédibilité et l'authenticité[modifier | modifier le code]

2017-fr.wp-orange-source.svg
Cette section ne cite pas suffisamment ses sources (février 2019)
Pour l'améliorer, ajoutez des références vérifiables [comment faire ?] ou le modèle {{Référence nécessaire}} sur les passages nécessitant une source.

Un autre effet du deepfake est qu'on ne peut plus distinguer si le contenu est satirique ou authentique. Le chercheur en intelligence artificielle, Alex Champandard, dit que tout le monde devrait être conscient de la rapidité à laquelle les choses peuvent être altérées aujourd'hui à l'aide de cette technique et que le problème ne doit pas venir de la technique mais plutôt être résolu par la confiance des personnes dans l'information et le journalisme. Le principal danger est de voir arriver le moment où les humains ne pourront plus déterminer si ce qui se trouve sur une vidéo correspond à la vérité ou non[26].

Réactions sur Internet[modifier | modifier le code]

Les sites Twitter et Gfycat (en) ont annoncé qu'ils allaient supprimer le contenu deepfake et bloquer ses éditeurs. Auparavant, la plate-forme Discord a bloqué un canal de discussion comportant des sextapes deepfakes. Le site pornographique Pornhub prévoyait, lui aussi, de bloquer ces contenus, mais, à ce qu'on rapporte, cette interdiction n'est toujours pas entrée en vigueur[27],[28]. Chez Reddit, la situation était restée incertaine jusqu'à ce que le subreddit — la sous-partie thématique en question — soit suspendu le , en raison de la violation de la politique de « pornographie involontaire »[29],[30],[31],[32].

Références[modifier | modifier le code]

  1. « hypertrucage », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le 18 mars 2019).
  2. « permutation intelligente de visages », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le 8 février 2019).
  3. (en) John Brandon, « Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise », sur foxnews.com, .
  4. (en-US) « What Are deepfakes & Why the Future of Porn is Terrifying », Highsnobiety,‎ (lire en ligne)
  5. (en-US) Janko Roettgers, « Porn Producers Offer to Help Hollywood Take Down deepfake Videos », Variety,‎ (lire en ligne)
  6. (en) « It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet », The Register,‎ (lire en ligne)
  7. Arjun Kharpal, « Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor », CNBC,‎ (lire en ligne)
  8. (en) « PornHub, Twitter Ban 'deepfake' AI-Modified Porn », PCMAG,‎ (lire en ligne)
  9. (en) « Experts fear face swapping tech could start an international showdown », sur The Outline (consulté le 28 février 2018)
  10. (en-US) Kevin Roose, « Here Come the Fake Videos, Too », The New York Times,‎ (ISSN 0362-4331, lire en ligne)
  11. (en) « FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! », Reason.com,‎ (lire en ligne)
  12. « I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it », The Verge,‎ (lire en ligne).
  13. Justus Thies, « Face2Face: Real-time Face Capture and Reenactment of RGB Videos », Proc. Computer Vision and Pattern Recognition (CVPR), IEEE, (consulté le 24 février 2018)
  14. « AI-Assisted Fake Porn Is Here and We’re All Fucked », Motherboard,‎ (lire en ligne)
  15. Call for upskirting bill to include 'deepfake' pornography ban The Guardian
  16. « Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos », az Aargauer Zeitung,
  17. Patrick Gensing, « deepfakes: Auf dem Weg in eine alternative Realität? »
  18. Aja Romano, « Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news », sur Vox, (consulté le 10 septembre 2018)
  19. Britta Bauchmüller, « "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! », Berliner-Kurier.de,‎ (lire en ligne)
  20. Eike Kühl, « Künstliche Intelligenz: Auf Fake News folgt Fake Porn », Die Zeit,‎ (ISSN 0044-2070, lire en ligne)
  21. heise online, « deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien », Heise Online,‎ (lire en ligne)
  22. (en) Peter Farquhar, « An AI program will soon be here to help your deepfake dancing - just don't call it deepfake », Business Insider Australia,‎ (lire en ligne)
  23. « deepfakes for dancing: you can now use AI to fake those dance moves you always wanted », The Verge,‎ (lire en ligne)
  24. « Künstliche Intelligenz: Selfies sind eine gute Quelle », Die Zeit,‎ (ISSN 0044-2070, lire en ligne)
  25. « „deepfake“ - FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte? », WILDE BEUGER SOLMECKE Rechtsanwälte,‎ (lire en ligne)
  26. (de) « Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos », az Aargauer Zeitung, .
  27. (en-US) « Pornhub hasn't been actively enforcing its deepfake ban », Engadget,‎ (lire en ligne).
  28. (en) « Pornhub Banned deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them », BuzzFeed,‎ (lire en ligne).
  29. Markus Böhm, « "deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor », Spiegel Online,‎ (lire en ligne)
  30. barbara.wimmer, « deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos », futurzone,‎ (lire en ligne)
  31. heise online, « deepfakes: Auch Reddit verbannt Fake-Porn »
  32. « Reddit verbannt deepfake-Pornos »