« Tout Sexplique » : Comment se protéger des deepfakes pornos ?
podcast•De plus en plus présents sur la toile, les deepfakes pornos ne sont pourtant pas expressément punis par la loi. Mais cela pourrait bientôt changer. La juriste Julie Groffe-Charrier nous explique comment agir si l'on en est victimeJeanne Cerin
Alors que les internautes connaissent une Léna Mahfouf « + = + » dans ses fameux vlogs d’août, c’est une vlogueuse contrariée qu’ils ont découvert dans sa vidéo diffusée le 6 août 2023 sur YouTube. Ce matin-là, elle s’aperçoit qu’une vidéo d’elle complètement nue traîne sur les réseaux sociaux.
Problème, si c’est bien le visage de Léna Situations sur l’image, ce corps dénudé ne lui appartient pas. Et évidemment, l’influenceuse n’a jamais diffusé de clip pornographique la mettant en scène. Elle est victime de ce qui s’appelle un deepfake pornographique.
Le deepfake porno, c’est quoi ?
De quoi parle-t-on ? Vous en avez peut-être déjà vu sur les réseaux sociaux, ou vous ne vous êtes peut-être pas rendu compte que la vidéo que vous regardiez était en réalité truquée. Car c’est bien ça le principe des deepfakes : un montage vidéo qui met en scène une personne et, grâce à l’intelligence artificielle, il est possible de lui faire faire, ou de lui faire dire, ce qu’on veut. S’il y a quelques années, les technologies ne réussissaient pas à être assez performantes pour duper un public vigilant, aujourd’hui la réalité a bien changé. Il est très difficile de distinguer un deep fake d’une vraie vidéo.
Mais alors, pourquoi créer un deepfake ? Pour manipuler le public, c’est une évidence, mais dans quels buts ? Les motivations peuvent être nombreuses. Politiques parfois, mais dans la majorité des cas, les fins sont d’ordre pornographiques.
Les victimes sont à 99 % des femmes
Et dans ce cas, les femmes sont les premières victimes. Selon une étude menée par l’association Deeptrace, plus de neuf vidéos deepfakes sur dix sont des vidéos pornographiques. Les personnes visées « sont dans 99 % des cas des femmes ».
Comment se protéger des deepfakes, comment réagir si l'on est victime et, plus globalement, comment lutter contre cette arme de désinformation et de destruction de l’intégrité physique des personnes victimes ? On en parle dans ce podcast, avec la juriste Julie Groffe-Charrier. Si aujourd’hui le législateur peut s’appuyer sur certaines lois déjà existantes, aucun texte en vigueur ne fait expressément mention des deepfakes pornographiques. Dans un tweet, Jean-Noël Barrot, le ministre délégué en charge du Numérique, se dit favorable et engagé pour lutter contre cet « angle mort de notre droit »
Sur la table, deux amendements ont récemment été votés au Sénat afin d’intégrer le mot dans la législation et permettraient, s’ils sont votés à l’Assemblée nationale, de punir plus lourdement les auteurs de ces délits. Reste à savoir si cela sera suffisant. Pour Julie Groffe-Charrier, si l’intention est louable d’un point de vue politique, elle questionne la nécessité d’inscrire dans le droit français ces dispositions spécifiques. L’échelle d’action selon elle la plus efficace : le droit européen.