Européennes 2.0: Quels risques les deep fakes représentent-ils en période électorale?
SERIE 4/5•A l’occasion des élections européennes, « 20 Minutes » explore les nouvelles stratégies de campagne en ligne. Quatrième épisode : les fake news à l'ère de l'IALaure Beaudonnet
L'essentiel
- Les deep fakes permettent de faire dire ce que l’on veut à une personnalité, avec son exacte gestuelle et tonalité de voix, grâce à l’intelligence artificielle.
- Alors que les fake news se sont invitées dans la dernière campagne présidentielle française, que peut-on craindre de cette nouvelle génération d’infox ?
- Ces fausses infos dopées à l’IA pourraient affaiblir le débat démocratique.
«Donald Trump est un abruti total », avait lâché tranquillement Barack Obama dans une vidéo diffusée par Buzzfeed il y a un an. Si l’ancien président des Etats-Unis n’a jamais traité son successeur de « deep shit » devant les caméras, le média en ligne a bien diffusé un « deep fake » (vidéo ou enregistrement audio qui peut faire dire tout et n’importe quoi à n’importe qui à l’aide du deep learning) pour alerter sur les dangers des fake news à l’ère de l’intelligence artificielle.
Les fausses informations se propagent sur le Web comme une épidémie et, avec l’aide des réseaux de neurones artificiels, le niveau de manipulation pourrait monter d’un cran. Mais, rassurez-vous, le faux discours de Barack Obama a été présenté comme une preuve de concept. La propagande électorale à coups de deep fakes est rangée – pour l’instant – au rayon science-fiction. Aujourd’hui, seul l’univers du porno a vu naître ce type de vidéos qui détournaient l’image de stars hollywoodiennes. Si la politique ne s’est pas encore emparée de cette technologie, que risquerait-on concrètement si elle s’y mettait ?
« J’ai été incapable de distinguer les vraies images des fausses »
« Avec les deep fakes, nous ne sommes plus dans le cadre d’un simple photoshopage où on part d’images existantes et où on copie un morceau d’une photo dans une autre, explique Vincent Claveau, informaticien au CNRS. Toute l’image peut être re-générée à partir de matériaux qui n’existaient pas. » Comment ? A l’aide de réseaux de neurones qui consistent à entraîner deux réseaux de neurones artificiels en parallèle. L’un va générer la personne A, l’autre, la personne B, et la partie qui génère l’image du premier réseau de neurones va être intervertie avec celle du deuxième réseau de neurones. De cette façon, quand le visage A sourit, le visage B va sourire aussi.
Aujourd’hui, n’importe qui peut produire un deep fake. Il suffit d’un ordinateur un peu gonflé et d’un peu de temps devant soi pour truquer une vidéo ou une voix. L’application FakeApp, par exemple, permet de mettre un visage à la place d’un autre très facilement. Et le résultat est bluffant, pour peu qu’on dispose de suffisamment de données. Il est plus simple de faire dire n’importe quoi à Emmanuel Macron, pour lequel il existe une riche documentation vidéo et audio, qu’à sa voisine de palier. Plus on aura d’images pour entraîner le réseau de neurones, plus le fake fera illusion.
Retrouvez notre dossier par ici
Jusqu’ici, rien de bien neuf à l’horizon. « Les imitateurs existent depuis le XVIIIe siècle et même avant, pointe Véronique Aubergé, informaticienne au Laboratoire d’informatique de Grenoble (LIG). La nouveauté, c’est qu’on n’a pas accès au fait que ça a été trafiqué. » Et Vincent Claveau confirme : « Récemment, on m’a montré quatre images et j’ai été incapable de distinguer les vraies images des fausses. » Les dernières générations de deep fakes sont indétectables à l’œil humain.
Les dernières générations indétectables
Il existe bien des outils pour traquer ces nouvelles générations d’infox : des algorithmes sont capables de les repérer. « Si vous prenez la voix d’un imitateur, une machine ne se fera pas avoir », poursuit Véronique Aubergé, spécialiste de la robotique sociale. Par contre, elle ne saura pas dire si cette voix appartient ou non à la personne. Elle n’est pas capable d’identifier ce que l’humain identifie. Selon elle, on donne trop de crédit à la machine et on ne vérifie pas assez ce qui se balade sur Internet.
Et en période électorale, ça pose problème. « L’effet des deep fakes devrait être assez similaire à celui des fake news classiques, confirme Emeric Henry, économiste à Sciences po Paris, qui a mené une étude sur l’impact du fact-checking en contexte électoral. Quand on expose les gens à des fake news et qu’ensuite on corrige les erreurs factuelles, les gens corrigent leur croyance. » Mais l’impression initiale laissée par la fausse information reste intacte. L’effet de stress créé par la thématique de la fausse information – migrants, terrorisme – ne bouge pas. Pire, le fact-checking, en ré-insistant sur la même thématique, peut l’augmenter. « L’effet initial est dur à corriger », souligne le chercheur qui a mené une étude sur l’importance du fact-checking en contexte électoral.
Faire basculer une élection
Les fake news classiques restent redoutablement efficaces. Passer aux deep fakes, c’est beaucoup d’énergie pour le même résultat, a priori. « Avec les fakes standards, on arrive très bien à faire avaler la fausse information à la cible visée sans avoir besoin de passer par la grosse artillerie, indique Vincent Claveau. Je ne suis pas certain que l’usage des deep fakes dans un cadre politique aurait une portée plus importante ». D’autant qu’il est aisé de retrouver des propos prononcés dans un cadre officiel.
Et le prix à payer pour un parti qui en ferait usage serait élevé. « C’est différent de jouer avec des chiffres que de changer une voix », note Emeric Henry. Il y a un vrai risque pour la réputation d’un parti. L’infox, dopée à l’IA ou non, a clairement une incidence sur une élection. « Les fake news ont de forts effets à court terme sur les intentions de vote, et des effets à long terme plus faibles, mais avec l’accumulation elles peuvent faire basculer une élection » alerte Emeric Henry. Quel intérêt de passer à la gamme au dessus alors ? Pour brouiller les pistes.
Un rapport réalisé par quatre experts du Centre d’analyse, de prévision et de stratégie (CAPS) du ministère des Affaires étrangères et de l’Institut de recherche stratégique de l’Ecole militaire (IRSEM) en septembre mettait en garde contre un plus grand danger que la création d'un faux de toutes pièces. « L’altération discrète d’une partie seulement d’un contenu audio ou vidéo, un discours par exemple ». Il sera aussi possible de truquer un discours et de diffuser des variations « pour diluer l’authentique dans la confusion ». Avec le concours des comptes anonymes très suivis sur les réseaux sociaux, les risques pour la démocratie sont bien réels.