Intelligence artificielle : Les fausses images d’actualité risquent de devenir de plus en plus difficiles à repérer
FAKE OFF•Alors que deux images prétendument d’actualité sont devenues virales, « 20 Minutes » a demandé à des spécialistes comment les identifierMathilde Cousin
L'essentiel
- Si des artistes utilisent l’intelligence artificielle pour créer de l’art, les images générées par ordinateur peuvent aussi avoir le potentiel de tromper quand elles sont présentées comme véridiques.
- Alors que les technologies se perfectionnent, est-il possible de distinguer une image prise par un photographe d’une image générée par des lignes de code ?
- On a posé la question à des spécialistes.
Un policier qui serre dans ses bras une manifestante. Un pompier qui tient un enfant dans ses bras au milieu du chaos. A bien regarder ses deux images émouvantes, plusieurs détails clochent : le policier et le pompier ont six doigts sur une main, leurs pouces sont anormalement longs, la main droite du pompier est difforme, la visière du casque du policier a une forme hors norme, un bout de sangle sur le manteau de la manifestante n’est pas fini…
Le fait est que ces deux images fortes n’ont pas été prises pendant des manifestations contre la réforme des retraites ou après les séismes qui ont dévasté la Turquie et la Syrie le 6 février, contrairement à ce qu’ont affirmé plusieurs comptes qui les ont partagées. L’image du policier et de la manifestante a été créée par une intelligence artificielle (IA), comme l’a repéré une journaliste de l’AFP. C’est également le cas pour l’image du pompier.
Si des artistes s’emparent de ces nouveaux outils et créent des images innovantes, certains acteurs peuvent s’en emparer pour faire passer des vessies pour des lanternes. Comment repérer de telles images lorsqu’elles circulent sur les réseaux sociaux sans qu’il ne soit mentionné que ce sont des créations et non des images d’actualité ? 20 Minutes a posé la question à des spécialistes. Tous insistent sur un point : cette technologie évolue rapidement et les défauts visibles aujourd’hui à l’œil nu sont déjà parfois corrigés par certains utilisateurs ou le seront très rapidement. Ces signes, valables actuellement dans certains cas, ne le seront sûrement plus rapidement.
Alors, à quoi faut-il faire attention ? A la construction des mains, mais aussi celle des yeux. « S’il y a plusieurs personnes dans l’image, les yeux vont souvent être les mêmes », détaille Antoine Bertier, modérateur pour Stable diffusion, un site permettant de créer des images avec de l’IA. Il faut aussi être attentif aux détails, tels que la forme des bijoux, des lunettes… Les textes comportent également parfois des défauts. Les images contiennent aussi des filigranes, mais qui peuvent être aisément retirés. Emmanuel Adam, porte-parole de l’Association française pour l’intelligence artificielle, met en garde contre une « retouche trop poussée de l’image : souvent les images générées sont très nettes car les réseaux ont été alimentés par des images de qualité prise par des pros. Ainsi on retrouve une belle lumière, un beau flou en arrière-plan, ce qui a priori serait difficile à obtenir en pleine émeute. »
Des défauts gommables avec un peu d’huile de coude
Les créateurs d’images sont bien conscients de ces défauts et y remédient parfois. « Le texte sur le casque du pompier est parfait, il a été rajouté sur Photosphop », analyse ainsi Antoine Bertier. Et il n’y a pas que ce célèbre logiciel pour gommer les défauts. L’intelligence artificielle peut aussi régénérer une partie de l’image. « Vous dessinez sur une partie de l’image et vous dites "régénérer cette partie". Et ainsi vous pouvez juste essayer plusieurs fois jusqu’à ce que les mains, par exemple, soient bien », explique Leonardo Impett, professeur assistant d’humanités numériques à l’université de Cambridge.
C’est pour cela que dresser une telle liste des défauts est presque vain, souligne-t-il. Ajoutez à cela la rapidité des progrès de l’intelligence artificielle et la partie semble presque pliée. « Cela va être un jeu du chat et de la souris, comme un virus et un antivirus, mais la technologie va beaucoup trop vite », résume Antoine Bertier.
Une base de données de 300 téras !
Si l’humain ne peut y arriver seul, y a-t-il des outils qui permettraient de séparer photos d’humains existant réellement des créations générées par du code ? Il est par exemple toujours possible de faire une recherche inversée d’images dans un moteur de recherche. En fonction des résultats, méfiance !
Le site stable attribution promet quant à lui de retrouver les images qui ont été utilisées pour générer une image avec de l’intelligence artificielle. Pour cela, il pioche dans des bases de données utilisées pour entraîner les intelligences artificielles. Celle de Stable diffusion fait 300 téras ! Avec un tel corpus, il est difficile d’avoir des résultats exacts à tous les coups, souligne Antoine Bertier. « Quand vous avez la forme d’un sourcil, c’est difficile de dire de quel sourcil elle vient. »
Dans l’avenir, inventer de tels outils « pourrait être plus facile, en entraînant un réseau sur bases d’images fake et réelles, imagine Emmanuel Adam. Cela fonctionne très bien avec des textes : des bases sérieuses d’exemples sont disponibles et permettent d’entraîner un réseau en ce sens. Pour les images, cela demande beaucoup de moyens pour bénéficier de capacités en mémoire et en calcul. »
Sommes-nous alors voués à douter de la véracité de chaque image ? « Cela devient une position dangereuse d’être sceptique sur tout, répond Leonardo Impett. Il est difficile de distinguer les deepfakes, car s’il y a des indices, ils sont très subtils. Et si nous devenons si sceptiques sur ces choses subtiles, alors nous risquons bien sûr de qualifier de fausses des images qui sont des photographies tout à fait normales. » Le chercheur a l’habitude de présenter des photos de paysage dans une formation. Deux sont le produit d’une IA, la troisième est une photo de bord de mer. Le plus souvent, les personnes lui disent que la photo de la mer est fausse, car le mouvement du ressac serait suspect. Vouloir chercher des défauts peut conduire à oublier que le monde en contient lui aussi, prévient-il.
Quelles seraient les autres pistes ? L’une d’entre elles serait que les gouvernements financent des programmes de recherche ambitieux sur ces sujets, lance Antoine Bertier. Une autre est la bonne foi des utilisateurs, qui devraient indiquer que la création qu’ils partagent vient de l’intelligence artificielle. L’utilisateur qui a partagé la photo du policier et de la manifestante a d’ailleurs fini par supprimer son tweet et indiqué que la photo avait bien été générée par une IA.