MODÉRATIONFacebook supprime 8,7 millions d'images pédopornographiques

Facebook supprime 8,7 millions d'images pédopornographiques et contraires aux règles sur la nudité infantile

MODÉRATIONLe réseau social a mis au point une nouvelle technologie…
M.F

M.F

La modération des contenus sur Facebook reste le principal cheval de bataille du réseau social. Mercredi, le géant du Web a annoncé que le semestre dernier, pas moins de 8,7 millions d’images pédopornographiques ou contraires aux règles de la plateforme sur la nudité infantile avaient été supprimées.

Cette modération de grande envergure a été réalisée grâce à une toute nouvelle technologie acquise par Facebook. Jusqu’à présent, le réseau utilisait un logiciel qui identifiait les contenus pédopornographiques déjà repérés dans le passé et bloquait leur nouvelle publication. Pour les autres, l’entreprise de Mark Zuckerberg comptait notamment sur le signalement des utilisateurs.

Une intelligence artificielle pour détecter la nudité

« En plus de cette technologie de correspondance de photos, nous utilisons une intelligence artificielle pour détecter la nudité d’enfants et des contenus à caractère pédopornographiques inconnus de nos services au moment de son téléchargement », écrit Facebook dans son communiqué. Cette intelligence artificielle doit permettre à Facebook d’identifier rapidement ces contenus pour qu’ils soient supprimés et signalés.

Le réseau social a d’ailleurs indiqué que 99 % des 8,7 millions de contenus avaient été supprimés avant que quiconque ne les signale. « Nos normes communautaires interdisent l’exploitation des enfants et, pour éviter tout risque d’abus, nous agissons également sur le contenu non sexuel, comme des photos anodines d’enfants dans le bain. »

La plateforme a également assuré travailler en collaboration avec le Centre national pour enfants disparus et exploités (NCMEC), ainsi que des experts en sécurité et des associations de luttes contre l’exploitation des enfants.