WEBComment Facebook modère les contenus

Comment Facebook modère les contenus

WEBLe réseau social doit jongler tous les jours entre le respect de la liberté d’expression et la «sécurité» de ses utilisateurs…
Anaëlle Grondin

Anaëlle Grondin

Avec 1,3 milliard d’utilisateurs dans le monde et 4,75 milliards de contenus partagés chaque jour, Facebook n’a pas le temps de se reposer sur ses lauriers. Le réseau social veut garantir la liberté d’expression mais doit à la fois être vigilant sur ce qui est publié pour éviter les dérives. Comment les posts sont-ils modérés? De passage à Paris ce mercredi, Monika Bickert, responsable du contrôle des contenus sur Facebook, donne quelques éléments de réponse.

Standards. Pour savoir si un contenu est inapproprié, Facebook se base sur les «standards» de sa communauté. Le site ne se contente pas de supprimer les posts jugés contraires à la loi. Il a établi des règles de conduite à suivre et n'autorise pas le harcèlement, violence, nudité ou incitation à la haine. Principal obstacle: un contenu peut être jugé offensant dans un pays mais pas dans un autre (les photos d’allaitement, par exemple). Malgré ces différences culturelles, la plateforme étant «globale», elle a choisi d’établir les mêmes règles partout. Ces standards paraissent vagues mais les modérateurs reçoivent des règles détaillées à appliquer, comme le montrait Gawker en 2012.

Difficultés. Parmi les cas les plus problématiques rencontrés par Facebook, la nudité. La censure de L’Origine du Monde de Gustave Courbet était une erreur «due au réalisme de l’œuvre». Normalement, Facebook ne supprime pas les images de nu s’il s’agit d’art. Les vidéos montrant des actes violents posent aussi problème. Si elles glorifient la violence, Facebook les supprime. Mais si elles ont été postées pour la dénoncer, elles peuvent être tolérées. L’an dernier, Facebook a dû revoir sa copie au sujet de vidéos de décapitation circulant sur le site: au départ autorisées, elles ont fini par être supprimées du site.

Autorégulation. Mais qui sont les modérateurs de Facebook? Ses membres, dans un premier temps. La majorité des contenus supprimés par Facebook ont été signalés par ses utilisateurs grâce à la fonction «signaler cette publication». Monika Bickert explique que son équipe (de «plusieurs centaines de personnes») se penche alors sur ces posts pour voir si le contenu doit être supprimé. Un seul ou un million de signalements ne changent rien. Celui qui aura le plus de signalements ne sera pas examiné en priorité.

24/7. Cette modération se fait sans interruption. L’équipe de Monika Bickert est composée de salariés de Facebook d’horizons différents: droit, ONG, politique, business et communication. Une partie est basée aux Etats-Unis et une autre en Irlande, où Facebook a établi son siège international. C’est de là-bas que des employés francophones examinent vos signalements.

Sous-traitants. La modération est en partie externalisée. En 2012, un porte-parole de Facebook indiquait au Guardian que l’utilisation de prestataires extérieurs était une nécessité «pour pouvoir traiter rapidement et efficacement les millions de signalements que nous recevons tous les jours». La plateforme nous indique que ces sous-traitants sont chargés de faire un premier tri entre les signalements pour spams, harcèlement, etc., et faciliter la tâche à Facebook. Un signalement doit être traité dans les 72 heures.

Exceptions. Le site ne scanne pas de mots-clés pour trouver des contenus qui poseraient problème. Sauf dans deux cas. La pédopornographie, d’abord. Un outil fourni à Facebook par Microsoft, Photo DNA, permet au réseau de détecter automatiquement des images pédopornographiques. Autre cas, le terrorisme. «Si l’on reçoit un signalement et que l’on détecte une personne qui fait l’apologie d’un groupe terroriste ou la présence sur le site d’un groupe terroriste, nous allons utiliser nos outils automatisés pour détecter d’autres comptes associés», explique Monika Bickert.