VIDEO. Non, Twitter ne rend pas invisibles des utilisateurs en fonction de leurs opinions politiques
FAKE OFF•Twitter est accusé par des conservateurs américains de diminuer la visibilité des tweets de certains utilisateurs...Mathilde Cousin
L'essentiel
- Des Américains conservateurs, réunis dans Project Veritas, ont publié une vidéo dans laquelle ils ont interviewé des anciens employés et des employés actuels de Twitter.
- Selon eux, ces témoignages prouvent que le réseau social diminue la visibilité des posts des partisans de Trump.
- Mais ces témoignages ne prouvent absolument pas cette pratique.
Twitter se retrouve une nouvelle fois accusé de pratiques arbitraires. Des militants américains conservateurs accusent le réseau social de diminuer la visibilité des posts de certains utilisateurs, une pratique connue dans le milieu de la tech sous le nom de shadow banning.
Cette méthode sert notamment à éviter le spam. Elle est par exemple utilisée par Reddit pour éloigner les spammeurs de ce site.
Ces Américains, qui se présentent sous le nom Project Veritas, accusent Twitter de filtrer les utilisateurs et de diminuer la visibilité des tweets postés par les conservateurs et les partisans de Trump. Pour prouver leurs dires, ils ont publié des interviews d’anciens et d’actuels collaborateurs de Twitter, regroupés en une vidéo de 15 minutes, qui a été vue 331.000 fois sur YouTube. Il est important de souligner que ces interviews ont été réalisées en caméra cachée.
Mais, si l’on examine en détail les déclarations contenues dans la vidéo, les accusations de sélection et de filtrage de contenus émanant des conservateurs s’écroulent rapidement. Accrochez-vous, on vous déroule tout cela.
FAKE OFF
Les propos des personnes interviewées ne soutiennent pas la thèse de Project Veritas. La première personne présentée dans la vidéo est Olinda Hassan, qui travaille dans l’équipe « confiance et sécurité » de Twitter.
Pourquoi ses propos ne soutiennent pas la thèse de Project Veritas : La jeune femme parle du système de modération en général. Elle ne parle absolument pas de blocage d’utilisateurs par Twitter sur la base de leur opinion politique. Elle ajoute d’ailleurs que l’utilisateur « doit aussi avoir le contrôle » sur ce qui apparaît dans sa page d’accueil.
Un ancien employé qui n’a travaillé que quatre mois pour Twitter
C’est ensuite Mo Norai, présenté comme un ancien modérateur, qui est interviewé, toujours en caméra cachée.
Pourquoi ses propos ne soutiennent pas la thèse de Project Veritas : Mo Morai a travaillé seulement quatre mois pour Twitter, en 2015 et 2016, ce qui n’est pas précisé dans la vidéo. Il affirme que des « règles non écrites » étaient en vigueur dans la modération, mais sans en apporter la preuve ou en dire davantage.
Il travaille sur la messagerie mais est interrogé sur la gestion des comptes
Les déclarations de Pranay Singh ne sont pas plus convaincantes. L’homme, qui travaille dans l’équipe de la messagerie directe de Twitter, est interviewé par deux femmes lors d’une fête et on le voit boire dans la vidéo. Pour Project Veritas, Pranay Singh est un interlocuteur clé, car il explique que « le gouvernement américain fait pression sur nous ».
Pourquoi ses propos ne soutiennent pas la thèse de Project Veritas : Quand il parle du rôle du gouvernement américain, Pranay Singh vient d’être interrogé sur la disparition en décembre du compte Twitter de Julian Assange. Il explique « ignorer » pourquoi Twitter a « retiré » ce compte, puis explique que cela doit être à cause du gouvernement. Il semble toutefois que ce soit Julian Assange qui ait lui-même retiré son compte, avant de le réactiver.
Pranay Singh revient un peu plus tard dans la vidéo. Il y décrit la façon dont Twitter identifie les bots. Selon lui, Twitter est en capacité de viser les bots favorables à Trump.
On peut légitiment s’interroger pour savoir si Pranay Singh a accès aux informations sur la gestion des comptes et sur le fonctionnement des algorithmes de la timeline, car il travaille pas sur ces questions mais dans l’équipe qui gère le service de messagerie de Twitter.
Non, cet ingénieur ne reconnaît pas que le « shadow banning » vise les Conservateurs
Abhinav Vadrevu, un ancien ingénieur en informatique de Twitter, est ensuite interrogé par un membre de Project Veritas sur la pratique du shadow banning.
Pourquoi ses propos ne soutiennent pas la thèse de Project Veritas : Après avoir expliqué en quoi consiste cette méthode, l’ingénieur explique qu’il ne sait pas si « Twitter le pratique encore. » Et, quand il développe la méthode, à aucun moment il n’explique que le shadow banning vise des utilisateurs en raison de leurs opinions. Il n’est pas précisé à quel moment Abhinav Vadrevu a quitté Twitter ni quelles étaient ses fonctions exactes au sein de l’entreprise.
Une question trop vague
Project Veritas a également interviewé Conrado Miranda, qui est présenté comme un « ancien ingénieur » de Twitter, sans plus de précisions. Mirando décrit le système de « filtres » qui organise la timeline des utilisateurs de Twitter.
Pourquoi ses propos ne soutiennent pas la thèse de Project Veritas : Il est difficile de juger à quel point Conrado Miranda est familier avec les filtres utilisés par Twitter, car il n’est pas précisé dans la vidéo quelles étaient ses fonctions précises chez Twitter, ni quand il a quitté l’entreprise. Dans l’interview, il indique qu’il sait seulement que Twitter est composé « d’un énorme montant de tweets et d’un tas de filtres par-dessus. » Sa connaissance de l’algorithme apparaît donc plus que limitée.
Au début de l’extrait diffusé, une membre de Project Veritas lui pose une question vague : « J’ai entendu que c’est une bonne chose car on l’utilise pour bannir des partisans de Trump ou des Conservateurs, alors je ne savais pas si c’est une rumeur ou si c’est vrai ». L’ingénieur répond : « Cela existe. » L’introduction de l’interview laisserait penser que le « c’est » dans la question renverrait au shadow banning, mais la question est trop floue pour l’affirmer. Quand au « on », il n’est pas précisé à qui il fait référence. La réponse de l’ingénieur ne peut donc pas être prise comme une validation de l’utilisation du shadow banning par Twitter.
Des conversations pas notées sur leur contenu
Le dernier intervenant est Steven Pierre, un ingénieur en informatique de Twitter. Il explique qu’il travaille sur un projet, présenté comme « secret » par Project veritas. L’idée est de noter chaque conversation, afin d’indiquer si elle est positive ou négative.
Pourquoi ses propos ne soutiennent pas la thèse de Project Veritas : Steven Pierre précise que l’idée est de noter les conversations en s’appuyant non pas sur leur contenu, mais sur leur ton. « Qu’elles soient notées de manière positive ou négative ne dépend pas de leur contenu, mais plus de si quelqu’un est agressif ou non. »
Twitter dénonce des « tactiques trompeuses et sournoises »
Twitter rejette les accusations de Project Veritas : « Twitter ne répond qu’aux requêtes légales valides et ne partage aucune information d’utilisateur avec les autorités sans une telle demande, explique un porte-parole de l’entreprise à 20 Minutes. Nous déplorons les tactiques trompeuses et sournoises par lesquelles ces enregistrements ont été obtenus et pré-édités afin de correspondre à un récit prédéfini. » L’entreprise californienne réaffirme « être engagée à renforcer nos règles sans partialité et à rendre plus forte chaque voix sur notre plateforme, conformément aux Règles Twitter. »
Un militant derrière Project Veritas
Project Veritas n’en est pas à son premier fait d’armes. Derrière l’organisation se trouve James O’Keefe, un militant Américain âgé de 33 ans. Il a travaillé avec Andrew Breitbart, le fondateur du site ultra-conservateur Breitbart, anciennement dirigé par Steve Bannon. En novembre, le Washington Post a révélé qu’une femme vraisemblablement liée au Project Veritas a proposé au journal une information fabriquée de toutes pièces.
>> Vous souhaitez que l’équipe de la rubrique Fake off vérifie une info ? Réagissez dans les commentaires ou envoyez un mail à l’adresse [email protected].
20 Minutes est partenaire de Facebook pour lutter contre les fake news. Grâce à ce dispositif, les utilisateurs du réseau social peuvent signaler une information qui leur paraît fausse.