REGULATIONAgir sur la viralité, enjeu majeur de la lutte contre la haine en ligne

Réseaux sociaux : La viralité, enjeu majeur (et délaissé) de la lutte contre la haine en ligne

REGULATIONPour tenter de lutter contre la haine en ligne, à nouveau au centre du débat depuis l'attentat de Conflans-Sainte-Honorine, les politiques ont mis l'accent sur la modération des contenus mais abordent peu les outils de viralité, contrôlés par les grandes plateformes
Hélène Sergent

Hélène Sergent

L'essentiel

  • Après l’assassinat du professeur d’Histoire Samuel Paty, menacé auparavant sur les réseaux sociaux, le gouvernement français a annoncé plusieurs mesures pour lutter contre la haine en ligne.
  • Si l’accent a été mis ces dernières années sur un renforcement de l’arsenal juridique pour punir les auteurs de contenus haineux sur Internet, les actions pour lutter contre la propagation de ces messages peinent à se concrétiser.
  • Malgré une politique volontariste à l’échelle européenne, les autorités publiques se heurtent encore aux plateformes, soucieuses de conserver leur modèle économique.

Lutter contre le sentiment d’impunité en ligne. Depuis 2014, la France a renforcé son arsenal juridique pour apporter une réponse à un phénomène croissant, celui du cyberharcèlement. La radicalisation sur les réseaux sociaux, la polarisation du débat public et la diffusion massive de contenus haineux ou faux ont aussi poussé les plateformes à agir sur ces contenus. Timidement et tardivement, estiment plusieurs Etats européens, qui s’apprêtent à modifier leur législation.

Le 2 décembre prochain, Thierry Breton, commissaire européen chargé du numérique, doit pour sa part présenter un texte visant justement à réguler ces géants du Web. Mais un levier d’action reste aujourd’hui encore aux seules mains des plateformes : celui de la viralité. Pourtant au cœur de la mécanique de diffusion de haine sur Internet, ces fonctionnalités qui régissent nos interactions sur les réseaux sociaux – retweets, « likes » («j’aime »), boutons de partage – peinent à évoluer.

Un modèle économique mis en cause

Si la modération des contenus est devenue au fil des ans un pan entier de l’activité de Facebook, Twitter et consorts, les mécanismes de viralité ont longtemps échappé à toute forme de régulation. « C’est compliqué d’agir sur ces fonctionnalités parce qu’elles font partie de l’ingénierie interne des réseaux sociaux, expose Olivier Ertzscheid, chercheur en sciences de l’information et de la communication à l’Université de Nantes et auteur de Le monde selon Zuckerberg.. Et si les plateformes ne les modifient pas, c’est parce qu’elles ont un intérêt à les conserver. C’est un fait, les contenus haineux ou polémiques suscitent plus d’interactions entre les internautes, donc plus de temps passé sur la plateforme, et génèrent plus de revenus publicitaires. Cela produit de manière inflationniste des interactions, et c’est ce qui nourrit l’économie de ces plateformes. »

Un enjeu économique dont ont parfaitement conscience les pouvoirs publics. « Le mode de fonctionnement des réseaux sociaux repose sur la viralité et sur l’économie de l’attention. Structurellement, ces plateformes vont générer leurs activités sur des contenus agressifs », pointe la députée LREM Laetitia Avia, à l’origine d’une proposition de loi sur la haine en ligne, censurée en grande partie en juin dernier par le Conseil Constitutionnel. « Et il y a un travail de fond à faire pour changer cela. Notre volonté, c’est d’aller vers une évolution de ce "business model". »

Mais la capacité d’un Etat à faire changer seul le modèle économique de plateformes qui regroupent des milliards d’utilisateurs à travers le monde semble limitée. En ce sens, l’initiative européenne portée par Thierry Breton pourrait changer le rapport de force, estime-t-on dans l’entourage du secrétaire d’Etat au numérique, Cédric O : « Si on veut être efficace, il faut une nouvelle législation européenne. Certains réseaux sociaux ont une empreinte massive sur nos démocraties à travers ces mécanismes de viralité. La France est très engagée et pousse pour adopter un texte ambitieux visant à réguler et responsabiliser ces acteurs et c’est un souhait qui semble partagé par les commissaires européens compétents. »

Une prise de conscience récente

Ebranlés par des polémiques et des mouvements épisodiques de protestation de leurs utilisateurs, les plateformes ont petit à petit entamé leur mue. Sur WhatsApp, propriété de Facebook, plusieurs mesures ont été prises pour réduire la propagation des messages. Depuis janvier 2019, le nombre de partage simultané d’un contenu est limité à cinq conversations seulement. Selon Facebook, cette mesure a conduit à une baisse de 25 % du nombre de transferts de messages. Depuis le 20 octobre, dans le cadre de l’élection présidentielle américaine, Twitter de son côté incite systématiquement ses utilisateurs à commenter les messages et contenus qu’ils souhaitent partager avant de le faire.

Des mesures qui vont dans le bon sens, selon Olivier Ertzscheid : « Tout ce qui peut permettre de ralentir le caractère instinctif de l’activité de partage, de remettre du temps éditorial dans le contenu que l’on publie – que ce soit des messages d’alerte, une limitation du nombre de retweets, de "likes" – peut contribuer à lutter contre la polarisation et la radicalisation des discours en ligne ».

Des évolutions positives, donc, mais qui révèlent la passivité jusqu’ici assumée par les plateformes, déplore Laetitia Avia. « Ce qui me dérange, foncièrement, c’est de voir que les plateformes agissent uniquement quand elles le veulent et quand elles ont un intérêt à le faire, et notamment un intérêt financier. On l’a vu par exemple quand des annonceurs se sont mobilisés contre le racisme et ont menacé les réseaux sociaux de boycott lors de la mobilisation aux Etats-Unis en faveur du mouvement Black live matters ».

a

Des algorithmes plus transparents

Ces petits pas entrepris par les réseaux sociaux pour limiter l’impact négatif de leur modèle économique sur nos sociétés doivent désormais être poussés par une législation plus sévère, estime le secrétaire d’Etat au numérique Cédric O. Dans un post de blog publié après l’assassinat du professeur d’Histoire Samuel Paty, jeté en pâture sur les réseaux sociaux, le ministre a appelé à une plus grande transparence des plateformes. « L’opacité du fonctionnement de leurs algorithmes et de leur modération est une aberration sociétale et démocratique. C’est pourquoi il est urgent que le législateur puisse assigner des obligations de moyens à ces plateformes qui leur imposent, sous la menace de sanctions extrêmement dissuasives et sous la supervision du régulateur, de mettre en place des dispositifs de modération à la hauteur de l’enjeu qu’elles représentent pour la société », écrit-il. Les Etats, estime le secrétaire d’Etat, doivent pouvoir avoir un droit de regard sur les logiques internes des plateformes lorsqu’elles décident de mettre en avant un contenu pour susciter des interactions.

La bataille de la régulation s’annonce compliquée. Mais pour Olivier Ertzscheid, les Etats disposent désormais de leviers d’action pour légiférer : « Un pays ne peut pas forcer Coca-Cola à changer la recette de sa boisson, sauf s’il arrive à prouver que la recette en question est toxique pour sa population. C’est la même chose avec les réseaux sociaux. Une documentation existe désormais pour démontrer le caractère néfaste des mécanismes de viralité, le législateur peut s’en saisir et doit pouvoir le démontrer pour agir. »