Attentat à Conflans : Le retour de la loi contre la haine en ligne est-il possible et nécessaire ?
NUMERIQUE•Le gouvernement et certains élus pointent la responsabilité des réseaux sociaux après qu'un professeur a été décapité, vendredi à Conflans-Sainte-Honorine (Yvelines)
Hélène Sergent
L'essentiel
- Adoptée au Parlement, la proposition de loi « contre la haine en ligne » de Laetitia Avia avait été censurée presque intégralement par le Conseil constitutionnel en juin dernier.
- Depuis l’assassinat, vendredi, de Samuel Paty, professeur au collèges du Bois d’Aulne, des membres du gouvernement et des élus dénoncent la passivité et la « responsabilité » des réseaux sociaux.
- Le porte-parole du gouvernement, Gabriel Attal, et la députée Laetitia Avia ont fait savoir qu’un « dispositif législatif » était de nouveau à l’étude pour lutter contre la haine en ligne.
- En parallèle, Marlène Schiappa, ministre déléguée à la citoyenneté, reçoit ce mardi les plateformes Internet pour leur demander de lutter contre le « cyberislamisme ».
Quel rôle les réseaux sociaux ont-ils joué dans l’attaque qui a coûté la vie à Samuel Paty ? Décapité vendredi à la sortie du collège où il enseignait à Conflans-Sainte-Honorine (Yvelines), le professeur d’histoire-géographie avait fait l’objet de vives critiques sur ces plateformes en ligne au cours des semaines précédentes. En cause ? Un cours sur la liberté d’expression dispensé par Samuel Paty pendant lequel il avait diffusé, à ses élèves, des caricatures de Mahomet publiées dans Charlie Hebdo. Furieux, le père d’une collégienne a posté dès le 7 octobre plusieurs messages et une vidéo sur Facebook dans lesquels il appelait à l’exclusion de ce professeur, qualifié de « voyou ». Son nom, celui de l’établissement scolaire et son numéro de téléphone ont également été diffusés.
Pour l’heure, les enquêteurs cherchent toujours à déterminer les liens éventuels entre le terroriste – un jeune Tchétchène de 18 ans habitant Evreux – et les auteurs et relais de ces contenus visant Samuel Paty. Mais pour une partie de classe politique et pour le gouvernement, la « responsabilité » des plateformes, Twitter comme Facebook, n’est plus à démontrer. Certains appellent désormais à légiférer et déplorent la censure, en juin dernier par le Conseil Constitutionnel, d’une proposition de loi visant à lutter « contre la haine en ligne ».
- Pourquoi la loi Avia revient-elle aujourd’hui dans le débat ?
Dans cette attaque terroriste, deux éléments poussent l’exécutif à prôner un meilleur « encadrement » des réseaux sociaux. Il y a ces vidéos et messages incriminant l’enseignant et il y a l’activité en ligne de l’assaillant. Dans un tweet posté le 17 octobre, la Licra (Ligue internationale contre le racisme et l’antisémitisme) a précisé avoir « signalé » dès le 27 juillet dernier un message à caractère antisémite posté par l’auteur des faits sur son compte. Si le tweet a été supprimé dans les « heures qui ont suivi », a fait savoir la Licra, son profil est resté actif jusqu’à l’attentat, puisque c’est sur Twitter que le djihadiste a posté sa revendication, accompagnée d’une photographie de sa victime.
Sur BFMTV, le porte-parole du gouvernement Gabriel Attal a estimé que la responsabilité des réseaux sociaux était donc engagée dans cette affaire. « Les choses ont démarré sur les réseaux sociaux avec les vidéos de ce parent d’élève et elle s’est terminée avec cette photo abjecte postée sur les réseaux sociaux par le terroriste. Donc oui, ils ont une responsabilité et oui on doit arriver à mieux les encadrer ». Il a précisé que le gouvernement travaillait à « un dispositif juridique qui permette (…) de lutter contre la haine sur les réseaux sociaux ».
Désavouée en partie par le Conseil constitutionnel en juin dernier, l’élue de la majorité à l’origine de la proposition de loi qui porte son nom, Laetitia Avia, l’a par ailleurs confirmé au Parisien : « Cette tragédie prouve que réguler les réseaux sociaux est nécessaire. Dès le discours du président sur le séparatisme aux Mureaux, nous avons repris nos travaux afin de trouver un mécanisme qui fonctionne. Et ce week-end, oui, il y a eu une accélération. »
- Que prévoyait le texte et pourquoi a-t-il été censuré par le Conseil constitutionnel en juin dernier ?
Le texte voté et adopté par le Parlement imposait aux plateformes et aux moteurs de recherche l’obligation de retirer sous vingt-quatre heures les contenus « manifestement » illicites, sous peine d’amendes pouvant aller jusqu’à 1,25 million d’euros. Les incitations à la haine, la violence, les injures à caractère raciste ou religieux étaient visées. Pour les contenus à caractère terroriste ou pédopornographique et en cas de notification par les autorités, ces acteurs disposaient d’une heure seulement pour les supprimer. Mais les Sages ont censuré une grande partie de ces dispositions.
« La loi demandait à des acteurs privés – sous peine de sanction – de devenir juge et de déterminer si tel ou tel contenu est illicite. Cela crée une confusion des rôles entre le service public de la justice – effectué par un juge judiciaire, indépendant et impartial – et des acteurs privés », détaille à 20 Minutes Farah Safi, professeure agrégée de droit privé et sciences criminelles à l’université Clermont-Auvergne. Autre problème soulevé par le texte : le risque de censure. Farah Safi développe : « Le Conseil Constitutionnel a été très sévère à ce sujet. Il y avait une crainte de voir les plateformes supprimer des contenus pour ne pas avoir à payer une amende et donc un risque d’atteinte à notre liberté d’expression ».
- Quelle forme le nouveau « dispositif juridique » voulu par le gouvernement pourrait-il prendre ?
Laetitia Avia a annoncé au Parisien que des articles sur « la modération des contenus haineux et la façon de mieux identifier leurs auteurs (…) pourraient être examinés dans le cadre d’une proposition de loi (…) ou du projet de loi séparatisme ». Quelques heures plus tard, elle a précisé à l’AFP avoir « présenté un certain nombre de mesures qui prennent en considération ce que le Conseil constitutionnel a évoqué comme difficultés ». Mais rien n’a été défini pour le moment, le texte sur les séparatismes étant toujours en cours d’élaboration.
Déjà refroidi par la censure du texte dédié en juin, l’exercice s’annonce périlleux pour l’exécutif. « On avait voté le texte sans difficulté en mai, rappelle le député et président du groupe UDI à l’Assemblée, Jean-Christophe Lagarde. Mais le Conseil constitutionnel a dit que ça n’était pas constitutionnel. La question doit peut-être être déplacée. S’il n’est pas possible de responsabiliser les éditeurs, peut-être faudrait-il envisager un durcissement des poursuites pour les émetteurs ? », suggère l’élu de Seine-Saint-Denis. Une voie que semble vouloir prendre le ministre de la Justice. Dans une interview accordée au Parisien, Eric Dupond-Moretti annonce vouloir « renforcer la répression », tout en rappelant que « la diffusion de vidéos illicites est actuellement punie de cinq ans d’emprisonnement et 75 000 euros d’amende ».
Ce mardi, Marlène Schiappa, ministre déléguée auprès du ministre de l’Intérieur, réunira les patrons français de Facebook, Instagram, Google, YouTube, Twitter, TikTok et Snapchat pour aborder la question de la lutte contre le « cyberislamisme ». Selon nos informations, la ministre entend revenir sur la « complaisance » accordée aux « prêcheurs de haine » en ligne par ces plateformes et attend d’elles des propositions concrètes.
- Un nouveau texte est-il nécessaire ?
C’est toute la question qui agite aujourd’hui le débat. Interrogé à ce sujet, le porte-parole du gouvernement a reconnu : « Est-ce que le dispositif, tel qu’il avait été proposé [dans la loi Avia], aurait permis de retirer cette vidéo ? Moi je n’en sais rien ». C’est toutefois ce qu’a assuré le ministre de l’Intérieur lors d’une interview accordée à Europe 1.
Pour le député LREM Eric Bothorel, la réponse ne doit pas forcément se faire sur le terrain législatif, ou du moins pas au niveau national : « Je pense qu’on a à gagner à bâtir une doctrine autour de ces contenus et de la responsabilité de ces plateformes à l’échelle européenne. C’est l’objet du Digital Services Act, porté par la Commission européenne. Le drame de vendredi ne doit pas nous amener à précipiter les choses. Quand Manuel Valls dit qu’il faut changer la Constitution pour permettre à la loi contre la haine en ligne de passer, on nage en plein délire ! »
La professeure de droit Farah Safi estime qu’aucune modification du texte initial ne permettrait d’agir efficacement. Elle rappelle par ailleurs que l’arsenal juridique français est déjà suffisant : « Les personnes qui ont diffusé la revendication du terroriste tombent déjà sous le coup de la loi. C’est de la provocation à un acte de terrorisme. Quant aux hébergeurs, deux textes permettent d’engager leur responsabilité. La loi sur la confiance dans l’économie numérique, complétée en 2017, responsabilise davantage les opérateurs en ligne, avec une obligation de concourir à la lutte contre la diffusion d’infractions à caractère raciste, par exemple. Et la loi du 29 juillet 1982 prévoit une sanction lorsque l’hébergeur n’agit pas promptement pour retirer un contenu illicite quand il en a connaissance. »
Enfin, la question des moyens alloués à Pharos, le service chargé de recueillir les signalements de ces contenus illicites et violents se pose de façon plus accrue, estime le député LREM Eric Bothorel : « La question qui doit se poser, c’est la manière dont sont instruits les signalements faits à Pharos. Est-ce que l’assaillant ne serait pas passé à l’acte s’il n’avait pu déverser sa haine sur Twitter ? Comment on se saisit de cette foultitude d’individus signalés pour les empêcher de commettre leurs crimes ? ».
En 2018, le service se composait de 27 policiers et gendarmes, spécialistes de la cybercriminalité. Cette même année, ils ont reçu 163.000 signalements, soit plus de 3.000 chaque semaine.