JO de Paris 2024 : La vidéosurveillance algorithmique signe-t-elle la fin de nos libertés ?
SURVEILLANCE•La loi relative aux Jeux olympiques et paralympiques de 2024 prévoit l’expérimentation de la vidéosurveillance algorithmique qui permettrait de signaler aux forces de l’ordre des comportements jugés « anormaux » pendant des manifestationsLaure Beaudonnet
L'essentiel
- La loi sur les JO 2024 adoptée au printemps ouvre la voie à l’expérimentation de la vidéosurveillance algorithmique jusqu’à fin mars 2025. Des caméras adossées à de l’intelligence artificielle seraient capables de reconnaître et de signaler aux forces de l’ordre des comportements jugés « anormaux » pendant des manifestations sportives, récréatives ou culturelles.
- La majorité présidentielle et le ministre de l’Intérieur Gérald Darmanin ont insisté sur les garde-fous : le dispositif ne fera pas de reconnaissance faciale et les données seront supprimées après 12 mois.
- Pour les associations comme La Quadrature du Net ou Amnesty qui a lancé début septembre une pétition, organiser la surveillance de masse n’est pas acceptable.
Souriez, vous êtes filmés ! En avril, le Parlement a adopté la loi sur les Jeux olympiques qui autorise l’utilisation d’images de caméras et de drones pour nourrir des algorithmes. Appelées caméras de vidéosurveillance algorithmique, terme barbare pour désigner des caméras adossées à de l’intelligence artificielle capables de reconnaître et de signaler aux forces de l’ordre des comportements jugés « anormaux » pendant des manifestations sportives, récréatives ou culturelles.
Laisser à la machine la responsabilité de détecter des comportements suspects de façon autonome soulève de nombreuses questions. Comment décide-t-elle qu’une personne à contresens, statique ou à terre, par exemple, représente un danger ? Avant même la question des données personnelles, il y a celle des libertés individuelles. « Derrière cet outil, il y a une vision politique de l’espace public, de vouloir contrôler ce qui s’y passe, relève Noémie Levain, chargée d’analyses juridiques et politiques pour La Quadrature du Net. Un groupe qui se forme, cela peut être une manifestation comme un groupe d’amis. Il y a des considérations morales et politiques dans la conception même de ces outils et qui, pour nous, sont dangereuses. Tout outil de surveillance est une source de contrôle et de répression pour la police et pour l’Etat ». Les algorithmes sont entraînés par l’humain qui va leur dire ce qu’ils doivent considérer comme dangereux ou non.
Plus inquiétant encore, ces algorithmes fonctionnent sur le deep learning, qui utilise des réseaux neuronaux pour résoudre des tâches complexes. « C’est un certain type d’apprentissage statistique si complexe que l’humain ne peut pas comprendre toutes les étapes du raisonnement. Ces algorithmes vont utiliser des données personnelles et biométriques pour identifier les situations sans qu’on puisse exactement savoir lesquelles sont utilisées », reprend-elle. D’un côté, il y a une déresponsabilisation de l’humain en déléguant à la machine le pouvoir de décision. De l’autre, ces infrastructures donnent des nouvelles capacités de surveillance aux forces de l’ordre. « On donne à la police un énorme pouvoir qu’elle n’avait pas auparavant, celui d’être omnisciente, de voir ce qu’elle ne voyait pas jusqu’ici et de décider ce qui est suspect », observe Noémie Levain.
« La reconnaissance faciale arrive demain »
Devant la levée de boucliers, le Sénat a assuré avoir multiplié les « garde-fous » en avril. L’absence de reconnaissance faciale ou la suppression des images après douze mois sont-ils des gages de sécurité suffisants ? « Si au bout de 11 mois et demi, toute la base de données est piratée et qu’elle se retrouve sur le darknet [un réseau parallèle, caché, souvent associé à des activités illicites ou illégales], dommage, lance Hélène Lebon, avocate spécialisée dans le droit de la protection des données personnelles. En vidéosurveillance pure, hors loi pour les JO 2024, quand vous avez une caméra sur la voie publique, les images ne peuvent pas être gardées plus d’un mois. C’est douze fois plus ».
Un algorithme entraîné à reconnaître des comportements dits suspects est ensuite capable de faire de la reconnaissance faciale. Une fois qu’il est performant, c’est trop tard. D’autant qu’il s’agit des mêmes caméras pour faire de la vidéosurveillance algorithmique et de la reconnaissance faciale. Ce sont les mêmes entreprises qui sont derrière. Une fois que l’infrastructure est en place, il suffit d’un nouveau feu vert législatif pour passer à l’étape suivante.
« Les dirigeants prennent souvent la reconnaissance faciale comme un épouvantail de la technologie la plus intrusive, et effectivement elle est très dangereuse parce que derrière la reconnaissance faciale, on peut, dans certaines applications, remonter à une identité, souligne Noémie Levain. Mais dans les deux cas, il s’agit de repérer, de contrôler et de savoir qui est où. Soit on le lie à une identité, soit on repère la personne en fonction de son comportement et on la retrouve sur une image de vidéosurveillance. Les deux technologies sont aussi dangereuses. La vidéosurveillance algorithmique est déjà là quand la reconnaissance faciale arrive demain », insiste-t-elle.
« Une grande stratégie pour endormir les régulateurs et pour faire passer des dossiers sensibles, c’est de le faire en deux fois. On dit : "aujourd’hui, la technologie ne permet pas [la reconnaissance faciale]". Plus tard, on dit : "Maintenant, elle le permet" », abonde Hélène Lebon. « Y aller petit à petit est une manœuvre de persuasion. Commencer par une expérimentation, minimiser le fonctionnement, surenchérit Noémie Levain. On craint qu’à la fin de cette expérimentation, le 30 mars 2025, on décide de pérenniser cette technologie. Passer à la reconnaissance faciale ne sera plus qu’une formalité. Les algorithmes auront eu le temps de s’entraîner avec une base de données monstrueuse.
Le problème des biais algorithmiques discriminatoires
La machine n’est pas infaillible et un tel pouvoir est inquiétant. Faut-il rappeler que l’intelligence artificielle n’est pas exempte de bugs, de biais algorithmiques discriminatoires ? Il est impossible d’entraîner les algorithmes sur des bases de données complètement objectives. Ils reproduisent les biais déjà existants dans la société. Si une société est raciste, il sera à son image. Par exemple, il a été démontré aux Etats-Unis que la reconnaissance faciale se trompait le plus souvent sur les populations racisées, en particulier les Asiatiques, les Afro-Américains et les Amérindiens.
Selon un rapport du gouvernement américain publié en 2019, la reconnaissance faciale se trompait sur les personnes asiatiques ou noires 100 fois plus souvent que sur les personnes blanches. Faut-il craindre que ces populations fassent l’objet, à tort, de signalements par la machine ? « Détournées de leur usage initial, ces technologies risquent, à terme de cibler des groupes déjà marginalisés. Avec ces nouvelles technologies, les risques de discriminations sont réels », écrit Amnesty International dans une pétition publiée le 9 septembre.
« Quasiment tous les pays qui ont accueilli des grands événements sportifs ont passé des lois sécuritaires. Et les infrastructures sont restées, déplore Noémie Levain. On craint de passer à la généralisation, puis à d’autres technologies biométriques de surveillance, comme la reconnaissance faciale ou la reconnaissance des émotions, qui sont déjà proposées par des députés ». L’Etat doit-il se donner un tel pouvoir de surveillance ? C’est la vraie question.