SURVEILLANCENotre visage s’apprête-t-il à devenir notre pire ennemi ?

Reconnaissance faciale : Notre visage s’apprête-t-il à devenir notre pire ennemi ?

SURVEILLANCELa reconnaissance pourrait bientôt prédire nos comportements
Laure Beaudonnet

Laure Beaudonnet

L'essentiel

  • En Chine, le crédit social, un système de reconnaissance faciale qui permet de noter les habitants en fonction de leur comportement, montre déjà à quoi pourrait ressembler le monde de demain.
  • Aujourd’hui, les algorithmes ne sont pas au niveau pour reconnaître les gens en toutes circonstances.
  • 20 Minutes fait le point sur la technologie d’aujourd’hui et sur le monde de demain.

A regarder la Chine, on a un bon aperçu de la tête que pourrait avoir le monde de demain. Avec le « crédit social » qui repose sur la reconnaissance faciale, de nombreuses municipalités chinoises distribuent les bons et les mauvais points aux habitants en fonction de leur comportement. De leur côté, les Gafa se sont lancés depuis un bon moment dans la course, aidés par les progrès de l’intelligence artificielle (et des bases de données gigantesques), tandis qu’en France la région Paca aimerait lancer l’expérimentation de la reconnaissance automatique des visages des élèves par biométrie à l’entrée de deux lycées à Nice et Marseille. Bref, notre visage sera bientôt connu de tous. Ne vous affolez pas tout de suite. Voyons d’abord où en est la technologie (et ensuite vous pouvez vous cacher).

Si la technologie a fait de gros progrès, elle reste imparfaite et il est encore difficile d’évaluer son efficacité. « Il n’existe pas un taux de performances général, insiste Laurence Devillers, professeure en intelligence artificielle au Limsi-CNRS. Quand on prend des personnes blanches qui sont en plan américain devant une caméra, on a un bon taux de performance. » Mais des biais persistent. Avec des personnes ridées, par exemple, ou de couleur, ce n’est déjà plus la même histoire. « Dès que vous avez quelqu’un d’un peu divergent : couleur de peau, âge, port de lunettes ou d’un chapeau… Qu’est-ce que ça donne ? », questionne la spécialiste d’IA. Pas grand-chose… On ne sait pas encore comment évaluer de façon suffisamment robuste ces systèmes.

« Les machines dépassent les capacités humaines »

La reconnaissance faciale s’est toutefois améliorée grâce aux progrès des capteurs, de l’intelligence artificielle, et grâce à la disponibilité de bases de données pour entraîner les algorithmes. La Chine, par exemple, a l’avantage des données. Le pays a aussi moins de restrictions pour les exploiter. De même, les Gafa disposent des plus grandes bases pour entraîner leurs algorithmes. Aujourd’hui, même lorsque les conditions sont difficiles (éclairage, angle de prise de vue, visage caché ou en mouvement), les dispositifs de reconnaissance faciale font de moins en moins d’erreurs. « Dans certains cas, les machines commencent même à dépasser les capacités humaines, pointe Jean-Luc Dugelay, professeur à Eurecom Sophia-Antipolis. Par exemple, on a montré que l’IA estimait mieux l’âge d’une personne qu’un humain. »

Alors pourquoi ne pourrait-elle pas déchiffrer les intentions des gens ? En 2018, Gérard Collomb, alors ministre de l’Intérieur, a proposé d’utiliser des caméras intelligentes – qui reposent sur des techniques de reconnaissance d’images – pour repérer des gens susceptibles de commettre des délits. « Il y a encore beaucoup de choses à prouver, mais on arrive, en tant qu’humain, à deviner les intentions de quelqu’un, on peut définir si une personne est souriante ou de mauvaise humeur, les machines peuvent faire la même chose », poursuit le chercheur en imagerie faciale. Pour cela, il faut travailler avec des bases annotées. C’est même le nerf de la guerre.

« Avec ces bases annotées sur les expressions faciales [des bases publiques de photos et d’extraits vidéos sur lesquels sont indiquées les expressions de façon à entraîner l’algorithme], on peut mesurer les performances d’une machine et les comparer à celles de l’humain, poursuit Jean-Luc Dugelay. En gros, on montre à l’intelligence artificielle un très grand nombre de photos ou d’extrait de vidéo et à chaque fois, on lui indique de quelle émotion il s’agit. Une fois qu’elle a été confrontée à un très grand nombre d’images, elle est capable d’identifier cette émotion. « A un moment, on lui montre une photo sans le résultat, et la machine prédit le résultat », détaille le spécialiste.

« Il y a des dérives évidentes de contrôle de la population »

Il faut toutefois se méfier des faux positifs. Il existe des logiciels, par exemple, qui cherchent à regarder si les gens dans le public portent un intérêt à ce qu’ils regardent. « Ils vont chercher tous les gens qui bougent, sauf que le public peut remuer d’agacement ou simplement pour manifester sa joie, prévient Laurence Devillers. Il suffit de bouger pour être considérés comme actifs », critique la chercheuse. Tout est mis dans le même panier. « A partir du moment où on est dans un domaine très prospectif, très aléatoire ou très confus sur lequel il n’y a pas de base de données bien annotées, il est difficile d’afficher les performances des algorithmes puisque, par définition, on ne peut pas les mesurer », ajoute Jean-Luc Dugelay.

Aujourd’hui, il est possible d’induire les technologies en erreur à l’aide de maquillage, de bijoux ou simplement en masquant une partie du visage avec des parapluies (comme les manifestants hongkongais). Les algorithmes sont de plus en plus performants, mais ils sont aussi plus faciles à déstabiliser. « Ils sont particulièrement sensibles à l’inattendu, comme à un maquillage », observe Jean-Luc Dugelay. C’est le paradoxe de l’intelligence artificielle. Demain, les machines pourraient reconnaître les gens dans des conditions compliquées, même si elles voient la moitié du visage par exemple. « On peut imaginer qu’elles sauront recueillir de plus en plus d’informations sur les personnes », envisage-t-il.


Retrouvez la rubrique Futur(s) ici

On voit bien où ça peut nous mener. Il suffit de regarder l’exemple de la Chine. « Il y a des dérives évidentes de contrôle de la population avec des répercussions drastiques, poursuit Laurence Devillers. Interdire aux gens de prendre l’avion ou empêcher leurs enfants de faire des études… C’est très manipulateur. » Mais tout n’est pas à jeter. Dans le domaine de la santé, la reconnaissance faciale peut, au contraire, s’avérer très utile (et pas seulement pour surveiller et punir). Elle permet de diagnostiquer des maladies graves, comme le syndrome d’Angelman, une pathologie rare causant un retard mental et généralement caractérisée par un front large, un visage triangulaire et une peau claire et ridée. Comme toute technologie, tout dépend de l’usage qui en est fait.