Twitter : Son intelligence artificielle favorisait les photos de femmes « jeunes, fines et blanches »
DISCRIMINATION•Pendant une semaine, Twitter a lancé un défi à ses utilisateurs afin de déterminer les mauvaises pratiques de son intelligence artificielle20 minutes avec agence
Twitter a lancé un défi à ses utilisateurs pour déterminer les mauvaises pratiques de son intelligence artificielle et celui-ci a porté ses fruits. Le concours, qui s’est déroulé du 30 juillet au 7 août 2021, était notamment destiné à repérer les choix racistes, homophobes ou grossophobes de ses algorithmes. Ainsi, le gagnant du premier prix a notamment ciblé le fonctionnement discriminant de l’outil de recadrage automatique des photos du réseau social, rapporte Wired.
Bogdan Kulynych, étudiant en cybersécurité en Suisse, a utilisé la technologie du deepfake pour créer un grand nombre de visages différents. Il a ensuite constaté que la fonctionnalité qui choisit la partie de l’image apparaissant dans le fil d’actualité montrait une préférence pour les femmes blanches, jeunes et minces. En réalité, cette conclusion n’est que le reflet du parti pris déjà existant chez certains utilisateurs du réseau social, selon une des jurées du concours.
Un outil discriminant envers les émojis à la couleur de peau foncée
Les actions et les informations qu’ont fournies les internautes ont en effet été utilisées pour alimenter le système d’apprentissage automatique de l’outil, a affirmé Ariel Herbert-Voss, chercheuse en cybersécurité. « En gros, plus une image montre quelqu’un se rapprochant d’une femme mince et jeune, plus elle sera mise en avant », a résumé le spécialiste en intelligence artificielle Patrick Hall, lui aussi membre du jury du concours.
En outre, les situations pointées du doigt par les participants au concours de Twitter ont montré l’efficacité et la justesse du travail des intervenants extérieurs. Plusieurs spécialistes des algorithmes ont d’ailleurs estimé qu’il pourrait être utile dans le futur de laisser ce type de personnes étudier les systèmes d’intelligence artificielle afin d’en repérer les fonctionnements indésirables.
Des mauvaises pratiques pourraient ainsi être détectées et supprimées avant même d’avoir généré des résultats ou des actions dommageables. Dans le cadre de ce défi, Twitter avait rendu accessible le code de son outil d’auto-recadrage de photo. D’autres participants ont prouvé que son algorithme préférait l’alphabet latin à l’arabe et discriminait les personnes aux cheveux bancs, ainsi que les émojis à la couleur de peau foncée.