Est-on enfin prêt à discuter avec un assistant vocal non genré?

Intelligence artificielle: Est-on enfin prêt à discuter avec un assistant vocal non genré?

GENDER FLUIDUne voix virtuelle neutre surnommée Q a été présentée lundi au Festival SXSW
Laure Beaudonnet

L.Be.

L'essentiel

  • Pour répondre aux stéréotypes sexistes dans le monde du numérique, des chercheurs danois ont mis au point Q, une voix virtuelle non genrée.
  • En 2017, les assistants intelligents avaient été très critiqués. Non seulement ils reproduisaient les biais sexistes de la société, mais ils étaient programmés pour répondre au harcèlement sexuel en flirtant.
  • L’équipe de développeurs espère que la voix non-genrée sera adoptée par les géants du numérique.

Les assistants vocaux vont-ils enfin dépasser les stéréotypes de genre ? En 2017, une enquête de Quartz dévoilait l’ampleur du sexisme dans le numérique et, notamment, chez les assistants intelligents les plus utilisés (Siri d'Apple, Cortana de Microsoft, Alexa d'Amazon). Ces intelligences artificielles étaient programmées – majoritairement par des « mâles blancs » – pour répondre au harcèlement sexuel en flirtant. Leurs voix avaient été développées pour être féminines, forcément. « Il est plus simple de donner un ordre à une femme », a-t-on observé chez Cap digital, qui a organisé la conférence La belle et le bot début 2017. Et quand on les insultait, elles ne voyaient pas (ou peu) le problème.

Depuis deux ans et cette prise de conscience, les assistants virtuels ont cherché à évoluer, corrigeant leurs défauts les plus problématiques. Ils ont notamment proposé des voix masculines et arrêté d’entrer dans des jeux de séduction. Le chemin reste long mais une nouvelle étape a été franchie cette semaine.

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

Des stéréotypes de genre dommageables

Des chercheurs danois du collectif Equal AI en collaboration avec l’agence créative Virtue ont développé une voix non genrée, surnommée Q, a repéréThe Sidney Morning Herald. La situation actuelle, où l’assistant propose seulement une voix masculine ou féminine, « perpétue des stéréotypes de genre dommageables, exclut les personnes non binaires et fait reculer la progression du monde sur la perception du genre », précise le communiqué de Virtue relayé par Radio-Canada.

Présentée en début de semaine au festival South by Southwest (SXSW) au Texas, elle a été « créée pour aider à mettre fin aux biais sexistes et favoriser une plus grande inclusion dans la technologie des assistants vocaux », explique encore le communiqué. Plusieurs personnes qui s’identifient comme non binaires (dont l’identité de genre n’est ni homme ni femme) ont prêté leur voix pour développer Q. Derrière ce projet, une idée : mener les Gafa à adopter cette voix.

Un changement de mentalité ?

En février 2018, Isabelle Collet, maîtresse d’enseignement et de recherche en sciences de l’éducation, spécialiste des questions de genre, expliquait à 20 Minutes pourquoi une telle voix avait tardé à être créée. « A partir du moment où on développe un être humanoïde, ne pas pouvoir déterminer quel est le sexe de cet être crée un malaise pour l’interlocuteur. Imaginez que vous ne soyez pas capable de déterminer si la personne qui vous vend du pain dans une boulangerie est un homme ou une femme, en soi cela n’a pas d’importance, mais pendant toute l’interaction vous serez mal à l’aise. » Les avatars en forme d’animaux, ou de trombone, comme chez Microsoft, ont souvent permis de contourner le problème.

Si connaître le genre d’un interlocuteur est un marqueur fort de l’Occident du XXIe siècle, Q semble prouver que les mentalités sont prêtes à changer. « Sous l’Ancien Régime, il importait, par exemple, de connaître le statut social avant d’échanger avec une autre personne » a noté la chercheuse avant de préciser que, pendant la ségrégation aux Etats-Unis, il fallait connaître la race de son interlocuteur pour interagir avec quelqu’un, et l’importance accordée à cette question ne s’arrêtait pas à la couleur des individus. Selon la règle d’une seule goutte de sang («one-drop rule») imposée par la société esclavagiste et ségrégationniste américaine, toute personne ayant un ancêtre noir était considérée comme noire.