ROBOTSEn Chine, des chatbots anticommunistes et démocrates ont été bannis du Web

En Chine, des chatbots anticommunistes et démocrates ont été bannis du Web

ROBOTSLa phrase «La démocratie est un must» est très mal passée auprès des autorités chinoises...
Lucie Bras

L.Br.

L'essentiel

  • Deux robots conversationnels ont critiqué le Parti communiste en Chine.
  • Ces conversations, très partagées sur internet, n’ont pas du tout plu aux autorités chinoises.

Les robots sont-ils nuls en politique ? En Chine, des chatbots, ces robots avec qui l’on peut discuter sur des applications de messagerie, ont été retirés du Web après avoir critiqué le régime communiste chinois.

« Aimes-tu le Parti communiste ? » « Non », a répondu le chatbot nommé BabyQ, créé par l’entreprise chinoise Turing Robot. Cette réponse teintée d’insolence, publiée sur Weibo, le Twitter chinois, n’a pas du tout plu aux autorités chinoises. D’autant plus que ce n’est pas son seul faux pas, raconte The Telegraph. Quand un internaute lui a envoyé « Longue vie au parti communiste », BabyQ, décidément d’humeur taquine, a répondu : « Penses-tu vraiment qu’une politique si corrompue et inapte puisse durer longtemps ? » Prends ça, Parti communiste chinois. Une dernière pour la route : quand on demande au chatbot ce qu’il pense de la démocratie, le robot répond : « la démocratie, c’est un must ! » Quand ça veut pas…

Le rêve américain

BabyQ n’est pas le seul robot conversationnel à poser problème. La réponse du chatbot de Microsoft, XiaoBing à la question « Quel est ton rêve chinois ? » a fait réagir sur les réseaux sociaux. Cette question reprend l’un des mantras du président Xi Jinping, le « rêve chinois », pour faire prospérer le parti communiste en Chine. XiaoBing a répondu : « Mon rêve chinois est d’aller en Amérique. »



Humour ou manque de patriotisme ? Après le buzz de ces réponses sur les réseaux sociaux, le couperet est tombé très rapidement. Depuis ce mardi, ces deux chatbots ont été retirés de l’application de messagerie QQ. L’entreprise Tencent, qui gère ces services, a expliqué être en train d'« ajuster » ces chatbots, pour les remettre en ligne « après quelques améliorations ».



Il est difficile de savoir d’où viennent ces idées chez des robots mais il est probable qu’elles viennent des utilisateurs eux-mêmes, estime le site The Verge. En 2016, quand le robot conversationnel Tay, mis en ligne par Microsoft, exprimait des points de vue racistes et antisémites, la compagnie avait découvert que la machine « apprenait » en partie des réponses des utilisateurs.