Thales appelle à interdire les «robots tueurs» équipés d'intelligence artificielle
INTELLIGENCE ARTIFICIELLE•Le PDG du groupe technologique français craint que l’intelligence artificielle soit utilisée pour créer des « robots tueurs » capables d’assassiner des groupes de population en particulier…N.Sa avec AFP
La réalité pourrait bientôt rattraper la fiction. Face au développement rapide de l'intelligence artificielle (IA), il est urgent que la communauté internationale se dote d’un cadre réglementaire fort pour proscrire la création de « robots tueurs » autonomes, a plaidé jeudi le PDG du groupe technologique français Thales, Patrice Caine.
« Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous » en ce qui concerne l’application de l’IA au domaine de l’armement, a fait valoir Patrice Caine.
Un laboratoire spécialisé dans l’IA à Monrtréal
« C’est vrai qu’il y a des discussions sur ce sujet là aux Nations unies » et que « globalement il y a une volonté, mais ça prend du temps », a-t-il relevé à l’occasion de la présentation à la presse du laboratoire de Thales spécialisé dans l’intelligence artificielle, à Montréal. « C’est le moment d’avancer », a insisté le patron français, estimant que cette question faisait « consensus pour tous les grands pays occidentaux démocratiques. »
Thales a ouvert il y a un an un laboratoire employant 50 ingénieurs spécialisés en IA au coeur de la métropole québécoise, dans un quartier où affluent grandes entreprises, chercheurs et startups travaillant sur cette haute technologie reposant sur l’exploitation de multiples données par des algorithmes puissants.
Un enjeu pour les armées
Aux côtés de Patrice Caine, Yoshua Bengio, pionnier canadien de l’IA, a appuyé cet appel pour un cadre réglementaire clair. « Il y a deux aspects à considérer à propos des armes létales autonomes, qu’on surnomme les "robots tueurs" et qui n’ont rien d’un film mais constituent au contraire un enjeu actuel pour les armées : il y a l’aspect moral et l’aspect sécuritaire », a fait valoir le chercheur, fondateur de l’institut de recherche Mila (Montreal Institute for Learning Algorithms).
D’un côté, « les machines ne comprennent pas et ne comprendront pas dans un futur proche, le contexte moral », a dit Yoshua Bengio. Et de l’autre, « si ces armes deviennent faciles à acheter car beaucoup d’entreprises en fabriquent, pensez aux drones construits avec des armes et de la détection faciale : vous aurez alors des assassinats ciblés visant des groupes de population en particulier », a-t-il mis en garde.
La reconnaissance faciale, « jamais à l’échelle d’un pays »
Pour toutes ces raisons, Thales a tranché et « n’appliquera pas l’IA dans tout ce qui est létal (même) si les clients le demandent », a affirmé son PDG, refusant de « donner de l’autonomie à un système d’armes pour que de lui-même il puisse décider de tuer ou pas ».
La reconnaissance faciale consiste à utiliser l’IA pour identifier automatiquement des gens. « On utilise ces technologies pour des applications de sécurité : pour un port, un aéroport, et autres infrastructures critiques », mais « jamais » Thales ne les a utilisées « à l’échelle d’un pays », a assuré Patrice Caine. Des enquêtes, non confirmées officiellement, ont affirmé par le passé que certains pays, dont la Chine, utilisent ces technologies pour surveiller en permanence leur population.