Faut-il avoir peur des robots tueurs?
DECRYPTAGE•Le fait de laisser une machine choisir sa cible et tirer préoccupe la communauté internationale qui planche sur le sujet cette semaine à l'ONU...Bérénice Dubuc
Des robots qui sélectionnent et attaquent leur cible sans aucune intervention humaine. Ces «robots tueurs» ou «robots létaux autonomes» (RLA) ne relèvent plus de la science-fiction. Si leur construction n’a pas encore commencé, la technologie existe déjà et soulève de nombreuses questions abordées cette semaine lors d’une réunion multilatérale de l’ONU à Genève.
«Un système qui se déclenche sans qu’un homme décide s’il faut le faire, ça existe depuis très longtemps», explique Simon Lacroix, roboticien et chercheur au CNRS, citant les mines ou même les pièges, qui se déclenchent quand ils détectent un poids. «Les missiles de croisière, les bombes “intelligentes“… sont aussi des armes avec un certain degré d’autonomie, qui ne décident pas de la cible finale, mais de la manière de l’atteindre», confirme Raja Chatila, directeur de l’Institut des Systèmes Intelligents et Robotiques.
Sans parler des drones, robots démineurs et de combat -déjà déployés sur les terrains d’opérations militaires- contrôlés à distance, mais dont la «fonction feu» pourrait bientôt se faire de façon autonome. «Techniquement, il est déjà possible qu’une machine détecte un point chaud pour déclencher un tir. Certains de ces robots sont même déjà déployés à la frontière entre les deux Corées», reprend Simon Lacroix.
« #Iran unveiled new armored vehicles, including a machine gun equipped robot. pic.twitter.com/ofhyyKLgog — Sadegh Ghorbani (@GhorbaniSadegh) April 15, 2015 »
Questions éthiques et juridiques
Car l’envoi de machines sur le champ de bataille permet d’éviter les tâches «DDD» («dirty»-sale- «dull»-sans intérêt- et «dangerous»-dangereux). Si le coût militaire de ce type de technologie est très élevé, il n’est rien comparé à celui d’un militaire, et au coût moral d’une perte humaine. De plus, «certains considèrent que donner de l’autonomie à une arme peut être bénéfique si elle est plus efficace pour atteindre une cible sans faire de victimes collatérales ou de dégâts sur les populations civiles», rappelle Raja Chatila.
Mais les RLA soulèvent des questions éthiques et juridiques: est-il légal/moral de laisser à des robots machine -dont les concepteurs ne peuvent garantir à 100% qu’ils tireront sans se tromper- la décision de tuer un homme? Comment adapter les lois internationales de la guerre pour les encadrer? Doit-on arrêter la recherche en la matière par précaution?
Certains considèrent, comme le spécialiste de la robotique Ronald Arkin que la solution serait d’implanter dans les RLA des «logiciels éthiques» reprenant les normes internationales en vigueur pour s’assurer qu’ils les respectent strictement. «La machine n’a pas d’interprétation globale et évolutive, pas d’empathie ni de conscience des conséquences de ses actes. Elle commettra plus d’erreurs qu’un homme. Par ailleurs, ces systèmes étant voués à se diffuser, ils pourront tomber entre des mains faisant peu de cas d’un usage éthique et moral», répond Raja Chatila.
Moratoire
Certains, comme Human Rights Watch (HRW) ou Amnesty International prônent donc «une interdiction préventive de la mise au point, de la fabrication et de l'utilisation des armes entièrement autonomes». HRW a ainsi publié la semaine dernière un rapport pointant le manque de responsabilité juridique pour les RLA.
Un faux débat, selon Raja Chatila. «Aujourd’hui, dans un crash d’avion par exemple, il y a toujours une entité humaine (constructeur, concepteur du système, pilote, exploitant, maintenance…) vers qui se tourner. Pour les RLA, on pourra enquêter de la même façon pour définir si la responsabilité revient à celui qui a appuyé sur le bouton pour envoyer le robot, à celui qui a défini la cible, configuré et construit la machine…»
Ce spécialiste craint qu’un moratoire trop en amont n’entrave les progrès que peut apporter la recherche. «La robotique est encore un secteur balbutiant. Certaines applications bien particulières et ciblées fonctionnent, mais il ne faut pas projeter nos fantasmes collectifs. On n’en est pas à Terminator.»