«Si un robot renverse une vieille dame, qui est le responsable?»
INTERVIEW•Le Parlement Européen a adopté un rapport visant à encadrer l’essor de la robotique et de l’intelligence artificielle. Arnaud Touati, avocat spécialiste des nouvelles technologies, revient pour «20 Minutes» sur les enjeux juridiques et éthiques de l’ère de l’IA…Annabelle Laurent
Asimov bientôt cité dans une loi européenne? Intégrer les lois de la robotique imaginées en 1942 («Un robot ne peut porter atteinte à un être humain»…) est en tout cas l’une des propositions du rapport de l’eurodéputée Mady Delvaux, soumis il y a plusieurs mois mais adopté le 12 janvier au Parlement européen. Au-delà d’Asimov, le rapport pose quantité de pistes, parmi lesquelles celle de la taxe robot – dont s’est inspiré Benoît Hamon - pour compenser la destruction inéluctable des emplois, ou encore celle d’une «personnalité juridique» pour les robots…
Le Parlement entend couvrir tout type de robots: «Les robots industriels, les robots de services (aspirateur, frigo intelligent), des robots pour la santé et la chirurgie, les drones, les voitures et l'intelligence artificielle». Pour l’instant, ce n’est qu’un rapport. Mais les recommandations sont destinées à la Commission européenne pour qu’elle prépare une directive en ce sens. S’il n’est pas question de faire des robots «des personnes comme les autres», comme s’en inquiètent certains, pourquoi est-il urgent d’encadrer juridiquement l’arrivée des robots et de l’ intelligence artificielle dans nos vies?
20 Minutes a profité d’une conférence donnée par Arnaud Touati, associé Fondateur du cabinet Alto Avocats, dédiée à l’IA et à son appropriation du langage naturel, pour solliciter son éclairage.
C’est l’une des questions centrales: quand un robot commet un dommage, est-il responsable? Le rapport pose la question d’une «responsabilité civile des robots», et préconise que les robots les plus sophistiqués et autonomes puissent être considérés «comme des personnes électroniques dotées de droits et de devoirs»...
Créer une personnalité juridique pour les robots présente à mon sens un avantage majeur : la mise en place d'un régime d'assurance obligatoire, inspiré de celui des automobiles, qui permettra de garantir un dédommagement, y compris en l'absence de couverture. La responsabilité de l’homme ne sera pas forcément écartée: plus le robot est sophistiqué, plus la responsabilité de son concepteur pourrait être engagée.
Mais l'idée d'une responsabilité civile des robots pourrait créer, d’abord et surtout, une forme de déresponsabilisation des acteurs, ceux qui conçoivent les robots et les algorithmes. Ensuite, à l’heure d’aujourd’hui, l’intelligence artificielle peut toujours être rattachée à l’humain. Cette responsabilité ne règle donc pas la question de savoir quel est l’humain vers lequel se retourner. Le rapport préconise d’engager la responsabilité du concepteur de l’algorithme. Si un robot renverse une vieille dame dans la rue, quid de la responsabilité éventuelle du constructeur? Si le robot avait été construit différemment, le coup aurait-il été aussi violent? Quid de celle de l’utilisateur ? Les questions restent en suspens.
On ne peut pas punir un robot… Comment peut-on concrètement imaginer des «droits et devoirs» pour des robots ou pour des intelligences artificielles, comme celle qui est aux manettes d’une Google Car par exemple?
C’est là qu’on entre un peu dans la science-fiction…. En dotant les robots d’une personnalité juridique fictionnelle, on ouvre une boîte de Pandore. On les soumet à des critères qui ne sont pas forcément tous adaptés : une naissance et une mort, une identité propre, un état civil qui pourrait prendre la forme d’une immatriculation, et des droits et des devoirs.
Techniquement, l’octroi d’une personnalité juridique au robot serait susceptible de lui permettre de soutenir une action en justice. Cela risquerait d’entraîner plus de difficultés que d’en résoudre. En matière de devoirs, le rapport se contente de mentionner comme unique devoir des robots celui de réparer tout dommage causé à un tiers. Nous ne savons donc pas en l’état quelle sera l’étendue de leurs devoirs.
A en croire votre conférence, vous estimez que le rapport s’attarde trop peu sur la question de la protection des données…
J’estime qu’il y a une problématique considérable de protection des données qui accompagne l’arrivée des robots et des assistants personnels [capables de nous comprendre, de nous répondre ou d’anticiper nos attentes grâce à l’intelligence artificielle]. Quand vous faites entrer une borne Amazon Echo chez vous, vous lui donnez accès à l’intérieur de votre maison, à ce qui s’y dit, comme l’a récemment démontré le fait-divers d’une borne témoin d’un meurtre. Un règlement européen a été récemment adopté sur le sujet de la collecte des données par les objets connectés, mais sa mise en œuvre effective a été reportée à 2018. A mon sens, nous devrions exiger que les données collectées en Europe soient exclusivement stockées sur des serveurs européens pour plus de contrôle et de sécurité, à l’image de ce qui se fait en Russie.
Que pensez-vous du code de bonne conduite que plaide le rapport en citant les lois d’Asimov, pour s’assurer que les robots seront bien au service de l’homme?
C’est une initiative louable, mais il faut voir si c’est un outil juridiquement contraignant pour les intervenants. Si ce n’est qu’une déclaration d’intention pour se donner bonne conscience… Google, par exemple, inclut déjà les lois d’Asimov dans son code source. Ce qu’il faut noter, c’est que les plus alarmistes sur l’IA (Bill Gates, Steve Wozniak…) sont ceux qui travaillent le plus dessus. Le Parlement se réveille enfin, et c’est une excellente nouvelle. Les robots, c’est la réalité d’aujourd’hui et surtout celle de demain. Je pense que les pouvoirs publics n’ont pas encore pris conscience du bouleversement sociétal vers lequel nous nous dirigeons. Or ce changement de paradigme va arriver extrêmement rapidement et il est indispensable de créer en amont un cadre juridique et éthique contraignant.