Un droit pour les robots ?

Un droit pour les robots ?

#DigiLex Compte rendu du rendez-vous du 4 juillet 2018

Quel droit pour l'Intelligence Artificielle ?

La villa numeris, en partenariat avec La Croix, consacrait la dernière édition de la saison du rendez-vous #DigiLex, l’observatoire des enjeux législatifs de la transformation digitale de notre société, à la reconnaissance de la personnalité morale de l’intelligence artificielle.

Entre mythes et fantasmes, les robots font couler beaucoup d’encre et ne cessent d’interroger. Alors que « les hommes ont un droit, que les entreprises ont un droit en tant que personnalité morale, que les animaux ont un droit de plus en plus affirmé », rappelle David Lacombled, président de La villa numeris, qu’en est-il à présent pour les robots ? Il convient tout d’abord de délimiter ce que l’on entend par robot. « C’est un objet qui se meut dans notre univers en 3D. Il embarque différents systèmes d’intelligence artificielle » explique Laurence Devillers, professeure à l’université Paris-Sorbonne et chercheuse au CNRS, auteure de l'essai Des robots et des hommes (Plon).

« Le droit, dont nous avons hérité, fait la distinction entre l’objet et le sujet » rappelle Jonas Haddad, avocat, fondateur d’ALTO Avocats, cabinet dédié à l’accompagnement des start-ups et des entreprises. Il explique ainsi que « si le robot  a la capacité à se mouvoir, il n’est pas dans la catégorie ‘objet’ ». Ce n’est pas pour autant qu’il s’inscrira dans la catégorie ‘sujet’ car « le robot n’a pas d’intentionnalité » souligne l’avocat. Il suggère un « régime de droit entre le sujet et l’objet ». Laurence Devillers considère, elle, qu’il y a bien une intentionnalité de la personne qui a conçu la machine. « La machine : ce n’est pas un enfant.».

« Le droit vole en éclat en matière de responsabilité et de propriété intellectuelle » souligne David Lacombled. Pour Jonas Haddad, « la traçabilité est importante ». Laurence Devillers évoque la coresponsabilité ou « responsabilité en cascade » en citant notamment : le concepteur de système, l’entraîneur, le vérificateur, la société qui le commercialise ou encore l’utilisateur. « Derrière la question de la responsabilité, se pose celle du degré de risque acceptable que l’on tolère des robots » souligne Loup Besmond de Senneville, journaliste, chef de la rubrique, bioéthique du quotidien La Croix. Aussi, il convient de s’interroger comme le relève Jonas Haddad, « accepterons-nous les erreurs de l’intelligence artificielle liées à la programmation humaine ? »

Le rôle clé de l’éthique

« L’intelligence artificielle est au cœur de process extraordinaires de défense et de construction de la ville » note le sénateur Jérôme Bignon. Au regard de sa place de plus en plus grande dans la société, il convient de l’interroger. « Se pose la question éthique »  rappelle Laurence Devillers.

Il convient de faire évoluer notre grille de lecture. « C’est un sujet qui est vu à travers un angle technique, technologique, performatif mais peu sur la réflexion éthique » soulève Loup Besmond de Senneville. Aussi, le chef de rubrique du quotidien La Croix évoque le rapport remis en mars 2018 par le député et mathématicien Cédric Villani prônant l’instauration d’un comité éthique pour les technologies numériques et l'intelligence artificielle.

De l’importance des garde-fous. Membre de commissions sur l’éthique de la recherche, Laurence Devillers insiste sur l’importance d’avoir des « garde-fous » et rappelle que l’IA « n’est pas un outil ni un marteau. Elle va modifier nos comportements ».

L’humain et le robot à dissocier

« Il ne faut pas penser les robots comme de nouveaux humains » prévient Laurence Devillers. Pour elle, il est clé de ne pas réduire l’humanité  « à des performances de mémoire, de mécanique ». « Il faut que les décisions restent humaines » ajoute-t-elle. Dès lors, la robotisation des humains est un prisme à éviter absolument. « Ce serait changer nos comportements en essayant d’être compris par la machine. Ce serait une standardisation sans culture ». Les robots ne sont pas dotés d’une super intelligence.

Autre sujet clé à explorer : l’enjeu de l’environnement. Le coût énergétique que représente l’intelligence artificielle est conséquent. Ainsi, le sénateur Jérôme Bignon note que « la blockchain représente 5% de l’électricité française ».

Il convient, dès lors, de maintenir une frontière « avec l’artefact » comme le rappelle Laurence Devillers afin de continuer à garder une perspective sur ces enjeux et impacts liés à l’intelligence artificielle. 

::  Notre partenaire

Ce débat était organisé en partenariat avec La Croix