Cadre | Interview
La nécessité d'une alliance pour gommer les résistances
Valérie Chavanne, avocate, fondatrice de LegalUP Consulting, partage sa vision des questions éthiques et sociales que posent l'intelligence artificielle à la quelle réagit Guy Mamou-Mani, co-président d’Open, en lui répondant. Tous les deux sont membres de La villa numeris
L’intelligence artificielle (IA) est aujourd’hui incontestablement à la mode : ce terme est dans toutes les bouches, mis en avant par des entreprises soucieuses de présenter leur produit comme futuriste et révolutionnaire. L’omniprésence du concept n’est pas sans être accompagnée d’une certaine confusion quant à ce que recouvre précisément l’intelligence artificielle, c’est pourquoi il est probablement raisonnable de commencer par en donner une rapide définition.
De manière très générale, Marvin Lee Minsky définit l’intelligence artificielle comme « la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau ».
La méthode de développement de tels programmes “intelligents” repose sur des techniques dites de machine learning. La programmation classique consiste à fournir à la machine une suite d'instructions, que cette dernière exécutera automatiquement. Le machine learning se distingue de la programmation classique en ce que le programmeur n’aura pas à expliciter lui-même toutes les étapes que la machine devra exécuter : il se contentera de fournir à la machine une très grande quantité d’exemples de la tâche à accomplir, jusqu’à ce qu’elle soit capable elle-même d’en inférer le comportement qu’elle devra adopter pour exécuter cette tâche. Une telle méthode permet de faire exécuter à la machine des tâches extrêmement complexes, difficiles voire impossibles à programmer de manière classique.
Il n’est donc pas étonnant que l’intelligence artificielle ait connu ces dernières années un développement fulgurant : des quantités de données de plus en plus importantes sont désormais à la disposition des programmes d’intelligence artificielle, leur permettant d’atteindre une performance et une pertinence accrue. De la recommandation de produits aux clients à la police prédictive, en passant par le pilotage automatique d’automobiles, la délégation de tâches de plus en plus critiques à des systèmes d’intelligence artificielle pourtant de plus en plus autonomes s’est inévitablement accompagnée de questions sociales et éthiques majeures. Une attention publique encore amplifiée par les dérives que certains algorithmes ont pu engendrer (APB, Cambridge Analytica, Clearview AI notamment).
Des questions éthiques et sociales cruciales
Les préoccupations sociales et éthiques liées à l’intelligence artificielle commencent aujourd’hui à se dessiner assez clairement, et peuvent globalement être regroupées en 5 thématiques principales :
1 - L’autonomie des machines et la question de la responsabilité
L’efficacité croissante des programmes d’intelligence artificielle permet une délégation accrue de tâches ou de décisions de plus en plus critiques à des machines. De tels systèmes ne sont pourtant pas infaillibles. Que faire en cas d’erreur, d’imprécision, ou de contestation d’une décision prise intégralement par une machine, ou prise sur la base d’indications de la machine ? N’y a-t-il pas là, dans la naissance de systèmes algorithmiques segmentés et complexes, un phénomène de dilution de la responsabilité, auquel il faudra apporter une réponse pour permettre aux personnes concernées de contester de potentielles erreurs ?
2 - Les effets discriminatoires des algorithmes
Cet enjeu a été très clairement identifié dès les balbutiements de l’intelligence artificielle : les algorithmes d’IA ne sont finalement que le reflet des données qu’on leur fournit, et ces données, issues de notre vie et de nos interactions sociales, comportent inévitablement les biais et discriminations actuellement présents au sein de nos sociétés. Dans de telles conditions, l’intelligence artificielle pourrait tout à fait devenir un outil extrêmement puissant de reproduction voire de renforcement des discriminations sociales, que nous souhaitons justement combattre.
3 - L’opacité algorithmique de l’IA et son contrôle
Une grande partie des considérations éthiques soulevées par l’IA tiennent à l’opacité de ces technologies. Dû à leur complexité, il est en effet souvent très difficile d’expliquer les décisions ou les comportements des programmes d’intelligence artificielle. Ceci pose premièrement un challenge crucial en termes d'acceptabilité sociale : comment accepter de se soumettre à une décision dont les motivations nous sont définitivement inaccessibles ? Un second challenge posé par l’opacité de l’IA concerne son contrôle : comment contrôler des algorithmes dont l’explicabilité est extrêmement restreinte ?
4 - L’IA et les données : un équilibre à trouver ?
L'intelligence artificielle se nourrit d’énormes quantités de données. Dans ce cadre, un enjeu évident existe autour de protection des données personnelles et de la vie privée : comment permettre le perfectionnement de l’intelligence artificielle tout en continuant de protéger les données personnelles des personnes concernées ?
5 - L’identité humaine face à l’IA
Ce dernier enjeu est probablement moins pressant ou pratique. L’IA soulève cependant des questions essentielles relatives à la “particularité humaine” : une telle particularité se voit questionnée par l’autonomie grandissante des machines, et suscite des interrogations légitimes, qui étaient auparavant limitées aux œuvres de science-fiction : qu’est-ce que la conscience ? Peut-on la reproduire sous forme binaire ? La transférer ?
Un cadre juridique encore prudent
Il n’existe aujourd’hui pas à proprement parler de “droit de l’intelligence artificielle”, spécifique à cette technologie. L’intelligence artificielle n’est cependant pas développée dans un monde sans loi, et un ensemble de règles contraignantes aux échelles européenne, nationales ou internationale sont déjà pertinentes pour réguler la mise au point et le déploiement de solutions d’intelligence artificielle, et répondre (parfois encore partiellement) à certains des enjeux que nous avons évoqués ci-dessus.
Nous pourrions par exemple penser au droit à la non-discrimination, qui est un droit disposant d’une implémentation textuelle très extensive (Charte des Droits Fondamentaux de l’Union Européenne, articles 225-1 et suivants du Code Pénal français par exemple). L’enjeu en termes de biais discriminatoires de l’IA n’est donc pas simplement éthique, il est également légal.
Nous pourrions également citer bien sûr le Règlement Général sur la Protection des Données (RGPD) qui encadre aujourd’hui les traitements de données à caractère personnel, tout comme la loi Informatique et Libertés à l’échelle nationale française.
Nous pourrions encore penser à la directive européenne “Machines”, la directive sur la responsabilité du fait des produits, les directives relatives à la protection des consommateurs, à la sécurité et à la santé au travail, mais aussi aux différents traités en matière de droits de l’homme, qu’ils soient européens ou internationaux.
Et, au-delà de ces textes transversaux, il existe différentes règles pertinentes relatives à des secteurs spécifiques, qui concernent donc plus particulièrement certains types d’IA comme le règlement relatif aux dispositifs médicaux dans le secteur des soins de santé.
Cette liste (non-exhaustive) vise simplement à montrer que de multiples outils législatifs actuels permettent un certain encadrement de l’utilisation de l’intelligence artificielle, qui est loin d’opérer en dehors du droit.
Il peut sembler malgré tout qu’un ensemble cohérent de règles spécifiques à l’IA commence aujourd’hui à manquer à notre système juridique. Fin 2019, la Commission européenne a publié des lignes directrices en matière d’éthique pour une IA digne de confiance, qui n’ont cependant pas de valeur juridique contraignante, et visent simplement à fournir un certain nombre d’outils conceptuels et pratiques aux entreprises qui le souhaitent pour développer des algorithmes d’intelligence artificielle.
De manière plus significative, la Commission a publié le 21 avril 2021 une proposition de règlement européen portant précisément sur l’Intelligence Artificielle. Ce texte reste encore aujourd’hui une simple proposition : il faut désormais qu’elle soit adoptée par le Parlement Européen, puis par les États Membres au travers du Conseil Européen, qui pourront apporter des modifications au texte proposé par le biais d’amendements lors de leurs échanges et débats publics. Une fois adopté, ce règlement pourra constituer la fondation d’un cadre juridique européen cohérent et uniforme sur le sujet, d’autant plus que sa mise en œuvre serait facilitée par l’instauration d’un comité européen de l’intelligence artificielle, prévu dans ce même texte.
Remarquons enfin que le droit ne fera pas tout en matière d’éthique et d’intelligence artificielle : certaines problématiques sortiront inévitablement de la sphère juridique. S’agissant des algorithmes de recommandation, pouvant mener à conforter, mais aussi enfermer l’utilisateur dans une vision unique d’un monde pourtant complexe, les programmeurs doivent-ils œuvrer pour le pluralisme ? Le choix d’un candidat pour une offre d’embauche doit-il être déterminé uniquement ou majoritairement par les compétences certifiées par les établissements scolaires ou universitaires?
Valérie Chavanne
:: Pour aller plus loin
- L'interview de Guy Mamou-Mani >> Lire
- Les profils de Valérie Chavanne et de Guy Mamou-Mani