Éthique et intelligence artificielle

Cadre | Interview

Une alliance pour gommer les résistances

Soutenant une vision positive de l’innovation sans tomber dans l’angélisme, Guy Mamou-Mani souhaite favoriser un développement économique lié aux évolutions technologiques, dans un cadre permettant d’éviter les écueils qui peuvent y être liés

Très engagé dans les thématiques touchant au numérique et à la donnée, co-président d’Open, l’une des principales ESN françaises, Guy Mamou-Mani a  notamment occupé le poste de président de Syntec Numérique de 2010 à 2016 puis celui de vice-président du Conseil National du Numérique de février 2016 à octobre 2017. Il répond aux questions de Valérie Chavanne, avocate, fondatrice de LegalUP Consulting.

Valérie Chavanne : Pourquoi avoir choisi ce sujet ? En quoi est-il aujourd’hui crucial de réfléchir aux questions d’éthique et d’intelligence artificielle ?

Guy Mamou-Mani : Parce que je suis profondément convaincu que nous sommes à un point charnière de l’histoire de l’humanité. Les évolutions technologiques fulgurantes de ces dernières années nous mettent devant un choix que nous ne pouvons aujourd’hui plus repousser : de quel monde veut-on  S’agit-il d’essayer de répliquer le “monde d’avant”, d’adapter des technologies nouvelles aux modèles déjà existants ? Mais est-ce vraiment souhaitable voire possible ? 

Ou au contraire, s’agit-il d'embrasser ces évolutions technologiques pour en exploiter le potentiel, tout en les encadrant et en les régulant pour éviter les potentielles dérives qui peuvent en être issues ? Ma position est bien sûr plus proche de cette seconde proposition : n’ayons pas peur de ces révolutions mais ne restons pas les bras croisés. Nous disposons aujourd’hui de quelques années, disons 5 ans, pour réinventer complètement la société dans laquelle nous allons vivre.

VC : Avant d’entrer véritablement dans le vif du sujet, et dans la relation qu’entretiennent l’éthique et l’intelligence artificielle, peut-être est-il important de définir l’IA, une notion parfois floue pour beaucoup de personnes. Qu’en pensez-vous ?

GMM : Il y a en effet beaucoup de confusions et d’abus de langage dans la définition même de l’intelligence artificielle. Il s’agit, d’après ma compréhension, de la programmation algorithmique qui permet de répliquer les raisonnements humains, ou au moins de s’en approcher au maximum. Il s’agit de faire reproduire à la machine un comportement élaboré, de manière de plus en plus précise, comme une machine qui joue aux échecs, et améliore son jeu à chaque partie. Je vois en réalité 2 types d’IA :

  • Une IA que je qualifierais de "réaliste", et qui est le fruit du développement puis de l’enrichissement d’un programme informatique par le traitement de milliers et de milliers d’exemples de la tâche que ce programme est censé accomplir, un phénomène communément appelé deep learning. Le point positif de cette IA est qu’elle permet d’assister l’homme et d’en augmenter sa performance mais sans le remplacer.
  • Une seconde IA, qu’on appelle une IA “forte”, relève plutôt de la science-fiction. Il s’agirait d’un programme autonome, capable de prendre des décisions sans l’homme, et dont l’encadrement a par exemple été pensé par Isaac Asimov.

Quand nous parlons aujourd’hui d’intelligence artificielle, nous désignons la première forme “réaliste”, la seconde relevant encore de la fiction.

Les principaux enjeux éthiques de l’IA

VC : Quelles sont pour vous les principales questions éthiques posées par l’IA ? Est-ce plutôt son potentiel discriminatoire ? La possibilité d'erreurs sur des sujets pourtant cruciaux ? Son impact sur la vie privée ? Autre chose ?

GMM : Toutes les questions que vous avez mentionnées se posent effectivement. Elles ne sont, bien entendu, pas nouvelles : nous n’avons pas attendu l’IA pour nous questionner sur la construction du monde de demain, pour voir naître des désaccords, ou de terribles abus.

Certes, l’IA dans le domaine de la reconnaissance faciale permet à la Chine la surveillance généralisée de sa population, et un système de crédit social aux implications extrêmement graves. La Chine, cependant, n’a pas attendu l’IA pour être une dictature restreignant fortement les droits de sa population.

Ne donnons donc pas à l’IA un pouvoir qu’elle n’a pas : les questions éthiques et sociales qu’elle soulève ne sont pas d’une nature nouvelle, elles font écho à des problématiques déjà anciennes. Il est cependant vrai qu’elles sont aujourd’hui extrêmement amplifiées par les possibilités offertes par les progrès technologiques. La puissance de l’IA donne à des questionnements éthiques déjà anciens une urgence inédite !

Concernant la problématique des biais discriminatoires, il faut bien être conscient que la plupart du temps, les algorithmes d’intelligence artificielle eux-mêmes ne sont pas à l’origine de tels biais : il s’agit des données qui leur sont fournies, qui comportent les biais discriminatoires actuellement présents dans nos sociétés, et que l’intelligence artificielle ne fait que refléter. L’enjeu de l’impact discriminatoire de l’IA n’est donc pas propre à la technologie en elle-même : il s’agit d’un problème social plus large que l’IA ne fait que mettre en lumière, et qu’il faut donc d’abord résoudre à l’échelle de nos sociétés.

VC : Les avantages de l’IA valent-elles les risques qu’elle présente ? Autrement dit, l’IA vaut-elle la peine de prendre certains risques en termes éthiques au vu de ce qu’elle permet de faire, ou est-ce un risque disproportionné ? L’IA est-elle un effet de mode dangereux, ou un véritable investissement dans le futur ?

GMM : Il est clair que ce n’est pas le numérique ou l’intelligence artificielle qui, en soi, sont diaboliques. Il s’agit d’outils, et comme tous les outils, ils peuvent s’avérer extrêmement utiles si on en fait bon usage et, à contrario, dangereux en cas de mauvais usage.

Certains pays, certains acteurs peuvent potentiellement avoir un usage qualifiable de  dangereux de l’intelligence artificielle, et on pense directement à la Chine. Est-ce cependant pour cela qu’il faudrait militer pour l’interdiction totale de l’IA, ou contre tout progrès dans ce domaine ? La rejeter en bloc ? Ou même au contraire, renoncer à toute régulation ou à tout encadrement éthique afin de rester d’un point de vue technique au niveau des autres pays, dans une course, qui prendrait alors des allures de course au pire ?

La puissance de l’IA est incontestablement un enjeu politique, d’un point de vue social comme international. Cependant, la possibilité d’un mauvais usage par un certain nombre d’acteurs comme la Chine ne doit pas nous empêcher de penser un cadre à la fois propice à l’innovation et régulant d’un point de vue éthique l’intelligence artificielle.

La lutte contre les mauvais usages, et la résistance dans le domaine de l’IA contre des acteurs tels que la Chine passera par la comparaison des modèles. L’Europe doit construire un modèle favorisant l’innovation responsable, sans tomber dans les dérives consistant soit à repousser en bloc les évolutions technologiques, soit à les permettre de façon sauvage, et entièrement dérégulée, sous le prétexte de l’utilisation que peuvent en faire les autres acteurs. En suivant exactement le même schéma de pensée que la chute du mur de Berlin, le rayonnement d’un tel modèle sera une arme réaliste pour affirmer la vision européenne du développement de l’IA.

Des solutions à imaginer

VC : Parlons maintenant de solutions pour répondre aux enjeux éthiques. D’où pourra, selon vous, venir les réponses aux risques éthiques que présente l’IA ? Du droit ? De l’éducation ?

GMM : La question de la formation et de l’éducation aux enjeux éthiques de l’IA, mais aussi plus globalement au numérique est centrale. Il faut que la sensibilisation à ces sujets soit diffusée plus largement.

VC : Quelles instances seraient, selon vous, les plus légitimes pour opérer ce travail de sensibilisation ? Quels outils utiliser pour arriver à implémenter ces formations à l’IA et au numérique ?

GMM : Un certain nombre d’outils ont en réalité déjà été mis en place, notamment par Jean-Michel Blanquer, qui semble avoir saisi l’importance de l’éducation et de la sensibilisation aux enjeux du numérique. Par exemple, un enseignement en sciences numériques et technologiques est actuellement dispensé aux secondes générales et technologiques. D’autres initiatives, cette fois privées (comme Magic Makers par exemple), vont également dans ce sens en proposant une sensibilisation au numérique.

Ces différents outils auraient dû être mis en place il y a quelques années désormais, et nous devons encore généraliser cette tendance qui reste aujourd’hui nouvelle. D’autant plus que les résistances au numérique, et donc à son intégration dans les programmes d’enseignement, restent aujourd’hui encore nombreuses et profondément ancrées dans une hostilité au changement technologique fulgurant constaté ces dernières années.

VC : Merci beaucoup pour ces échanges. Avez-vous peut-être un mot de la fin, pour conclure nos discussions ?

GMM : J’évoquais la résistance au changement, et la méfiance envers l’IA en est un exemple parfait. Il est cependant essentiel de surpasser cette résistance au changement, pour transformer notre cadre social afin de l’adapter aux évolutions techniques que nous pouvons ignorer ou ralentir. 

Toutes les facettes de notre société sont concernées : prenons l’exemple du droit du travail et du contrat de travail, qui ont été pensés pour fonctionner dans la société définie par la révolution industrielle. Aujourd’hui, un certain nombre de ces règles sont inadaptées à une nouvelle façon de travailler, que le COVID a contribué à accélérer comme mettre en lumière, et qui demanderait plus de liberté et d’autonomie, sans revenir sur les acquis sociaux tels que la retraite ou la protection sociale. La multiplication des demandes de requalifications en contrats de travail des travailleurs indépendants ne serait plus un sujet si des réformes nécessaires étaient opérées.

N’ayons pas peur du futur : une telle transformation du cadre social comporte de nombreuses opportunités, pour l’individu, nos sociétés, ou l’humanité en général, pour peu que nous l’appréhendions de manière vigilante, mais sereine.