Exigences éthiques et juridiques de l'IA

Exigences éthiques et juridiques de l'IA

Consultation de la Commission européenne

Artificial Intelligence Act : notre contribution commune

Le Groupe La Poste, le Hub France IA et La villa numeris communiquent un avis commun dans le cadre du projet européen visant à établir des règles harmonisées en matière d’intelligence artificielle et modifiant certains actes législatifs de l’Union

L’intelligence artificielle (IA) ouvre des possibilités multiples pour l’innovation et la croissance et nous souhaitons saisir tout son potentiel. Nous saluons tout d’abord l’ambition et l’initiative de la Commission européenne de positionner l’Union européenne (UE) comme un leader politique en matière de technologies et de proposer une «troisième voie» européenne.

Après avoir influencé le monde en matière de données personnelles avec le RGPD, l’UE cherche en effet aujourd’hui à protéger les ressortissants européens en s’assurant que l’intelligence artificielle soit déployée dans le respect de ses valeurs éthiques et de ses droits fondamentaux.

Nous convenons que l’IA ne répondra à ces attentes que si sa mise en place s’accompagne d’un cadre exigeant qui préserve la confiance des citoyens et s’assure que son utilisation apporte un bénéfice à la société tout entière.

Compétitivité

Cependant, nous sommes attentifs à la compétitivité des entreprises européennes dans ce domaine absolument clef. Il est important que cette initiative trouve un juste (et délicat) équilibre entre la promotion de l’innovation et un texte protecteur des droits fondamentaux.

C’est pourquoi, nous considérons qu’en l’état de la proposition de règlement, cet équilibre n’est pas atteint. Nous identifions un réel risque pour la compétitivité des entreprises si le texte est publié en l’état, en particulier pour les raisons suivantes :

  • La proposition englobe très largement tout type de solutions IA dont certaines sont déjà largement exploitées et validées ;
  • L’approche à haut risque, bien que tout à fait pertinente, considère un périmètre très large de systèmes qui fait porter des exigences sur des systèmes IA dans des secteurs encore peu matures ;
  • La mise en conformité est prescriptive pour les systèmes à haut risque et apparaît sur de nombreux points particulièrement complexe et coûteuse à mettre en œuvre ;
  • La proposition est floue sur plusieurs points générant de nombreuses incompréhensions à la fois sur le porteur de l’obligation de certification que sur la mise en œuvre des exigences de conformité.

Quatre principales pistes de recommandations :

  • La première consiste à ce que l’AI Act prenne davantage en considération les finalités des systèmes d’IA concernés. En ignorant ces finalités ou les usages prévus de l’IA, le texte impose des obligations générales disproportionnées à un grand nombre de systèmes ;
  • La deuxième consiste à réorienter la proposition pour privilégier une approche ex post en vérifiant a posteriori la conformité des systèmes aux obligations décrites dans la proposition de règlement ;
  • La troisième consiste à ce que le texte soit moins prescriptif en fonction du niveau de risque considéré. Il convient, par exemple, de s’appuyer sur les bonnes pratiques déjà mises en place par l’industrie ;
  • La quatrième consiste à affiner les définitions du texte, en particulier celle de l’IA. Il convient que le texte conserve un périmètre proportionné aux objectifs poursuivis.

Nous détaillons dans la contribution nos interrogations, commentaires et recommandations sur l’ensemble du texte.

:: Pour aller plus loin :

  • La contribution commune du Groupe La Poste, du Hub France IA et de La villa numeris (.pdf) >> Lire
  • 304 avis reçus par la Commission européenne publiés sur son site >> Lire

:: Partenaires :

 

Réponses récentes