Master Dev France

Master Dev France

Evénement partenaire | Replay

Pourquoi l’IA a besoin d’éthique?

Notre think tank était partenaire de l’événement  annuel organisé par Docaposte dont la quatrième édition s’est déroulée le 9 mars 2023

L’intelligence artificielle est un outil puissant qui peut être utilisé de manière bénéfique ou néfaste, selon la façon dont elle est développée et pratiquée.

David Lacombled, président de La villa numeris, animait une table ronde à laquelle ont participé Guillaume Leboucher, directeur général d’Openvalue, coordinateur du pôle Data de Docaposte et Jerôme Béranger, CEO de GoodAlgo, expert en éthique du numérique.

Transcription:

David Lacombled: Guillaume Leboucher est fondateur d’Openvalue et directeur général adjoint de Docaposte en charge du département IA et Data. Et il préside aussi une fondation qu'il a créé, la Fondation IA pour l'école. C'est vous dire si nous sommes entre de bonnes mains sur ce sujet. J'accueille également Jérôme Baranger qui est un universitaire, un économiste de la santé et expert en éthique. Tu as créé Good Algo qui fournit des solutions d'évaluation éthiques, mais tu nous en dira plus. Je vous dois aussi d'excuser Florence d'Alex Buc qui est professeur à Telecom Paris et qui est souffrante. Donc je lui souhaite, par l'intermédiaire des réseaux sociaux, un prompte rétablissement. Cette table ronde organisée avec Gilles Picard, que je salue et remercie, pose la question de l'éthique, sachant que l'IA et l'intelligence artificielle est ce que nous en ferons? Très clairement. Mais on voit bien qu'elles provoquent de la fascination, de la sidération, de l'émoi et de l'effroi aussi parfois, sans doute parce qu'elles restent méconnues. Et c'est autant de zones d'ombre qu'il va falloir les mettre en lumière et éclairer. Avec Guillaume, pcommencer, une question sur ce qu'on entend par l'éthique qui semble un mot que l'on accole assez rapidement à l'intelligence artificielle, comme pour se rassurer en quelque sorte.

Guillaume Leboucher: Bonjour à tous, Ravie de partager ce moment avec vous. Alors c'est assez incroyable parce que vous venez au MDF certains d'entre vous pour gagner un concours de code, d'autres pour découvrir soit des nouveaux langages, des nouvelles technologies. Et puis vous retrouvez à 10 h le matin, peut être après avoir bravé les pavés parisiens sans transports en commun, à parler d'éthique. Et donc on va parler certainement de philosophie ce matin. Alors, pour répondre à la question. David, très simplement, l'éthique, c'est quoi? C'est tout simplement la manière de se comporter. Donc ça revient très loin dans les histoires anciennes, dans la philosophie, le premier choix, grand ouvrage connu sur l'Ethique, c'est L'éthique à Nicomaque d'Aristote. Pour ceux qui ont étudié ça, qui j'ai regardé, qui est encore sur internet, qui se lit et se découvre très bien. Et l'éthique en fait, l'origine c'est si je prends le terme latin ou grec, c'est éthos. Donc c'est savoir se comporter et en même temps savoir se comporter. C'est par rapport à soi-même, par rapport à sa conscience également par rapport aux autres. Et quand on parle d'éthique, c'est accepter aussi d'avoir un regard critique sur ce qu'on pose à la fois dans son acte, dans la société et également par rapport à la communauté, ce que va dire la communauté sur son propre travail. Vous imaginez bien que quand on parle d'éthique dans les algorithmes ou dans l'IA, bah ça fait résonner beaucoup de choses. Ce qui est important de comprendre aujourd'hui pour qu'on parle beaucoup d'éthique dans l'algorithme. Et je salue Gaelle qui n'était pas loin et le thème de la conférence de ce matin. Et pourquoi l'IA a besoin d'éthique? Le sujet c'est l'IA n'a besoin de rien parce que l'IA ce n'est qu'une machine ou des algorithmes.

Ce sont les hommes et les femmes qui choisissent de faire des développements informatiques. Et la vraie question, c'est le sens qu'il va en donner. Quand on prend l'histoire de l'éthique, c'est assez intéressant tous les écrits philosophiques, je vais pas revenir au XXᵉ siècle. Il y a un grand monsieur qui s'appelait Paul Ricoeur qui a parlé de l'intention éthique. Et cette intention éthique, on va la retrouver dans la bioéthique, vraie sujet depuis l'après guerre dans la science et maintenant dans le monde de l'informatique et de l'information. Vous le savez peut être pas, mais j'ai découvert ça récemment en menant des travaux de recherche sur l'histoire de l'éthique dans l'informatique, des algorithmes. En fait, tout part de l'après guerre après les procès de Nuremberg, donc par rapport au nazisme où les premiers débats éthiques se sont dit mais comment pendant la guerre, les atrocités perpétrées sur par la science, par les nazis, comment on pourra mettre certaines frontières et certaines lois? La vraie question donc, c'était effectivement de dire comment on va créer des codes. Donc il y a pas mal de code qui ont été portés par l'ONU, pas mal de conventions internationales. En France, on a la chance d'avoir beaucoup d'experts, un magnifique comité qui s'appelle le Comité national d'éthique et dans le numérique. Et donc c'est ça qui aujourd'hui? Permettre de réfléchir. Souvent, nous dit l'Ethique, chacun fait un peu ce qu'il veut. D'un côté, c'est complètement vrai. De l'autre, il faut aussi se renseigner sur les pratiques qui ont lieu dans le monde du numérique depuis une cinquantaine d'années.

David Lacombled: Merci Guillaume, Je sens qu'il va y avoir bataille de philosophes parce que Jérôme, toi tu en appelle à René Descartes avec une approche logique de l'éthique. Ce n'est pas incompatible.

Jerôme Béranger: Non, non, c'est tout à fait ça. Bonjour tout le monde! Tout d'abord, moi je suis tout à fait d'accord avec mon voisin, sur sa vision de l'Ethique. C'est une vision qui est beaucoup plus peut être appliquée et applicable et pragmatique. C'est à dire que si une branche de la philosophie ou des sciences humaines et sociales mais je considère l'Ethique plutôt comme donner du sens à des actions, c'est à dire le but c'est qu'il y a des dilemmes et des problématiques éthiques dans suivant les situations. Et l'idée en fait, c'est trouver un compromis, un juste milieu qui correspond en fait à quelque chose dont on tend vers le bien être ou le bienfondé d'une action par rapport à un maximum de personnes. Un comité d'éthique, c'est pluridisciplinaire, c'est une pensée en mouvance transversale, pluridisciplinaire, et c'est toute la richesse de cette discipline. Et la difficulté aussi. Il n'y a pas là ou je reprends les termes de Socrate, il n'y a pas une vérité mais des vérités. Ce qui est vrai aujourd'hui n'est pas forcément vrai demain ou hier. L'éthique en France n'est pas la même qu'aux Etats-Unis, en Chine, au Japon ou même en Europe dans certains pays. Parce qu'en fait, l'éthique c'est influencé, impacté par du contexte géopolitique, religieux aussi, les mœurs, les conflits, les comportements. D'un point de vue économique, et c'est là ou en fait qui diffère par rapport peut être au droit qui met un peu plus de temps à légiférer et qui soit chronophage. C'est aussi une régulation. Mais si une régulation dans le temps qui est flexible, c'est toute la richesse de l'éthique. Souvent, le droit s'alimente justement sur les réflexions et les pensées éthiques pour faire évoluer leur cadre réglementaire.

Jerôme Béranger: Alors, ce qui est important, moi j'aime bien dire que l'éthique, finalement, c'est une boîte à outils, comme une boussole, une boussole, avec les quatre points cardinaux qui donnent un sens, une orientation. J'aime le mot sens parce que le sens, d'un point de vue, étymologiquement parlant, il y a trois significations. C'est le sens, les cinq sens de l'être humain finalement, Et on voit que les différents principes éthiques, les valeurs humaines qui sont associées à l'éthique, finalement, on les retrouve aussi dans tout ce qui est associé à ce que fait l'être humain et ce qu'il est en tant que personne, en tant qu'espèce humaine, et qui nous différencie justement des machines. Et c'est ça qui rend aussi important, et c'est aussi le sens, c'est aussi le sens des mots, et c'est ça qui est aussi qui a toute cette signification, la signification et le sens, le chemin que vous allez prendre, l'orientation. Donc vous voyez bien toute la symbolique autour de ça. Donc si vous voulez, il y a quatre principes éthiques qui sont assez fondateurs, fondateurs, qui sont universels, qui ont été constitués pour la première fois en 2020, en 2000, en 2001, par Beauchamp and Children, qui sont le principe de bienfaisance, de non malfaisance, justice et tout ce qui est de tout ce qui est aussi de d'autonomie, ce sont ces quatre. C'est un peu ces quatre points cardinaux. Mais comme l'a très bien dit mon mon voisin, c'est si vous voulez qu'on est vraiment, il y a un socle commun, mais après à chacun d'avoir sa propre éthique, mais avec des principes qui sont universels. Ça, c'est important.

David Lacombled: Guillaume Comment on partage ces principes dans une organisation sociale ou une entreprise?

Guillaume Leboucher: Alors déjà, vous voyez que ça démarre très fort. On vous parle de Paul Ricœur, d'Aristote, de Socrate. Alors justement, comment passer un petit finalement des grands sans que le commun de savoirs humains? Et je suis complètement aligné sur ce qu'a dit Jérôme, sur les quatre grands principes de l'éthique. Et si on essaie de se situer dans le temps à partir de 2000, à partir de quand les entreprises se sont posés la question de l'éthique? Donc, c'est vraiment dans les années 2000, à partir de ces quatre principes, et je dirais, il y a plusieurs choses qu'on va focaliser, bien entendu, sur la réflexion de l'éthique dans les algorithmes. Donc, ce qu'on appelle l'éthique algorithmique. Moi, c'est un sujet, donc c'est ce sujet qui m'anime le plus. La vraie question d'abord, c'est la question, comme l'a dit Jérôme, c'est la question du sens. Après c'est comment la faire vivre en communauté, se faire challenger, accepter de la critiquer. Mais plus exactement, c'est comment créer des référentiels. C'est tout le débat aujourd'hui. Jérôme a cité les quatre principes qui ont été énormes a repris par les communautés américaines. Aujourd'hui, le Canada est un pays extrêmement avancé sur ça. Et la vraie question, c'est nous. Ce qu'on essaye de faire chez De capote ou de capote, c'est l'épuisement de la confiance numérique. Et dans la confiance numérique, on porte ce qu'on appelle de l'IA de confiance.

Guillaume Leboucher: C'est pour moi deux principes fondateurs qui sont la. Le premier l'expliquer, l'habilité et la traçabilité. Si on vous parle avec Jérôme et David de philosophie, c'est que moi je pense que dans le numérique aujourd'hui, plus il y aura numérique, plus il y aura des besoins de philosophie, plus des besoins. Donc de faire cette éthique et les sous-jacents d'arriver à mettre ça dans la négation. C'est deux questions qu'il faut se poser comment j'explique ce que je fais d'abord dans mon intention, l'intention de créer quelque chose. C'est un exemple, ce que je donne souvent et je salue certains étudiants de l'école, de la data, de l'IA qui sont ici présents. Aujourd'hui, quand on a un clavier informatique entre les mains, quand on décide de travailler avec tous les algorithmes, l'attention du monde entier. Est-ce que, à la fin de ma journée, je vais créer un algorithme qui va permettre de réduire la famine dans le monde ou malheureusement de créer des robots tueurs qui vont faire beaucoup de dégâts? Donc c'est d'abord les applicabilité de l'intention au départ sous l'intention. Après après l'intention arrive la deuxième qui risque de les applicabilité. C'est justement la critique de l'action. Comment aujourd'hui quand je suis développeur je peux justifier en amont de mon intention. Je veux en parler mais comment? Dans la façon de développer, je vais pouvoir expliquer ce que je fais.

Cela veut dire que bien entendu, c'est la parfaite, je dirais parfaite explication. Terme est mal choisi, pardon, des descriptions du code que je produis. C'est quelque chose qui doit qu'on doit justifier. Moi, ça tombe bien parce que j'ai toujours poussé mes développeurs à documenter leur code. Mais je crois qu'avec l'éthique, on a encore besoin de documenter pour les jeunes de l'école de la data. Documentez bien votre code en je vous en remercie, on sera très vigilant là-dessus, ça peut rendre service. Et puis après, une fois qu'on a fait ces deux étapes des spécialités, le deuxième vrai chemin, c'est d'opérer la traçabilité. Et cette traçabilité, je veux la relier à ce que j'ai énoncé tout à l'heure sur la capacité de critiquer son travail. Aujourd'hui, un développeur informatique qui n'est pas capable de dire ses intentions, qui n'est pas capable de l'expliquer et qui n'est pas capable de décrire cette traçabilité. Quelque part, pour moi, il est un petit peu mon éthique. Peut-être que son intention n'est pas de créer des algorithmes contre le bien commun. Néanmoins, c'est ce qu'on essaye de pousser dans la charte éthique du groupe La Poste, de dire qu'aujourd'hui tout est une question de traçabilité. Il faut savoir justifier des actions qu'on fait.

David Lacombled: Jérôme, tu nous dis en plus qu’on peut le visualiser et c'est d'ailleurs tout l'objet de l'entreprise que tu as créé, Good Algo, que développer des tableaux de bord. Est-ce que c'est aussi simple que ça?

Jerôme Béranger: Non non, comme je vous ai dit, en fait c'est assez complexe. D'un point de vue historique la discipline de l'éthique appliquée au digital. Il faut savoir que c'est une discipline qui est assez récente, qui a. Quand j'ai effectué ma thèse doctorale à l'Université de médecine de Marseille à l'époque, c'était en 2009. On associait ces deux disciplines, donc les sciences humaines et sociales et la technologie, on va dire les sciences dures. C'était totalement antinomique. Pourquoi? Parce que les siècle des Lumières est passé par là. Parce qu'il cloisonné des choses avec l'encyclopédie, parce qu'il fallait se spécialiser dans dans une discipline. Et en fait, là où la société a mis des des murs, finalement, nous on a essayé de mettre des ponts et des passerelles. Parce que le numérique, à l'instar de l'éthique, c'est transversal, ça impacte toutes les sphères de la société mais aussi de l'entreprise, des usages, des conceptions. Et donc du coup, il faut faire cette passerelle-là, c'est important. Et moi, ce qui m'a animé depuis, depuis toujours, c'est de rendre l'éthique appliquée, applicable. Et pour cela, j'avais repris un peu ce que notre citation finalement de Léonard de Vinci qui disait il faut faire pour penser et penser pour faire. Et l'idée c'était de dire il faut peut-être numériser pour moraliser et pour numériser. Et en fait, l'idée c'est ça. C'est à dire que quand on prend un projet digital, on le voit qu'un projet numérique, ce n'est pas uniquement de la data, c'est à dire que ça alimente par les données les algorithmes et la data.

Si elle n'est pas exploitée par des algorithmes. Un système algorithmique, ça ne sert pas à grand-chose. Et un algorithme, c'est un moteur dans la voiture. Si ce n'est pas alimenté par de l'essence ou de la data, ça ne sert pas à grand-chose non plus. Et ce qui est très important quand on essaie d'importer de l'éthique au sein d'un projet numérique pour un concepteur et un développeur, c'est qu'il faut avoir une vision totalement pas en silos, mais transversale. C'est à dire qu'il faut poser des questions à la fois autour des questions sur la data, si comment aller à ce qu'elle est intègre, de qualité, à comment aller sélectionner sa source. Parce qu'il y a au bout d'un moment, on ne sait même plus le sourcing d'où ça vient au niveau des cohortes, en termes de qualité, ça c'est une chose, accès à est accessible ou pas. Après, il faut poser des questions. Ce que j'appelle, c'est un deuxième niveau d'éthique. L'éthique de l'algorithme, là, c'est toutes les questions autour de l'algorithme en tant que tel. Est ce qu'il est robuste, interprétable, fiable? Est ce qu'il y a des biais de cognition, des biais statistiques, etc.

Ça, c'est un troisième niveau. Il y a un quatrième niveau, c'est l'éthique des systèmes. Les systèmes, c'est quoi? Ce sont les interfaces homme machine. Est ce qu'il est ergonomique? Est ce qu'il est performant à ce qu'il est adaptable à l'utilisateur? Ça, c'est des questions qu'il faut se poser. Il y a aussi l'éthique de l'environnement, l'environnement contextuel. Parce qu'en fait, surtout quand c'est de l'IA, parce que l'IA, moi je le considère un peu une vison, peut-être un peu de néo darwinienne. C'est comme un organisme vivant, auto apprenant, qui interagit de plus en plus avec son environnement, son l'infosphère on va dire. Et donc du coup, les biais qui peuvent être mineurs au début peuvent être majeurs ou être modifiés au fur et à mesure. Et ce qui est important, et je rejoins tout à fait Guillaume, c'est l'esprit de dès le faire évoluer, de suivre dans le temps. Pourquoi? Parce que quand c'était un système d'information qui était un peu figé, finalement ça ne pose pas trop problème. Il n'était pas trop sensible à l'impact de l'alimentation des data nouvelles qu'on va lui apporter, mais là, on voit bien que ce monde est de plus en plus data fliqué en termes de notation. Et donc du coup l'IA va être évolutive et complexe de plus en plus. Et donc ce qui est important c'est on parle souvent nous en éthiciens, de l'éthique by design, c'est à dire dès la conception d'un projet digital, il faut lier un pan incorporé.

Guillaume l'a très bien dit tout ce qui était des préconisations et des recommandations éthiques dès la conception d'un projet, un projet. Pour être conçu, il faut qu'il soit pluridisciplinaire, avec des tiers de parties, des développeurs, mais aussi des corps de métier, des futurs utilisateurs aussi, pour répondre aux attentes et aux exigences des personnes qui vont l'utiliser, professionnels et non professionnels de la société. Ça c'est important. Mais au delà de ça, il faut se projeter pour de l'IA. C'est ce que moi j'appelle la notion d'éthique by Evolution, c'est à dire dans le temps, dès la conception, mise en place, usages et suivi d'un projet digital. Il faut lui incorporer un encadrement, une régulation éthique qui évolue dans le temps aussi. Dernier point, j'ai parlé d'éthique de l'environnement, donc contextuel. Ça peut être écologique, environnement durable, mais aussi religieux, social, économique, politique, parce que tel ou tel projet digital, d'IA ou non, l'IA en plein Covid avant après, en pleine guerre ukrainienne ou pas, et bien ça n'a pas la même impact. Donc ça c'est aussi à prendre en compte comment vous le faites évoluer. Et il y a trois autres familles d'éthique qui peut être aussi à interpréter. Aussi, il y a développer en analyse d'un projet digital qui soit éthique ou pas.

C'est autour des décisions et des pratiques et de la condition humaine. On prend le phénomène un peu de chaque GPT pour de l'IA générative en terme de texte. Se pose la question d'un point de vue societal de la condition humaine, en quoi ça va impacter le comportement, les métiers, l'éducation de la société d'avoir un tel outil? Pour moi c'est une version deux ou 3.0 de la calculatrice qu'on intègre dans A l'école, on y apprend toujours à l'école, dans les petites classes primaires, comment on fait ses règles de multiplications, les divisions et cetera. Mais ce n'est pas pour le le faire toute sa vie, c'est juste pour exercer son cerveau a la logique mathématique de la gymnastique. Mais dès le collège, moi j'ai mes neveux et nièces qui sont maintenant en collège ou en lycée, c'est la calculatrice et c'est tout à fait normal. Donc juste pour finir, je dirais quand j'ai intervient dans les écoles, ne refuser pas la pratique de chaque GPT ou de ce qui va arriver parce que cela va être quelque chose qui va être au quotidien. Il vaut mieux prendre du temps pour savoir bien l'utiliser avec les limites et les atouts, les apports. Après garder enregistrements ça, mais je veux dire, il faut faire évoluer aussi le système d'éducation et l'éthique est là aussi pour faire évoluer les choses. Aussi.

David Lacombled: Il y aura interrogation à la fin, soyez rassuré. Plus sérieusement, d'ailleurs, vous pouvez poser des questions, bien sûr. Je vous propose une méthode qui a fait ses preuves vous levez le doigt, on vous donne un micro et vous posez la question. N'hésitez pas et faites le assez tôt dans le débat parce que le temps nous sera compté. Qui parmi vous a déjà utilisé au moins une fois chaque GPT? Donc on est au delà de la moitié et effectivement on est dans dans une IA qui rentre dans l'atmosphère en quelque sorte, et dont on voit bien qu'elle pourrait désormais vite se démocratiser avec une certaine forme d'émoi face à des intelligences artificielles dont on voit bien qu'elles peuvent répondre parfois plus rapidement que soi même ou avoir une connaissance plus longue. Comment on adapte, on forme les êtres pour utiliser ces intelligences artificielles demain.

Guillaume Leboucher: Alors on a commencé par la philosophie et Jérôme nous propose la gymnastique. Donc effectivement devenant concret, on a installé un mur d'escalade d'ailleurs pour ceux qui veulent aussi. Ben je crois que maintenant il faut être concret. Jérôme et moi-même on essayait de poser un peu des grands principes sur l'égalité, la traçabilité, l'audit agilité. Enfin voilà. Donc être concret, c'est de relire déjà ce qui se passe depuis une dizaine d'années. On parle de l'IA ce matin, de l'éthique. Je vais vous donner quelques exemples à la fois dans le monde, c'est à dire les sociétés dans les entreprises et pour les individus. Si vous regardez la campagne de 2016, donc remportée par Donald Trump aux Etats-Unis, on sait que les data scientists de l'équipe Donald Trump ont conseillé Donald Trump pour adapter les contenus pour dézinguer sa son opposante qui était Hillary Clinton. Ce sont des choses parce qu'en fait, très simplement, les data scientist de l'équipe de campagne du candidat républicain ont vu les tendances et donc ont utilisé les algorithmes. Peut être que vous avez entendu aussi parler d'un scandale qui était retentissant et qui est monté jusqu'à la Chambre des représentants et au Congrès américain, le scandale Cambridge Analytica. Donc, c'est déjà pour dire qu'effectivement l'IA et l'éthique, c'est un vrai sujet de société et de démocratie très important.

Si on parle des entreprises, alors là on va pas en rigoler. Mais quand même, vous savez qu'aujourd'hui on parle de l'IA, il y a trois définitions. L'IA faible, c'est l'IA qui assiste l'IA forte, il y a qui décide et la supérieure, il y a sa conscience. La super rien n'existe pas encore. Mais quand on se met à parler de l'IA forte, on peut commencer à parler de la voiture autonome. Et vous connaissez les Tesla, les voitures chinoises, les voitures américaines, Weibo, la filiale de Google? Et il y a un cas d'école qu'on enseigne quand on fait de l'éthique algorithmique. C'est à quel moment une IA qui doit décider de faire freiner une voiture VA et de faire face elle-même à des sujets d'éthique. Le meilleur exemple que certains ont déjà entendu donné, c'est l'exemple de la voiture autonome qui doit malheureusement stopper sur un passage piéton et sur le passage piéton. Vous allez trouver à la fois une mère avec un landau et un bébé dans le landau et on va dire un petit vieux ou une petite vieille, excusez-moi du terme. La question c'est qu'est-ce qu'on prévu les développeurs au niveau éthique? La voiture doit s'arrêter et malheureusement on n'a pas le choix que de percuter un des intervenants.

La réponse à leur bonne nouvelle pour la maman et le landau. Mauvaise nouvelle pour les petit-vieux ou les petites vieilles, c'est que les développeurs ont décidé que, en priorité, seront percutées la personne la plus âgée. Donc c'est pour ça ceux qui se teint les cheveux en blanc et tout ça. Faites attention, Voilà, ça peut être délicat, mais voilà un exemple d'éthique en entreprise concret. Et le troisième sujet, pour moi, c'est pour bien comprendre l'éthique aujourd'hui comme c'est important. Et c'est d'ailleurs un des combats que je porte dans ma fondation, dans l'éducation. Vous savez que quand on parle aujourd'hui du monde des réseaux sociaux, on parle de ce qu'on appelle l'économie de l'attention. Comment les algorithmes aujourd'hui, dans ces outils à faibles, assistent notre quotidien? Alors, quand l'IA m'assiste pour optimiser mon temps de trajet, pour me rendre un rendez-vous, c'est plutôt une bonne nouvelle, surtout en temps de grève. Néanmoins, on se rend compte que depuis dix ans, les réseaux sociaux et ce que cette économie de l'attention ont créé beaucoup d'addictions. Je vais citer aucune société, ni américaine, ni chinoise, mais vous avez qu'à lire la presse aujourd'hui. Tout ce qui se passe aujourd'hui à travers certains réseaux sociaux, c'est qu'on changer de nom américain ou d'autres qui sont un peu plus asiatiques.

On est vraiment au cœur du débat éthique. Est-il éthique qu'un algorithme puisse décerner en moins de dix secondes le genre sexuel d'une personne? Est-il éthique que dans certains pays, les algorithmes savent mesurer l'attention d'une personne face à un écran? Voilà des exemples concrets. Je dis un exemple. Si je parle d'éducation, c'est un exemple qui existe malheureusement. La Chine est un pays qui a extrêmement progressé en intelligence sociale depuis dix ans et ils en ont mis partout des algorithmes, y compris pour mesurer l'attention des élèves dans les classes, ils ont mis des caméras, un peu comme les caméras qui sont là mais qui savent mesurer par rapport à la gestuelle du visage de chaque individu, aux mimiques. Ils savent mesurer ou pas si un enfant écoute ou pas. Et qu'est ce qui fait ça derrière? Qu'est ce qui fait cette manipulation, cette collecte et ce tri de données? Eh bien, ce sont les algorithmes. Donc voilà trois exemples concrets. J'ai parlé politique, démocratie, j'ai parlé la voiture autonome et cette partie grand public qui interroge énormément. Donc chacun peut relier avec ce qu'on a dit avec Jérôme, c'est à dire quelle est l'intention, quelle est la question de la traçabilité, les applicabilité. Et puis les quatre principes que tu as cités tout à l'heure.

David Lacombled: Jérôme On a un peu de recul désormais sur nos concitoyens, sur leur manière de se comporter avec des outils numériques, de se comporter dans l'espace public, ne serait-ce qu'avec les réseaux sociaux. Est ce qu'on peut dire qu'ils sont mûrs pour affronter les prochaines étapes, dont celle de l'utilisation des intelligences artificielles de manière plus massive encore, même s'ils le font déjà d'ailleurs, sans forcément le savoir aujourd'hui?

Jerôme Béranger: Absolument pas. Pas sans dramatiser. Mais en fait, ce qu'il faut savoir, c'est que pourquoi il a fallu presque 20 ans pour que la tendance de dire il faut mettre de l'Ethique maintenant. Un peu comme l’environnement durable. Il y a quelques années dans les entreprises, il y a une prise de conscience qui a été faite mais avec 20 ans de retard parce qu'en fait c'est tant que les l'usage. Moi je crois beaucoup à la valeur d'usage de la technologie, parce que finalement, tant qu'une technologie on parle de la blockchain, etc. De concepts et tout, mais tant que ça impacte pas le quotidien d'une personne ou d'un professionnel de santé, ou pour la médecine ou pour ailleurs, finalement on le prend pas au sérieux ou on se dit bah ça nous impacte pas et on regarde pas, on on se projette pas dans le temps. En réfléchissant aux répercussions, à l'impact que ça peut avoir pour soi, pour son métier ou pour la société dans l'ensemble. Et en fait, l'esprit du principe de précaution, c'est ça. C'est se dire bah pourquoi vous voulez réfléchir aux enjeux, aux risques éthiques, si vous pouvez même pas vous projeter sur les conséquences que ça peut avoir parce que finalement ça vous impacte pas dans votre quotidien, c'est tout à fait naturel de raisonner comme ça.

Donc je vous donne un exemple. Bon, moi je suis originaire plutôt dans en ce moment à Toulouse, donc c'est plutôt l'aérospatial, l'aéronautique, donc je peux vous faire la même chose, pas avec la voiture autonome, mais avec l'avion autonome. C'est quelque chose qui peut faire peur parce qu'il y en a qui n'aiment pas du tout voyager en avion parce que c'est le mythe ce d'Icare, je ne sais pas en disant alors que c'est presque le transport le moins risqué au monde quoi. Donc ça, il faut prendre en conséquence. J'ai un de mes neveux qui vient d'avoir, il y a quelques années, il y a un an, son pilote de brevet d'avion et il me disait Mais Jérôme Donc ils font beaucoup de simulations en termes, en essais réels, etc. Et ils me disaient Mais, Jérôme, il y a encore tu sais que moi, j'ai appris sur une simulation où en fait c'est l'avion qui a420 15 %, est autonome du démarrage à l'atterrissage du trajet et. Et c'est tout à fait normal en fait, parce que c'est très facile, la voiture autonome sur l'autoroute, peut-être qu'on la verra et qu'elle sera performante et ça fonctionnera.

La voiture autonome en ville avec tous les paramètres totalement inappropriés ou qu'on ne peut pas réfléchir où on ne peut pas y penser, Je pense que ça va être très très compliqué. Je ne dis pas que ce sera impossible, mais ça va être assez. On ne peut pas toujours l'esprit de l'environnement, on ne peut pas anticiper et encadrer tout l'environnement possible imaginable pour réfléchir à comment la voiture ou le moyen de transport va réagir pour telle ou telle situation. Là, l'avion, le cadre environnemental est totalement facile à maîtriser. Finalement, on peut vite paramétrer. Et pourquoi je vous dis ça? Parce que c'est la simulation, C'est la machine à 95 % et on lui apprend juste à dire la machine, elle bug et vous reprenez la main en tant que pilote pour faire en sorte que l'avion arrive à bon port ou vous régler la situation. Il y a encore un an et demi, deux ans, c'était l'inverse. La simulation faisait que c'était la machine qui reprenait la main sur le pilote. Donc on a déjà, vous voyez bien, on a déjà modifié finalement le rôle ou les missions de tel ou tel acteur.

David Lacombled: Il est clair que demain, si on prend un avion et qu'il n'y a pas de pilote à bord, le sentiment de sécurité ne sera pas le même quoi qu'il arrive et quel que soit le niveau de sécurité. Et donc il y a un facteur rassurant d'avoir des humains et sans recours humains, il y a un rejet de la technologie.

Jerôme Béranger: Je pense que c'est plutôt rassurant d'un point vue de son inconscient. C'est à dire qu'on prend un exemple à la base. Je suis originaire de Lyon, à Lyon. Il y a plus de 40 ans, on a eu les premiers métros automatiques sans chauffeur. Ça a posé zéro problème en termes de fantasme ou de psychologie, ou de drame, parce que finalement c'est un endroit clos, un tube et cetera, ça ne fait pas trop peur. Et puis là-dessus, vous vous dites finalement, c'était dans la suite logique des choses quoi. Mais vous prenez d'autres exemples, vous vous dites je ne sais pas si vous vous prenez en compte le fait que les nouvelles technologies avancent, évoluent et c'est dans l'histoire, dans le sens de l'histoire. Finalement, quand vous voyez par rapport aux différentes révolutions industrielles, il y a toujours un changement de paradigme et de comportement de droit qui apparaît, d'éthique aussi au fur et à mesure. Et en fait, c'est ça qu'il faut prendre conscience de ça en termes de formation. D'un point de vue pragmatique. Ce qui est important, je pense en prise de conscience. Nous c'est ce qu'on essaye de faire. Moi avec ma société Good d'algo en tout cas, c'est de développer pour les professionnels mais aussi pour les citoyens. Et donc du coup, nous ça peut être on propose aux entreprises des vraies solutions. D'ailleurs nous a développé, j'ai développé le premier référentiel autour de l'éthique du numérique pour justement que cela soit appuyé sur un label, une labellisation qui permette de donner du sens, de la confiance, de la transparence et donc de la sécurité vis à vis de la société ou des potentiels clients. Parce que finalement, moi je l'avais fait dans le domaine de la médecine, parce que les données données personnelles et elle est sensible encore plus quand c'est l'intégrité de la personne et donc elle a du poids. Et donc moi je me disais tout simplement comment on peut faire confiance à cette médecine de plus en plus numérisée si on ne peut pas évaluer l'impact et le comportement éthique finalement avec des valeurs humaines autour de ça. Ça peut être aussi des formations, oui.

Guillaume Leboucher: Moi, ça fait sept ans que je travaille sur ce qu'on appelle l'économie des transformer, ce qu'on appelle des rôles modèles. Moi, je suis absolument impressionné que le monde entier ait adopté ChatGPT. C'est extraordinaire. Moi, je m'amuse, ça va être mon métier. Mais quand on voit tous les biais qui sont transportés et qui ne sont pas du tout critiqués, c'est assez incroyable. Deuxième chose, pour répondre à votre question, au début de votre intervention, ce qu'il va falloir regarder, c'est le règlement européen, l'IA Act. Moi je l'ai dit publiquement en novembre de l'année dernière. Ok, tout le monde s'amuse à tester les serveurs gratuits, mais on verra ce que dira la CNIL, donc notamment la CNIL française et le futur règlement européen qui a pour ambition de fédérer les CNIL des pays. On verra le match. Il y a tout à fait ouvert. Je crois que ce qu'il faut regarder, c'est la potentialité technologique. Qu'est-ce que cela apporte dans les cas d'usage de l'entreprise? Et effectivement, comme vous l'avez dit sur l'éthique, la question ce n'est pas de demander aux machines ce qu'elles font éthique parce qu'elle dira bien ou pas bien de ce que pensent les algorithmes, parce que le travail des algorithmes, la vraie question, c'est quel type de société on veut.

On a fait un collège scientifique pour la pandémie. Chaque pays a fait son propre code. Les scientifiques. Pourquoi? Quand on a des belles innovations? Et pourtant moi je dis je sais que je suis vraiment pour l'innovation. Quand il y a des changements de paradigme, pourquoi on se donne pas trois mois de moratoire, qu'on ne crée pas un collège scientifique de 215 experts, Il y en a beaucoup ici qui essayent de développer aussi cette IA éthique sur un traitement de données souverain et tout ça. Pourquoi on ne se donne pas les moyens pendant trois mois de mettre, c'est à dire en faisant nous autres, donc au frigo? Et après, une fois que les experts ont regardé bien pourquoi on ne livre pas au public? Voyez, c'est des choses qu'il faut ou qu'il faut regarder, mais c'est pas facile d'expliquer tout ça.

David Lacombled: Tu parlais de l'IA Act. Les pouvoirs publics ont pris les devants en quelque sorte. Quand on est dirigeant d'une entreprise, comment on s'empare du sujet? Concrètement? Qu'est-ce qu'on met en place pour élever son entreprise et ses collaborateurs?

Guillaume Leboucher: Alors moi, je pense qu'il y a deux choses. Il y a déjà une réflexion globale où les dirigeants doivent inciter d'abord à ne pas interdire mais à expérimenter. Mais je dis bien expérimenter, c'est à dire pas industrialiser, c'est à dire tester, faire cette exploration. On fait beaucoup dans l'IA et deuxièmement, effectivement, c'est de rentrer dans la mise en place des principes que nous avons énoncés, les grands principes de la technologie humaine qui sont quand même repris depuis 50 ans, depuis la seconde guerre que j'ai évoqué tout à l'heure. Et de se dire que ben voilà comment on garantit la primauté humaine, comment on garantit cette applicabilité, comment on garantit les conditions de la faire. J'ai parlé de l'économie, mais attention, on peut aussi parler l'économie des travailleurs pauvres autour de l'IA. Je ne cite personne, mais combien de big tech aujourd'hui utilisent les services des pays les plus fragiles pour étiqueter des images et ce type d'action? Alors après on peut dire que ça crée toujours des emplois, il n'y a pas de ces emplois et des composants, d'accord, mais c'est dans la conditions qui sont faites. Donc voilà. Donc la question c'est de dire voilà, entreprendre des vrais débats de réflexion, c'est véritablement le positionnement de la Poste aujourd'hui à travers sa charte éthique.

Il y a qu'on essaie de déployer. Ça fait deux ans qu'on l'a mis en place. C'est le positionnement de l'entreprise, la mission que représente La Poste. C'est ce que nous faisons chez Doc à poste de promouvoir ce ce numérique de confiance, cette idée de confiance. Après moi, pour être très concret dans ta question David, c'est que ça prend du temps, c'est que là il faut se former, se former et se former. C'est pour ça que avec Nerio, nous avons décidé de créer pour l'école de la l'IA des cours d'éthique algorithmique. C'est pas pour dire qu'ils ont envie de faire en envie de faire la philosophie. Vous voyez bien, ce matin, vous venez pour un événement technologique. On n'arrête pas de parler de philosophie, on parle de nous, l'art de Vinci. Et moi je dirai juste une phrase pour paraphraser ce qu'a dit Jérôme en citant les Battus. C'est Jean Guitton qui disait Il faut penser en homme d'action et agir en homme de pensée. Ben voilà, voilà le travail aujourd'hui, qu'est-ce que c'est qu'un développeur quoi? En tout cas, ça, ça m'invite quand même à vous dire qu'il faut rester le développeur.

David Lacombled: Est ce que c'est une citation qui s'applique au comité de direction? Jérôme avec lesquels tu peux œuvrer?

Jerôme Béranger: Oui, tout à fait. Et puis après, il y a quelque chose qui, pour revenir aussi par rapport à l'esprit de dire à chaque éditeur, finalement au constructeur de voiture peut avoir sa propre éthique. Et on prend la situation que Guillaume a très bien expliqué ou décrit, sur quel choix va faire telle ou telle voiture. J'ai envie de dire aussi à un moment donné, je pense sincèrement que ça va être la loi du marché qui va faire en sorte que telle stratégie éthique par rapport à pour les transports autonomes ou pas, vont se déployer ou pas. Je vous donne un exemple tout bête demain il y a deux marques sans citer différentes de voitures qui construisent leur propre éthique sur la sécurité ou pas, à ce qui privilégie le dégât matériel de la voiture ou l'espèce humaine en tant que dans l'habitacle ou en dehors. Admettons. Il préfère dire c'est le nombre de personnes qui peut éviter un accident ou la mort qui va être mis en avant au détriment peut être des mêmes propriétaires du véhicule. Moi personnellement, pour le même prix, je ne suis pas égoïste mais je tu penses normalement à ta famille et à toi. Entre dire ok des gens que je ne connais pas du tout, je vais peut-être préserver leur vies mais moi je risque de me prendre un platane et mourir. Est-ce que je vais prendre la même pour le même prix? Cette voiture là où j'ai moins de chance d'avoir de la sécurité qu'une autre? Je pense qu'à moyen terme ils vont voir que leurs ventes vont commencer à baisser par rapport à leurs concurrents.

Donc ça va aussi. Alors c'est un peu un peu totalement pragmatique, mais je pense aussi qu'il y aura aussi une déviance aussi de l'éthique qu'on peut faire de telle ou telle entreprise en fonction de ça. Et comme ça va être, je pense qu'on reprend l'esprit de des habilités. Il va falloir, pour que chaque transport autonome ou d'autre chose de système d'information qui est comme un cahier des charges, finalement une documentation on en a dit ou en disant à savoir à quelle sauce on va être mangé entre guillemets, quelque chose qui va être totalement imposé et c'est tout à fait normal. Et donc du coup, je pense qu'à un moment donné, la loi du marché va aussi réguler ça en bien ou en mal. Ça c'est un autre débat. Quand on parle de formation, moi, au sein des entreprises, on nous demande de plus en plus, nous on veut incorporer et c'est souvent ça vient, ça doit venir des Comex, des directions. D'un point de vue de la stratégie, en disant nous, on veut incorporer véritablement de l'éthique au sein de nos de nos projets digitaux associés à des valeurs qui nous reco, qui nous ressemblent. C'est notre reflet de notre entreprise et qui porte. Nous on les on les aide avec mon entreprise en tout cas et mes collaborateurs, à créer même un département de l'éthique du numérique. Il faut savoir qu'il y a quelques années encore, c'était la RSE, le juridique qui portait finalement les tout ce qui était la compliance.

Et puis l'éthique de l'entreprise, notamment dans le numérique, est de plus en plus une tendance de la société civile fait qu'il y a une vraie demande parce qu'ils comprennent que le juridique c'est une chose, l'éthique c'est une autre, c'est complémentaire, mais ce n'est pas du tout au même niveau. Il y en a un qui est beaucoup plus transversal et systémique que le juridique, qui peut être un peu plus cloisonnant. Mais les deux sont indispensables. Et donc du coup, comment ils font? Ils essaient de se former, il n'y a pas je prends ma casquette universitaire, il n'y a pas de formation et le profil des éthiciens, d'un point de vue universitaire n'existe pas. Parce que l'université, je peux critiquer parce que du coup, je suis chercheur associé, ce n'est pas mon employeur. Eh bien, c'est une grande bureaucratie, ça prend du temps. Donc c'est avec des fondations comme celle de Guillaume où nous on fait des formations si privées ou on aide à créer. C'est quoi le futur Digital Ethics Officer? C'est quelque chose qui se développe de plus en plus et donc c'est un nouveau métier qui apparaît, qu'il faut développer et donc il faut constituer. Je ne dis pas que l'université va prendre ça en compte. Il y a les premiers D.U. Qui vont sortir, qui sortent dans ce niveau-là. Donc après, il y a beaucoup de sensibilisation, d'éducation, de formation au sein des entreprises, de la société civile. J'essaie d'écrire des bouquins un peu vulgarisé, etc. Parce qu'il y a une vraie prise de conscience aussi. Je pense que d'un point de vue éducation éducationnelle, c'est important.

On parle de la terminale, de Platon, etc. Pour la philosophie. Mais je pense qu'il faut aussi parler de Python sans faire de jeux de mots sur le langage. C'est à dire que pas pour pouvoir tout savoir développer plus tard, parce que certains métiers n'auront pas besoin de développer, mais ça va être indispensable je pense, dans les années à venir où vous aurez forcément des interlocuteurs ou des collaborateurs, que eux, ça sera leur langage à eux. Et donc il va falloir les comprendre aussi pour mieux les faire travailler ensemble. Et je pense que pour moi, le langage Python ou les autres langages de développement, ça devrait être comme une troisième langue ou une quatrième langue étrangère qu'on apprend au lycée, et c'est un prérequis. Après, à partir de ça, ce qui est important c'est. Heu. Former, je voulais dire faire des ateliers de formation, de sensibilisation de moi. Nous, on les aide à développer leur propre charte éthique. Mais une charte éthique, c'est bien beau, mais il ne faut pas que ça soit juste un effet d'annonce, sinon c'est facile. Et puis le côté qui est important, c'est le rendre applicable, c'est le décliner en actions et donc faire des guides de bonnes pratiques pragmatiques. Et après on peut, on peut développer des processus. Nous on développe avec les entreprises des solutions d'auto évaluation, donc des solutions digitales qu'on met à disposition des entreprises comme des tableaux de bord qui permettent de suivre le futur. Digital est ex officer. C'est bien de créer cette discipline, mais si derrière vous avez le chauffeur mais vous n'avez pas la voiture à lui mettre à disposition pour qu'il travaille bien, c'est quoi l'intérêt? Et donc nous c'est ce qu'on essaye de faire dans son quotidien, de lui apporter ces outils qui permet d'automatiser.

Parce que les grands groupes, ils ont pas uniquement un une solution d'IA ou à un projet digital, ils ont une centaine, voire 1000 et donc du coup il va falloir qu'ils suivent au fur et à mesure. Et puis comment combattre le numérique sans faire du numérique? Il faut aussi s'appuyer sur pour automatiser aussi des choses via des modélisations qu'on peut faire qui évoluent dans le temps. Bon, vous voyez, il y a plein de choses qu'on peut faire. C'est soit un système de les faire rentrer dans un processus de labellisation aussi, c'est important. Pourquoi? Moi je m'en suis aperçu. Mais même dans des start up, ce que les startups peuvent être peu nombreuses et on voit qu'en fait ils travaillent en silos. Et puis le responsable de la start ups ne sait même pas son développeur comment il a conçu telle ou telle application. Et il me dit mais tu as fait ça Parce qu'en fait, un processus de labellisation, l'important pour répondre à toutes les questions, il faut que ce soit des professionnels de métier, différents ou d'abord différents, qui permettent de répondre aux questions et donc du coup, on leur force à faire un groupe de travail pluridisciplinaire où ils ne sont pas habitués à travailler ensemble. Je fais très court et donc du coup, c'est aussi ça la vertu. Projet transversal. Il faut que on y réponde avec des acteurs transversal.

David Lacombled: On a beaucoup parlé d'automobile. Je ne suis pas sûr qu'on aurait développé une telle filière industrielle il y a 120 ans de cela si on avait su que cet objet qu'est la voiture allait tuer autant de personnes dans l'humanité, plus d'un million de personnes chaque année à travers le monde, plus que la Première Guerre mondiale. Si on réunit tout le monde depuis et si elle était aussi polluante? Il faut rappeler que l’IA n'a tué personne. Ou peut-être une personne lors d'un accident d'une voiture autonome et qui a fait beaucoup plus de bruit.

Jerôme Béranger: On est en train de dire là, que les questions d'éthique, elles doivent être pris en charge et confiées aux entreprises, aux bonnes pratiques que les entreprises vont mettre en œuvre au marché, aux développeurs. Mais on renonce complètement à l'idée que les les pouvoirs publics, les démocraties doivent être pilote là-dedans et doivent prendre en main finalement leur destin par rapport à l'introduction de l'éthique dans l'IA.Guillaume Leboucher: Alors moi je suis pas sûr que les gens, les pouvoirs publics ont renoncé parce qu'au moins, si on prend ce que veut faire la Commission européenne avec I Act, il y a quand même des choses très intéressantes. Et quelque part, l'avènement très brutal de ChatGPT dans l'idée générative a modifié un petit peu les plans du futur texte du règlement européen. Donc ça, c'est sûr qu'il y aura forcément des annonces là dessus. C'est vrai qu'on peut se dire qu'aujourd'hui l'éthique, c'est un peu le parent pauvre de l'IA, et ça c'est sûr, c'est une réalité et qu'on ne peut qu'inciter, et Jérôme l'a très bien dit, à développer ces ateliers de de discussions, d'échanges, de mises en place. Moi je voudrais juste dire que le sujet est tellement vaste que d'un côté je pense qu'il faut toujours laisser un pied de la liberté humaine de concevoir sa propre éthique et en même temps l'inscrire dans ses règlements. Moi je pense que c'est ce qui fait la différenciation de l'Europe par rapport aux États-Unis. Et ça unit est bien massifier les choses, les développer en Europe. Et si on prend la France, on n'est pas le pays des Lumières pour rien. C'est à dire avoir cet esprit critique. Voilà. En tout cas, moi j'ai dans le sens de la question. Je n'ai pas l'impression que les pouvoirs publics ont baissé les bras, au contraire. Après voilà, ça va demander du temps, il l'investissement, ça c'est sûr.

Jerôme Béranger: Juste pour une réponse assez courte en fait, je pense que les deux ne sont pas antinomiques, c'est à dire que il faut et c'est important que les pouvoirs publics par les cadres européens ou autres, et puis c'est ce qu'ils font, investissent et imposent aussi un certain socle universel ou en tout cas de de base. Mais je pense qu'il ne faut pas, il faut toujours laisser une marge de liberté comme à. Guillaume a très bien dit aux entreprises pour à partir de ce socle là ou ce cadre qui a un peu imposé d'avoir une flexibilité aussi pour ajuster ou nuancer en fonction du contexte de l'entreprise et et de ce qu'ils veulent en faire. Ce qui est important, c'est que ce qu'ils veulent en faire, finalement, ça soit transparent et que ça soit mis publiquement au sein de ceux qui vont utiliser et ils auront leur choix. Et je pense que sinon on dénature aussi la nature même de l'Ethique. Ca doit rester une pensée en mouvance flexible, le socle, pour juste finir d'un point de vue historique, on a parlé des quatre principes éthiques. Il faut savoir que ça ne fait pas même plus que 20 ans, une vingtaine d'années que ça existe. Vous prenez le mot moi, avec ma casquette de médical, Le serment d'Hippocrate, Vᵉ siècle après Jésus-Christ, les quatre principes éthiques. Ils sont totalement intégrés dans le serment d'Hippocrate. Donc, si vous voulez, on n'a jamais. Ce serait arrogant de penser qu'on va créer des choses, c'est à dire qu'on n'a rien inventé. Tout existe déjà depuis l'antiquité et bien avant. La seule chose qui on a inventé finalement, ou qu'on réinvente, c'est de refaire les mêmes choses sous différentes formes. Des formes qui sont plus contemporaines et qui répondent à des contextes qui sont différents. Mais la base même, elle est, elle est identique finalement.

David Lacombled: Les pouvoirs publics seront d'autant plus investis que s'ils sont aiguillonnés par des citoyens éclairés. Et il est vrai qu'aujourd'hui, le principal interaction de formation, de sensibilisation passe par les entreprises. Charge aux décideurs de se former eux aussi. On va arriver au terme de notre échange. Je vous livre une citation de Georges Bernanos «L'espérance est un risque à courir». Et finalement, vous nous avez rassurés de ce point de vue là, d'un mot de conclusion quel un espoir partagé pour pour nos pour nos vies?

Guillaume Leboucher: J'espère que vous vous sortirez quand même assez revigoré et de ce partage et de cet échange. Moi j'ai encore une fois je dis les deux pieds, c'est à dire essayer de se fédérer les uns les autres sur ces questionnements éthiques et en même temps toujours. Promouvoir la liberté. Parce que sans liberté aussi, il n'y a plus d'éthique. Ça, c'est un principe. Si on est pas libre. De faire sa propre éthique. Il y a plus de liberté, donc il y a plus d'éthique. Ça, c'est gérer de manière assez, un peu conceptuelle et de manière concrète. Moi, mon message, effectivement, c'est de vous livrer, c'est regarder l'économie de l'attention, Ce qui se passe aujourd'hui autour des algorithmes sur les jeunes, c'est un vrai sujet de société et on n'a pas fini d'en parler.

Jerôme Béranger: Pour ma part, pour conclure, je dirais que finalement on a la chance. Je pense que s'il faut le prendre dans ce sens-là, de se dire qu'on est au début d'une quatrième révolution industrielle basée sur l'intelligence digitale et de la data et que finalement on est au début de cette transition-là, c'est maintenant qu'il faut savoir réfléchir à ce qu'on veut par rapport à tel usage de ces outils là et créer quelle société on veut. Se dire que c'est inéluctable. Ce n'est pas être fataliste, justement parce que quand vous regardez dans l'histoire de l'humanité et des révolutions industrielles et les changements de paradigme, en fait on ne pourra, il ne faut pas aller à l'encontre du progrès technologique parce qu'on aura perdu d'avance à l'échelle humaine. Ce qu'il faut justement, c'est savoir et prendre le temps de bien l'encadrer dès la conception, le mise en place, l'usage et l'évolution et le suivi qu'on en veut. Et on a la chance d'être à ce niveau-là et d'être de vous. Vous êtes une génération qui peuvent. Qui peut être intégrée justement dans cet esprit-là. Et c'est devenu inéluctable. Mais ça va. Pour finir, on va devoir aussi avoir des vraies réformes à faire sur des grandes organismes internationales. On le voit qui était basé sur le XXᵉ siècle ou le XIXᵉ siècle, l'OMS, l'ONU, et cetera. On voit qu'en fait ils sont un peu obsolètes d'un point de vue pragmatique par rapport aux grandes crises qu'il y a eu économiques du Covid et cetera, de la guerre. Je pense que pour le digital, il va falloir aussi, avec l'IA qui va arriver de plus en plus complexe, qu'il y a un nouvel organisme où on réforme certains organismes international pour gouverner ou piloter ou encadrer. Ça parce que c'est obsolète par rapport au XXᵉ siècle qui nous qui nous tend les bras en fait.

Pour aller plus loin: