Le Code de bonnes pratiques de l'IA à usage général (GPAI CoP) visait à garantir le développement d'une IA fiable. Mais de plus en plus de groupes et d'experts affirment qu'il pourrait finir par favoriser les grandes entreprises au lieu de protéger le public des risques liés à l'IA. La colère du grand public aura-t-elle vraiment un impact ?
Le code devient brûlant
Lors de cette réunion sur l'IA en France, on ne parlait que d'argent, et pas vraiment de sécurité de l'IA ni de protection des droits des personnes. Et selon de nombreuses personnes du commun des mortels, le même phénomène se produit avec ce code d'IA pour des applications comme ChatGPT.
Ce code est élaboré par treize experts universitaires, avec l'aide de nombreux experts, associations caritatives, scientifiques et entreprises – près d'un millier au total. Il est censé indiquer aux entreprises qui créent des applications de type ChatGPT comment respecter les règles européennes en matière d'IA. Mais certains groupes envisagent déjà de l'abandonner.
« Si c'est juste un spectacle pour faire croire que les décisions sont prises de manière équitable, alors c'est inutile », a déclaré Karine Caunes, qui dirige Digihumanism et rédige le European Law Journal.
D'autres groupes de défense des droits humains travaillant sur la CoP du GPAI partagent ce sentiment. Quelques universitaires et membres d'organisations caritatives envisagent même de manifester, persuadés que personne ne les écoute réellement.
La liste des risques : là où les choses se compliquent
L'élément le plus important du Code réside dans la manière dont il répertorie les risques liés à l'IA. Mais sa forme actuelle ne correspond pas aux attentes des groupes de défense des droits civiques.
La toute première règle de la loi européenne sur l'IA stipule qu'elle vise à protéger les droits fondamentaux, rappelle Sarah Andrew du groupe Avaaz.
Mais le Code considère les risques pour les droits des personnes comme de simples « éléments supplémentaires à prendre en compte », au lieu de les placer au même niveau que les risques principaux. De plus, des éléments comme « une discrimination illégale massive » ou « des atteintes à la dignité humaine » figurent sur la liste des risques, mais des termes supplémentaires les rendent moins importants.
S'ils ont déjà mal répertorié les risques, alors tout le système de gestion de l'IA sera défectueux, prévient Andrew.
Éléments manquants : vérifier les entreprises et savoir comment l'IA est formée
Les groupes qui se concentrent sur la sécurité de l’IA soulignent un autre problème : ils n’ont pas besoin de disposer de contrôles de sécurité indépendants et ils n’ont pas besoin d’être clairs sur la manière dont ils entraînent leurs modèles d’IA.
Les experts affirment que si les entreprises pouvaient simplement tester leur propre IA sans que personne ne les observe, le système serait facilement abusé. Un autre problème majeur du Code est de savoir si elles doivent communiquer la manière dont elles entraînent leur IA. Les entreprises technologiques ne souhaitent pas divulguer les informations qu'elles utilisent pour entraîner leurs systèmes, par souci de respect des droits d'auteur et de confidentialité des données.
La Security Coalition, qui comprend un expert bien connu nommé Stuart Russell, a envoyé une lettre aux personnes en charge du Code avec quatre points principaux qu'ils souhaitent modifier :
- Rendre obligatoires les contrôles indépendants des modèles d’IA.
- Accordez plus de temps à l’examen des systèmes à risque avant de les utiliser.
- Définissez des niveaux de sécurité clairs qui, s’ils sont dépassés, signifient qu’un modèle d’IA est trop dangereux à utiliser.
- Créer des moyens de faire face aux nouveaux risques auxquels nous n’avons pas encore pensé.
« S’ils faisaient réellement ces choses, les personnes responsables feraient ce que les meilleurs experts disent pour déterminer et gérer les risques », soutient un signataire de la lettre.
Les grandes entreprises technologiques ne sont pas satisfaites
Alors que les groupes d'aide aux citoyens réclament des règles plus strictes, l'industrie technologique voit les choses très différemment. Avant même la réunion sur l'IA, Meta et Google avaient déclaré ne pas apprécier le Code tel qu'il est.
Joel Kaplan, principal lobbyiste de Meta, a qualifié cette mesure de « peu pratique et inefficace », tandis que Kent Walker, de Google, a déclaré qu'il s'agissait d'un « pas dans la mauvaise direction ». Les entreprises affirment que le Code les oblige à faire plus que ce que prévoit la législation européenne sur l'IA.
« Ce n'est pas vrai », affirme Caunes. Le Code ne se contente pas de répéter la loi, il doit aller plus loin, estime-t-il.
Mais certaines de ces plaintes semblent attirer l'attention à Bruxelles. La Commission européenne a commencé à évoquer la simplification des règles pour favoriser la croissance économique.
Le discours de clôture du PDG de Google, Sundar Pichai, a été un moment particulièrement révélateur lors de la réunion sur l'IA. Qu'une entreprise prônant un allègement des règles obtienne une place aussi importante n'a échappé à personne.
Google fait discrètement pression sur les responsables du Code pour qu'ils affaiblissent les références au droit de l'UE, tout en obtenant le dernier mot lors du sommet, a commenté Andrew.
Quelle est la prochaine étape ?
Les échanges autour de ce Code d'IA montrent à quel point les intérêts du citoyen lambda et des grandes entreprises technologiques sont contradictoires. Tandis que les groupes de défense du public se battent pour des questions telles que l'honnêteté, la sécurité et les droits de l'homme, les grandes entreprises réclament moins de règles et plus de liberté pour agir comme elles le souhaitent.
Jusqu'à présent, les groupes publics n'ont pas officiellement abandonné leur travail sur le Code, mais ils commencent à en avoir assez. Si personne ne les écoute, ils pourraient commencer à faire des choses qui attireront davantage l'attention.
Rédigé par
Façonner la conversation
Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.