Bien que conçu pour concilier sécurité et innovation, le Code de bonnes pratiques européen en matière d'IA suscite des critiques. Destiné à compléter la loi sur l'IA en tant que guide volontaire, certains craignent désormais que son caractère non contraignant ne soit exploité comme une faille.

Pendant plus d'un an, une bataille acharnée a fait rage autour du document. La Commission européenne, se positionnant comme favorable à l'innovation, a dû naviguer entre le lobbying agressif de l'industrie et la pression des groupes de la société civile et des députés européens, qui craignaient que le code ne devienne trop laxiste, compromettant ainsi la loi sur l'IA qu'il était censé soutenir.

Une question se posait en arrière-plan : est-il même possible de créer une réglementation significative que les entreprises adopteraient volontairement – ​​sans que cela ne devienne un geste édenté ?

Meta dit non – et ce n’est pas une mauvaise chose

Alors que des entreprises comme OpenAI et le français Mistral ont signé, Meta – le géant technologique derrière Facebook et Instagram – a refusé. Paradoxalement, ce n'est pas un signe d'échec. C'est plutôt la preuve que le code n'a pas été entièrement modulé pour servir les intérêts de l'industrie.

Le rejet de Meta révèle que le document contient encore des engagements que certaines entreprises refusent de prendre. Dans le contexte actuel de pouvoir, cela peut être considéré comme un succès réglementaire.

Meta a une longue tradition de mise à l'épreuve des lois européennes, les affaiblissant souvent publiquement. Son approche est bien rodée : introduire une fonctionnalité controversée, provoquer une réaction publique, présenter le contrôle de l'UE comme anti-innovation, menacer de supprimer des services et, enfin, modifier le système juste assez pour donner l'impression d'une conformité, tout en contournant l'esprit des règles.

Zuckerberg joue dur

Mark Zuckerberg, actionnaire majoritaire de Meta – dont l'entreprise est aujourd'hui valorisée à environ 1 500 milliards d'euros – n'a jamais caché son objectif : il veut remporter la course mondiale à l'IA, même si cela implique d'entrer en conflit avec le droit européen.

Des rapports suggèrent que dans le but de constituer une équipe de « superintelligence », Meta a offert aux meilleurs talents de l’IA des rémunérations allant jusqu’à 260 millions d’euros – des sommes que 99,996 % des entreprises européennes ne pourraient jamais égaler.

Au sein de l'UE, Meta mène des batailles sur plusieurs fronts. En juin 2024, l'entreprise a suspendu le déploiement de son IA après une vague de plaintes concernant la gestion des données des utilisateurs. Lorsqu'elle a repris en avril 2025, sous la pression, les mécanismes de désinscription des utilisateurs n'ont été que légèrement ajustés. La tendance s'est maintenue : repousser les limites, éviter de rendre des comptes.

Meta est également engagé dans un litige avec la Commission européenne concernant son modèle publicitaire controversé de type « pay or consent », qui lui a déjà valu une amende de 200 millions d'euros et pourrait entraîner de nouvelles sanctions. Des enquêtes sont en cours pour examiner d'éventuelles violations des règles de la plateforme et une coopération présumée avec des éditeurs russes sanctionnés.

L’Europe est-elle prête à une lutte de pouvoir ?

Meta n'a pas signé le code ; cependant, elle devra se conformer à la loi sur l'IA d'ici le 2 août. Le problème est que le bilan de l'UE en matière d'application des règles technologiques aux géants mondiaux reste précaire. Les sanctions, bien que de plus en plus lourdes, ne parviennent toujours pas à dissuader les violations répétées.

La pertinence du code comme outil réglementaire ou simple façade politique dépendra de sa mise en œuvre. Les codes d'éthique volontaires, dépourvus de mécanismes d'application, se sont historiquement révélés faibles. Les entreprises les plus riches y adhéreront, à condition que le texte soit suffisamment vague pour éviter tout risque juridique.

Cela rend les premières critiques des ONG d'autant plus pertinentes. Dès la phase de consultation, les organismes de surveillance ont averti que le code avait été édulcoré sous la pression de l'industrie. Selon eux, la Commission a laissé le secteur technologique trop influencer le document, risquant ainsi de vider de leur substance des dispositions clés de la loi sur l'IA.

Il ne s’agit pas seulement de technologie

Le conflit autour du code ne se limite pas aux normes techniques. Il met à l'épreuve l'ensemble du modèle européen de régulation des technologies, qui cherche à concilier droits fondamentaux, intérêt public et innovation. Cependant, il apparaît de plus en plus clairement que ces objectifs ne sont pas toujours parfaitement alignés.

Meta n'est pas là pour négocier. Il joue la domination. La stratégie de Zuckerberg repose sur la pression politique, le discours médiatique et les failles juridiques. On parle même de faire appel à Donald Trump pour inciter l'UE à assouplir ses règles. Dans ce discours, les réglementations européennes sont présentées comme des barrières commerciales, ouvrant un nouveau front dans une guerre économique transatlantique.

Si l'Europe veut véritablement être un leader en matière d'IA responsable, elle doit aller au-delà de la législation. Elle doit la faire respecter. Surtout face à un adversaire géant pesant des milliards d'euros.

Permettre aux entreprises mondiales de défier ouvertement les codes de conduite ou de contraindre les régulateurs à faire des compromis porterait atteinte non seulement à la crédibilité de la Commission, mais également à l’ensemble de la loi sur l’IA elle-même.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.