De nouvelles recherches révèlent que même les algorithmes les plus « justes » ne peuvent échapper à l’influence du jugement humain, soulevant des questions difficiles sur qui contrôle réellement les résultats dans un monde axé sur l’IA.

L'IA est de plus en plus utilisée dans nos vies. Pour l'utiliser équitablement, nous devons comprendre comment les humains et l'IA interagissent. Si le développement de l'IA offre de nombreux avantages, son utilisation équitable représente un défi. L'IA est désormais utilisée dans des domaines importants comme le recrutement et les prêts.

Nous pensons que la supervision des décisions de l'IA par des humains permettra d'éviter la discrimination, mais les recherches du EU Policy Lab , soutenues par le Centre européen pour la transparence algorithmique ( ECAT ), montrent que c'est plus compliqué.

L’équité dans l’IA : plus complexe qu’on ne le pensait

Leur étude a révélé que les gens suivent souvent aveuglément les recommandations de l’IA, même lorsqu’elles sont injustes.

Des expériences menées auprès de professionnels des ressources humaines et du secteur bancaire ont montré que les décisions prises par l’IA en matière d’embauche et de prêts étaient toujours influencées par des préjugés humains, même lorsque l’IA était conçue pour être neutre.

Même une IA « équitable » ne pouvait pas éliminer complètement ces biais. Des entretiens et des ateliers ont montré que les professionnels se souciaient souvent davantage des objectifs de leur entreprise que de l'équité. Cela montre que des règles plus claires sont nécessaires pour savoir quand ignorer les recommandations de l'IA.

Vers une équité systémique

Les recherches du EU Policy Lab soulignent la nécessité d'aller au-delà de la simple supervision individuelle de l'IA et d'adopter une approche systémique qui s'attaque aux biais humains et algorithmiques. Pour réduire efficacement la discrimination, des actions à plusieurs niveaux sont nécessaires.

Des mesures techniques doivent garantir que les systèmes d'IA sont conçus de manière équitable et régulièrement mis à jour afin d'éviter d'éventuelles erreurs. Des interventions organisationnelles stratégiques peuvent créer une culture valorisant l'équité, notamment en formant les employés à la gestion des outils d'IA.

L’action politique est également cruciale : établir des lignes directrices claires pour la collaboration entre l’homme et l’IA contribuera à mieux gérer le risque de discrimination.

Le défi de la prise de décision humaine et de l'IA

Le principal enjeu réside dans la manière dont les humains et l'IA prennent des décisions ensemble. L'article 14 de la loi européenne sur l'IA stipule que la surveillance humaine doit prévenir les problèmes liés à des systèmes mal programmés. Or, en réalité, les individus ignorent souvent les suggestions de l'IA ou utilisent leurs propres préjugés, ce qui compromet l'idée même de décisions équitables.

Une étude menée auprès de 1 400 professionnels d’Allemagne et d’Italie a montré que les superviseurs humains avaient tendance à rejeter les recommandations « justes » de l’IA et à se fier à leur propre intuition, qui est souvent biaisée.

Lors des entretiens et des ateliers, les participants ont admis que leurs décisions reposaient sur de nombreux facteurs, y compris des préjugés inconscients. Cela montre que nous devons comprendre et gérer ces facteurs.

Donner aux décideurs le pouvoir de faire les bons choix

Pour réduire réellement les biais dans les décisions assistées par l'IA, il est primordial de fournir aux décideurs les outils et les règles appropriés. Nous devons être parfaitement clairs sur les cas où il est acceptable d'ignorer les suggestions de l'IA, et nous devons surveiller l'évolution de la situation.

En fournissant aux décideurs des informations sur leur situation et leurs éventuelles erreurs, nous pouvons les aider à prendre de meilleures décisions. Cela les incite à réfléchir à leurs décisions, ce qui conduit à des processus assistés par l'IA plus justes et plus équilibrés.

La loi sur l'intelligence artificielle : un changement radical

La loi européenne sur l’IA, adoptée l’année dernière, établit des règles pour l’intelligence artificielle et est considérée comme une norme mondiale.

Les conclusions du EU Policy Lab sont vraiment importantes pour l'élaboration des futures règles et lignes directrices : il ne s'agit pas seulement de suivre les réglementations, mais aussi de les faire fonctionner dans la vie réelle.

Les recherches montrent que garantir l'équité de l'IA exige un travail constant et une approche flexible. Cela dépend à la fois de ceux qui créent les systèmes et de ceux qui les utilisent. Sans une approche globale, prenant en compte les aspects sociaux, techniques et politiques, il sera difficile de garantir l'équité de l'IA.

Points clés de la recherche

Les recherches du EU Policy Lab ont utilisé une combinaison de méthodes pour démontrer la complexité de l'équité en IA. Pour construire des systèmes d'IA plus justes et plus ouverts, nous devons comprendre comment les humains et l'IA prennent des décisions et comment ils s'influencent mutuellement.

En fin de compte, pour parvenir à la justice, il ne suffit pas d'éliminer les biais des algorithmes. Cela exige également une sélection rigoureuse des données d'entraînement et de validation afin d'empêcher le transfert de préjugés humains ou de désinformation intentionnelle dans les systèmes d'IA. De plus, un changement des attitudes humaines et des approches organisationnelles est tout aussi essentiel. Utiliser l'IA pour prendre des décisions nous donne l'occasion de réfléchir à nos propres biais et à la manière dont nous faisons nos choix, tant sur le plan personnel que sociétal.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.