Uit nieuw onderzoek blijkt dat zelfs de meest ‘eerlijke’ algoritmes niet kunnen ontsnappen aan de invloed van menselijk oordeel. Dit roept lastige vragen op over wie nu eigenlijk de controle heeft over de uitkomsten in een door AI aangestuurde wereld.

AI wordt steeds vaker in ons leven gebruikt. Om het eerlijk te gebruiken, moeten we begrijpen hoe mens en AI met elkaar omgaan. Hoewel AI-ontwikkeling veel voordelen biedt, is het een uitdaging om het eerlijk te gebruiken. AI wordt nu gebruikt in belangrijke sectoren zoals personeelswerving en kredietverlening.

We denken dat mensen die toezicht houden op AI-beslissingen discriminatie kunnen voorkomen, maar onderzoek van het EU Policy Lab , ondersteund door het Europees Centrum voor algoritmische transparantie ( ECAT ), toont aan dat het ingewikkelder ligt.

Eerlijkheid in AI – lastiger dan we dachten

Uit hun onderzoek bleek dat mensen vaak blindelings AI-aanbevelingen opvolgen, zelfs als deze oneerlijk zijn.

Experimenten met HR- en bankprofessionals lieten zien dat door AI ondersteunde beslissingen over het aannemen van personeel en het verstrekken van leningen nog steeds beïnvloed werden door menselijke vooroordelen, zelfs wanneer de AI neutraal was ontworpen.

Zelfs 'eerlijke' AI kon deze vooroordelen niet volledig wegnemen. Uit interviews en workshops bleek dat professionals vaak meer waarde hechten aan de doelstellingen van hun bedrijf dan aan eerlijkheid. Dit toont aan dat we duidelijkere regels nodig hebben over wanneer we AI-aanbevelingen moeten negeren.

Op weg naar systemische eerlijkheid

Het onderzoek van het EU Policy Lab benadrukt de noodzaak om verder te gaan dan alleen individuen die toezicht houden op AI en in plaats daarvan een systeembrede aanpak te hanteren die zowel menselijke als algoritmische vooroordelen aanpakt. Om discriminatie effectief te minimaliseren, zijn maatregelen op meerdere niveaus nodig.

Technische maatregelen moeten ervoor zorgen dat AI-systemen zo ontworpen zijn dat ze eerlijk zijn en regelmatig worden bijgewerkt om mogelijke fouten te voorkomen. Strategische organisatorische interventies kunnen een cultuur creëren die eerlijkheid hoog in het vaandel heeft staan, inclusief het trainen van medewerkers in het gebruik van AI-tools.

Politieke actie is eveneens van cruciaal belang: het opstellen van duidelijke richtlijnen voor de samenwerking tussen mens en AI helpt het risico op discriminatie beter te beheersen.

De uitdaging van menselijke en AI-besluitvorming

De grote vraag is hoe mensen en AI samen beslissingen nemen. Artikel 14 van de EU AI-wet stelt dat menselijk toezicht problemen door slecht geprogrammeerde systemen moet voorkomen. Maar in werkelijkheid negeren mensen vaak wat AI suggereert of gebruiken ze hun eigen vooroordelen, wat het idee van eerlijke beslissingen in de war schopt.

Uit een onderzoek onder 1.400 professionals uit Duitsland en Italië bleek dat menselijke leidinggevenden de neiging hadden om ‘eerlijke’ AI-aanbevelingen te negeren en op hun eigen onderbuikgevoel af te gaan, dat vaak bevooroordeeld is.

Tijdens interviews en workshops gaven mensen toe dat hun beslissingen op veel factoren gebaseerd waren, zelfs onbewuste vooroordelen. Dit laat zien dat we deze factoren moeten begrijpen en aanpakken.

Geef besluitvormers de macht om de juiste keuzes te maken

Om vooringenomenheid in door AI ondersteunde beslissingen echt te verminderen, is het superbelangrijk om besluitvormers de juiste tools en regels te geven. We moeten glashelder zijn over wanneer het oké is om de suggesties van AI te negeren, en we moeten goed in de gaten houden hoe de zaken ervoor staan.

Als we besluitvormers informatie geven over hoe ze presteren en waar ze mogelijk de fout in gaan, kan dat hen helpen betere keuzes te maken. Dit stimuleert hen om na te denken over hun beslissingen, wat leidt tot eerlijkere en evenwichtigere AI-ondersteunde processen.

De Artificial Intelligence Act – een game-changer

De EU AI-wet, die vorig jaar werd aangenomen, stelt regels op voor kunstmatige intelligentie en geldt als een wereldwijde standaard.

De bevindingen van het EU Policy Lab zijn van groot belang voor het opstellen van toekomstige regels en richtlijnen: het gaat niet alleen om het naleven van de regels, maar ook om het zorgen dat ze in de praktijk werken.

Het onderzoek toont aan dat het garanderen van een eerlijke AI constante inzet en een flexibele aanpak vereist. Het is een verantwoordelijkheid van zowel de mensen die de systemen maken als de mensen die ze gebruiken. Als we geen brede aanpak hanteren – waarbij we kijken naar sociale, technische en politieke aspecten – wordt het lastig om AI eerlijk te maken.

Belangrijkste punten uit het onderzoek

Het onderzoek van het EU Policy Lab maakte gebruik van een mix van methoden om te laten zien hoe ingewikkeld rechtvaardigheid in AI werkelijk is. Om eerlijkere en opener AI-systemen te bouwen, moeten we begrijpen hoe mensen en AI beslissingen nemen en hoe ze elkaar beïnvloeden.

Uiteindelijk vereist het bereiken van rechtvaardigheid meer dan alleen het elimineren van vooroordelen in algoritmen. Het vereist ook de zorgvuldige selectie van trainings- en validatiegegevens om te voorkomen dat menselijke vooroordelen of opzettelijke desinformatie worden overgedragen op AI-systemen. Daarnaast is een verandering in menselijke houding en organisatorische benaderingen even essentieel. Het gebruik van AI bij besluitvorming geeft ons de kans om na te denken over onze eigen vooroordelen en hoe we keuzes maken, zowel persoonlijk als maatschappelijk.

Geschreven door

Geef het gesprek vorm

Heb je iets toe te voegen aan dit verhaal? Heb je ideeën voor interviews of invalshoeken die we moeten verkennen? Laat het ons weten als je een vervolg wilt schrijven, een tegengeluid wilt laten horen of een soortgelijk verhaal wilt delen.