Noi cercetări arată că nici cei mai „corecți” algoritmi nu pot scăpa de influența judecății umane, ceea ce ridică întrebări dificile despre cine controlează cu adevărat rezultatele într-o lume condusă de inteligența artificială.

IA este utilizată din ce în ce mai mult în viețile noastre. Pentru a o utiliza în mod echitabil, trebuie să înțelegem cum interacționează oamenii și IA. Deși dezvoltarea IA oferă multe beneficii, utilizarea ei echitabilă este o provocare. IA este utilizată acum în domenii importante, cum ar fi angajarea și împrumuturile.

Credem că oamenii care supraveghează deciziile legate de inteligența artificială vor preveni discriminarea, însă cercetările EU Policy Lab , susținute de Centrul European pentru Transparență Algoritmică ( ECAT ), arată că lucrurile sunt mai complicate.

Echitatea în IA – mai dificilă decât credeam

Studiul lor a descoperit că oamenii urmează adesea orbește recomandările inteligenței artificiale, chiar și atunci când acestea sunt nedrepte.

Experimentele cu profesioniști din domeniul resurselor umane și al sectorului bancar au arătat că deciziile asistate de inteligență artificială privind angajările și împrumuturile erau încă influențate de prejudecățile umane, chiar și atunci când inteligența artificială a fost concepută să fie neutră.

Nici măcar o inteligență artificială „corectă” nu a putut elimina complet aceste prejudecăți. Interviurile și atelierele au arătat că profesioniștii sunt adesea mai preocupați de obiectivele companiei lor decât de corectitudine. Acest lucru arată că avem nevoie de reguli mai clare cu privire la momentul în care trebuie ignorate recomandările IA.

Către echitate sistemică

Cercetările EU Policy Lab evidențiază necesitatea de a depăși simpla supraveghere individuală a inteligenței artificiale și de a adopta, în schimb, o abordare la nivel de sistem care să abordeze atât prejudecățile umane, cât și pe cele algoritmice. Pentru a minimiza eficient discriminarea, sunt necesare acțiuni la mai multe niveluri.

Măsurile tehnice ar trebui să garanteze că sistemele de inteligență artificială sunt concepute pentru a fi echitabile și sunt actualizate periodic pentru a evita potențialele erori. Intervențiile organizaționale strategice pot crea o cultură care valorizează echitatea, inclusiv instruirea angajaților cu privire la modul de gestionare a instrumentelor de inteligență artificială.

Acțiunea politică este, de asemenea, crucială – stabilirea unor linii directoare clare pentru colaborarea dintre om și inteligența artificială va ajuta la o mai bună gestionare a riscului de discriminare.

Provocarea luării deciziilor de către oameni și inteligență artificială

Marea problemă este modul în care oamenii și inteligența artificială iau decizii împreună. Articolul 14 din Legea UE privind inteligența artificială prevede că supravegherea umană ar trebui să oprească problemele cauzate de sistemele programate greșit. Dar, în realitate, oamenii ignoră adesea ceea ce sugerează inteligența artificială sau își folosesc propriile prejudecăți, ceea ce strică ideea de decizii corecte.

Un studiu realizat cu 1.400 de profesioniști din Germania și Italia a arătat că supervizorii umani au tendința de a respinge recomandările „corecte” privind inteligența artificială și de a se baza pe propria intuiție, care este adesea părtinitoare.

În timpul interviurilor și atelierelor, oamenii au recunoscut că deciziile lor s-au bazat pe mai multe lucruri, chiar și pe prejudecăți inconștiente. Acest lucru arată că trebuie să înțelegem și să gestionăm aceste lucruri.

Oferirea factorilor de decizie a puterii de a face alegerile corecte

Pentru a reduce cu adevărat părtinirea în deciziile luate cu ajutorul inteligenței artificiale, este extrem de important să oferim factorilor de decizie instrumentele și regulile potrivite. Trebuie să fim foarte clari în ceea ce privește momentele în care este în regulă să ignorăm sugerările inteligenței artificiale și trebuie să fim atenți la evoluția lucrurilor.

Dacă le oferim factorilor de decizie informații despre cum se descurcă și unde ar putea greși, acest lucru îi poate ajuta să ia decizii mai bune. Acest lucru îi îndeamnă să se gândească la deciziile lor, ceea ce duce la procese mai corecte și mai echilibrate, susținute de inteligență artificială.

Legea privind inteligența artificială – o schimbare radicală

Legea UE privind inteligența artificială, care a fost adoptată anul trecut, stabilește norme pentru inteligența artificială și este considerată un standard global.

Ceea ce a descoperit Laboratorul de Politici al UE este cu adevărat important pentru elaborarea viitoarelor reguli și orientări – nu este vorba doar de respectarea reglementărilor, ci și de a le face să funcționeze în viața reală.

Cercetările arată că asigurarea echității în domeniul inteligenței artificiale necesită muncă constantă și o abordare flexibilă. Depinde atât de oamenii care creează sistemele, cât și de oamenii care le utilizează. Dacă nu adoptăm o abordare amplă – care să analizeze aspectele sociale, tehnice și politice – va fi dificil să facem IA echitabilă.

Puncte cheie din cercetare

Cercetarea Laboratorului de Politici al UE a folosit o combinație de metode pentru a demonstra cât de complicată este, de fapt, echitatea în domeniul inteligenței artificiale. Pentru a construi sisteme de inteligență artificială mai echitabile și mai deschise, trebuie să înțelegem cum iau decizii oamenii și inteligența artificială și cum se influențează reciproc.

În cele din urmă, obținerea justiției necesită mai mult decât simpla eliminare a prejudecăților din algoritmi. De asemenea, necesită o selecție atentă a datelor de antrenament și validare pentru a preveni transferul prejudecăților umane sau al dezinformării intenționate în sistemele de inteligență artificială. În plus, o schimbare a atitudinilor umane și a abordărilor organizaționale este la fel de esențială. Utilizarea inteligenței artificiale pentru a lua decizii ne oferă șansa de a ne gândi la propriile noastre prejudecăți și la modul în care facem alegeri, atât personal, cât și ca societate.

Modelați conversația

Aveți ceva de adăugat la această poveste? Aveți idei pentru interviuri sau unghiuri pe care ar trebui să le explorăm? Anunțați-ne dacă doriți să scrieți o continuare, un contrapunct sau să împărtășiți o poveste similară.