Una nuova ricerca rivela che perfino gli algoritmi più "giusti" non riescono a sfuggire all'influenza del giudizio umano, sollevando interrogativi difficili su chi controlla realmente i risultati in un mondo guidato dall'intelligenza artificiale.

L'intelligenza artificiale è sempre più utilizzata nelle nostre vite. Per utilizzarla in modo equo, dobbiamo capire come interagiscono esseri umani e intelligenza artificiale. Sebbene lo sviluppo dell'intelligenza artificiale offra molti vantaggi, utilizzarla in modo equo è difficile. L'intelligenza artificiale è ora utilizzata in settori importanti come l'assunzione di personale e i prestiti.

Crediamo che la supervisione delle decisioni dell'intelligenza artificiale da parte degli esseri umani possa prevenire la discriminazione, ma la ricerca dell'EU Policy Lab , supportata dal Centro europeo per la trasparenza algoritmica ( ECAT ), dimostra che la questione è più complicata.

L’equità nell’intelligenza artificiale: più complicata di quanto pensassimo

Il loro studio ha scoperto che spesso le persone seguono ciecamente i consigli dell'intelligenza artificiale, anche quando sono ingiusti.

Esperimenti condotti su professionisti del settore bancario e delle risorse umane hanno dimostrato che le decisioni prese dall'intelligenza artificiale in merito ad assunzioni e prestiti erano comunque influenzate da pregiudizi umani, anche quando l'intelligenza artificiale era progettata per essere neutrale.

Nemmeno un'intelligenza artificiale "equa" è riuscita a eliminare completamente questi pregiudizi. Interviste e workshop hanno dimostrato che i professionisti spesso si preoccupavano più degli obiettivi aziendali che dell'equità. Questo dimostra che abbiamo bisogno di regole più chiare su quando ignorare le raccomandazioni dell'intelligenza artificiale.

Verso l’equità sistemica

La ricerca dell'EU Policy Lab evidenzia la necessità di andare oltre la semplice supervisione dell'IA da parte degli individui e adottare invece un approccio sistemico che affronti sia i pregiudizi umani che quelli algoritmici. Per ridurre al minimo la discriminazione in modo efficace, è necessario agire su più livelli.

Le misure tecniche dovrebbero garantire che i sistemi di intelligenza artificiale siano progettati per essere equi e vengano aggiornati regolarmente per evitare potenziali errori. Interventi organizzativi strategici possono creare una cultura che valorizzi l'equità, inclusa la formazione dei dipendenti sulla gestione degli strumenti di intelligenza artificiale.

Fondamentale è anche l'azione politica: stabilire linee guida chiare per la collaborazione tra esseri umani e intelligenza artificiale aiuterà a gestire meglio il rischio di discriminazione.

La sfida del processo decisionale umano e dell’intelligenza artificiale

Il problema principale è come esseri umani e IA prendano decisioni insieme. L'articolo 14 della legge UE sull'IA stabilisce che la supervisione umana dovrebbe prevenire i problemi causati da sistemi mal programmati. Ma, in realtà, spesso le persone ignorano ciò che l'IA suggerisce o sfruttano i propri pregiudizi, il che compromette l'idea di decisioni eque.

Uno studio condotto su 1.400 professionisti provenienti da Germania e Italia ha dimostrato che i supervisori umani tendono a ignorare le raccomandazioni “giuste” dell’IA e ad affidarsi al proprio istinto, spesso distorto.

Durante interviste e workshop, le persone hanno ammesso che le loro decisioni si basavano su molti fattori, persino pregiudizi inconsci. Questo dimostra che dobbiamo comprendere e affrontare questi fattori.

Dare ai decisori il potere di fare le scelte giuste

Per ridurre davvero i bias nelle decisioni supportate dall'IA, è fondamentale fornire ai decisori gli strumenti e le regole giuste. Dobbiamo essere chiari su quando è accettabile ignorare ciò che l'IA suggerisce e dobbiamo monitorare l'andamento delle cose.

Se forniamo ai decisori informazioni su come stanno procedendo e su dove potrebbero sbagliare, possiamo aiutarli a prendere decisioni migliori. Questo li spinge a riflettere sulle loro decisioni, il che porta a processi più equi ed equilibrati supportati dall'intelligenza artificiale.

L’Artificial Intelligence Act: una svolta

L'atto UE sull'intelligenza artificiale, adottato lo scorso anno, stabilisce le regole per l'intelligenza artificiale ed è considerato uno standard globale.

Ciò che ha scoperto l'EU Policy Lab è davvero importante per la definizione di norme e linee guida future: non si tratta solo di rispettare le normative, ma anche di farle funzionare nella vita reale.

La ricerca dimostra che garantire l'equità dell'IA richiede un lavoro costante e un approccio flessibile. Dipende sia da chi crea i sistemi sia da chi li utilizza. Se non adottiamo un approccio ampio, considerando gli aspetti sociali, tecnici e politici, sarà difficile rendere l'IA equa.

Punti chiave della ricerca

La ricerca dell'EU Policy Lab ha utilizzato una combinazione di metodi per dimostrare quanto sia complessa l'equità nell'IA. Per costruire sistemi di IA più equi e aperti, dobbiamo capire come gli esseri umani e l'IA prendono decisioni e come si influenzano a vicenda.

In definitiva, ottenere giustizia non richiede solo l'eliminazione dei pregiudizi negli algoritmi. Richiede anche un'attenta selezione dei dati di addestramento e convalida per impedire il trasferimento di pregiudizi umani o disinformazione intenzionale nei sistemi di intelligenza artificiale. Inoltre, un cambiamento negli atteggiamenti umani e negli approcci organizzativi è altrettanto essenziale. Utilizzare l'intelligenza artificiale per prendere decisioni ci offre l'opportunità di riflettere sui nostri pregiudizi e su come facciamo le nostre scelte, sia a livello personale che sociale.

Dai forma alla conversazione

Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.