In un contesto europeo caratterizzato da procedimenti civili e penali estremamente lenti, la tecnologia appare quasi una risposta pragmatica. Infatti, automatizzare compiti ripetitivi, smistare pile di fascicoli, segnalare incongruenze o fare riferimento a precedenti può dare ai giudici più tempo per affrontare gli aspetti più complessi del caso. Tuttavia, l'ingresso dell'intelligenza artificiale nelle aule di tribunale solleva diverse questioni che vanno oltre la semplice riduzione dei tempi processuali. Il problema principale sarebbe la trasparenza.

Nei sistemi europei, la giustizia non si limita al risultato finale, ma è essenziale che il processo che vi conduce sia comprensibile e, soprattutto, verificabile. Molti sistemi di intelligenza artificiale, infatti, funzionano come "scatole nere", producendo risultati che non rispecchiano pienamente i criteri utilizzati.

Un esempio concreto che può aiutarci a comprendere questo problema dell'intelligenza artificiale è il sistema "SyRI" dei Paesi Bassi. Questo algoritmo, sviluppato dal governo olandese per individuare potenziali frodi sui sussidi sociali, combina numerosi database governativi, come dati fiscali, catastali, immatricolazioni di veicoli e informazioni su occupazione e reddito. Questi dati venivano poi analizzati automaticamente per assegnare un livello di rischio ai cittadini. Ad esempio, se una persona veniva considerata "a rischio", veniva segnalata alle autorità per ulteriori indagini .

Il problema principale di questo meccanismo è la trasparenza . L'algoritmo non era accessibile al pubblico e le autorità non hanno spiegato in modo esaustivo quali dati fossero stati combinati, i criteri di rischio o come fossero stati creati i profili sospetti. Ciò ha reso impossibile per i cittadini contestare le decisioni del sistema. Nel 2020, la Corte dell'Aia ha dichiarato illegale l'utilizzo del sistema . Secondo la Corte, SyRI violava il diritto alla privacy e non garantiva adeguatamente la trasparenza nel processo decisionale.

Se le parti coinvolte in un processo non riescono a comprendere in che modo un algoritmo abbia contribuito alla decisione, si perde la possibilità di contestarla. Ciò può comportare, ad esempio, il rischio di discriminazione indiretta. Gli algoritmi apprendono dai dati storici: se i dati che ricavano riflettono disuguaglianze sociali o pratiche discriminatorie consolidate nel tempo, il sistema rischia di ripeterle.

In ambito penale, gli strumenti che stimano la probabilità di recidiva o suggeriscono misure precauzionali potrebbero avere un impatto sproporzionato su alcuni imputati appartenenti a determinate categorie di individui. Ciò violerebbe il principio europeo di uguaglianza e il divieto di discriminazione. Un altro problema riguarderebbe la responsabilità. La tradizione giuridica europea attribuisce la decisione al soggetto umano, che si assume la responsabilità e deve giustificare le proprie azioni.

Consapevole di questi rischi, il Consiglio d'Europa ha adottato linee guida etiche per l'uso dell'IA nei sistemi giudiziari, sottolineando la centralità della supervisione umana, della non discriminazione e, soprattutto, della trasparenza.

Contemporaneamente, l'Unione Europea ha approvato l'AI Act , che classifica tutti i sistemi utilizzati in ambito giudiziario come ad alto rischio, imponendo obblighi in materia di supervisione, valutazione e tutela dei diritti fondamentali. La tecnologia, secondo l'Unione Europea, può supportare, ma non sostituire completamente, la funzione giudiziaria.

Infine, resta una dimensione più culturale. Il giudizio non è semplicemente un esercizio di calcolo probabilistico. Nei sistemi europei, il processo rappresenta anche uno spazio di ascolto, discussione e partecipazione pubblica. Affidare questo compito interamente a un algoritmo ridurrebbe la giustizia a una mera operazione tecnica, privandola della componente umana che ne costituisce l'essenza.

Scritto da

Dai forma alla conversazione

Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.