Cerca di immaginare di entrare in un’aula di tribunale in cui, accanto al giudice umano, c’è un sistema di intelligenza artificiale che analizza dati, individua precedenti, segnala possibili esiti e suggerisce verdetti. L’idea che un algoritmo  possa affiancare il giudice non è più fantascienza, in diversi Paesi del mondo, le corti stanno sperimentando nuovi strumenti che supportano i giudici automatizzando alcune fasi del lavoro. L’attrattiva è evidente: riduzione del carico di casi arretrati, decisioni più rapide, diminuzione degli errori burocratici … ma la promessa di efficienza apre anche una serie di interrogativi profondi su cosa significhi giustizia, chi ne sia responsabile e quali siano i criteri di equità da rispettare.

 

I problemi

Uno dei problemi principali è quello del bias, il pregiudizio implicito dei dati. Gli algoritmi non potendo ragionare come gli esseri umani identificano schemi nei dati su cui sono stati addestrati. Se quei dati riflettono discriminazioni o disparità storiche, il rischio è che il sistema le riproduca e , in alcuni casi, le amplifichi più che mai. Questo è un particolare delicato nei settori del diritto penale e dell’amministrativo, dove strumenti per valutare il rischio di recidiva o suggerire pene potrebbero inavvertitamente perpetuare ingiustizie. La percezione pubblica cambia a seconda di quanto l’AI influisca sul processo: le persone infatti tendono a fidarsi degli strumenti quando servono a raccogliere informazioni, ma diventano più scettiche quando questi strumenti iniziano a suggerire decisioni concrete.

Un altro tema cruciale è la trasparenza. La giustizia non si può basare solo sul risultato, ma anche sul percorso: come si è giunti a una decisione deve essere chiaro per le parti coinvolte e per la società. Molti sistemi AI operano come “scatole nere”: producono output senza spiegare come sono arrivati a quella conclusione, Questo mette in discussione non solo la possibilità di contestare una decisione, ma anche l’indipendenza del giudice e la legittimità stessa del tribunale. Se un giudice si affida ciecamente alle indicazioni di un algoritmo senza verificarle, rischia di compromettere il principio di imparzialità e la tutela dei diritti delle persone coinvolte.

La questione della responsabilità è altrettanto importante. Se un algoritmo contribuisce a suggerire un verdetto, chi è il responsabile di un eventuale errore o ingiustizia? Il giudice, il programmatore, il data scientist o l’istituzione che ha deciso di utilizzare lo strumento?

La dottrina legale tradizionale presuppone un decisore  umano; quando il processo decisionale include macchine complesse, la cornice giuridica  diventa più incerta. Alcuni studi spiegano che l’uso dell’AI sia percepito come accettabile quando serve a raccogliere informazioni o a ordinare documenti, ma meno quando incide direttamente sul risultato finale. La linea tra assistenza e sostituzione del giudice umano è sottile e piena di implicazioni etiche e pratiche.

Il valore del giudice umano non si trova solo nella velocità o nell’analisi dei dati, ma nella capacità di valutare le circostanze individuali, di esercitare discrezione, di bilanciare principi e di interpretare norme alla luce dei valori sociali. In alcuni sistemi giuridici, il processo stesso ha un valore simbolico: l’interazione tra giudice, parti e avvocati è parte integrante del concetto di giustizia. Se un algoritmo sostituisce questa componente, si perde qualcosa di più del tempo: si perde la percezione di equità e legittimità del sistema.

Le norme

Sul piano normativo, organismi internazionali e singoli Paesi stanno cercando di dare indicazioni chiare. Il Consiglio d’Europa ha pubblicato principi etici per l’uso dell’AI nella giustizia, sottolineando che il controllo deve restare umano e che la trasparenza è imprescindibile. Alcune giurisdizioni hanno introdotto regole che obbligano a segnalare l’uso di strumenti automatizzati o a limitarne l’impiego a funzioni puramente informative. Altri studiosi sottolineano l’importanza di audit sui modelli, di supervisione costante, di verifiche periodiche e di responsabilità chiare in caso di errore.

Esempi concreti mostrano quanto siano rilevanti questi rischi. Durante un’udienza penale negli Stati Uniti, un video generato da AI è stato presentato in tribunale per mostrare un messaggio della presunta vittima al reo, provocando appelli e dibattiti su come contenuti automatizzati possano influenzare il giudizio umano. Strumenti per valutare il rischio di recidiva hanno inoltre evidenziato che alcune categorie di imputati venivano penalizzate più di altre a causa dei dati di addestramento del modello. Questi episodi sottolineano che, senza supervisione e controlli adeguati, l’AI può introdurre nuovi tipi di ingiustizia invece di prevenirle.

Il dibattito si estende anche alla dimensione culturale: che significa “giudicare” in un’epoca in cui algoritmi sofisticati possono assistere il processo decisionale? La tecnologia può aumentare l’efficienza e supportare la giustizia, ma non può sostituire la comprensione dei valori, delle motivazioni e delle circostanze individuali. La sfida è quindi trovare un equilibrio: utilizzare le capacità dell’AI per potenziare il lavoro del giudice umano senza delegare completamente a una macchina la decisione finale.

Per i sistemi giudiziari, la strada da percorrere include più elementi. Innanzitutto, audit e valutazione dei modelli utilizzati, assicurandosi che siano addestrati con dati affidabili e privi di pregiudizi. Poi, supervisione umana costante: anche quando l’AI fornisce suggerimenti, il giudice deve verificarli, interpretarli e assumersi la responsabilità del verdetto. Infine, trasparenza verso le parti e verso il pubblico: chi è sottoposto a un giudizio ha diritto di sapere come e perché una decisione è stata presa, soprattutto quando le macchine giocano un ruolo nel processo.

In definitiva, l’intelligenza artificiale non è un giudice, né un soggetto di diritto. L’essere umano rimane al centro, ma con un ruolo che sta cambiando: da creatore diretto a curatore, selezionatore e interprete dei dati prodotti dalla macchina. La linea tra assistenza e sostituzione resta sottile, e il rischio di perdere la fiducia pubblica nel sistema giuridico è reale se l’AI diventa autorità e non strumento. La vera sfida non è solo tecnologica, ma culturale: capire come integrare la macchina nella giustizia senza compromettere equità, responsabilità e senso umano del giudizio. Se i tribunali vogliono trarre beneficio dall’innovazione, devono farlo con consapevolezza, garantendo che la tecnologia rimanga un alleato e non un sostituto, e ricordando che la giustizia non è solo calcolo, ma anche empatia, valutazione e discernimento umano.

 

Written by

Shape the conversation

Do you have anything to add to this story? Any ideas for interviews or angles we should explore? Let us know if you’d like to write a follow-up, a counterpoint, or share a similar story.