Într-un context european marcat de proceduri civile și penale extrem de lente, tehnologia apare aproape ca un răspuns pragmatic. Într-adevăr, automatizarea sarcinilor repetitive, sortarea unor grămezi de dosare, semnalarea inconsecvențelor sau referirea la precedente pot oferi judecătorilor mai mult timp pentru a aborda aspecte mai complexe ale cazului. Cu toate acestea, intrarea inteligenței artificiale în sălile de judecată ridică mai multe întrebări care depășesc scurtarea proceselor. Principala problemă ar fi transparența.

În sistemele europene, justiția nu se limitează la rezultatul final, ci este esențial ca procesul care duce la acesta să fie inteligibil și, mai presus de toate, verificabil. Multe sisteme de inteligență artificială funcționează, de fapt, ca niște „cutii negre”, producând rezultate fără a reflecta pe deplin criteriile utilizate.

Un exemplu concret care ne poate ajuta să înțelegem această problemă a inteligenței artificiale este sistemul „SyRI” din Olanda. Acest algoritm, dezvoltat de guvernul olandez pentru a detecta potențialele fraude cu beneficii sociale, combină numeroase baze de date guvernamentale, cum ar fi date fiscale, registre funciare, înmatriculări ale vehiculelor și informații despre ocuparea forței de muncă și venituri. Aceste date au fost apoi analizate automat pentru a atribui cetățenilor un nivel de risc. De exemplu, dacă o persoană era considerată „în pericol”, aceasta era raportată autorităților pentru investigații suplimentare .

Principala problemă a acestui mecanism este transparența . Algoritmul nu era disponibil publicului, iar autoritățile nu au explicat pe deplin ce date au fost combinate, criteriile de risc sau modul în care au fost construite profilurile suspecte. Acest lucru a făcut imposibilă contestarea deciziilor sistemului de către cetățeni. În 2020, instanța de la Haga a declarat utilizarea sistemului ilegală . Potrivit instanței, SyRI a încălcat dreptul la viață privată și nu a garantat în mod adecvat transparența în procesul decizional.

Dacă părțile implicate într-un proces nu pot înțelege cum a contribuit un algoritm la luarea deciziei, se pierde posibilitatea de contestare. Acest lucru poate duce, de exemplu, la riscul discriminării indirecte. Algoritmii învață din datele istorice: dacă datele pe care le obțin reflectă inegalități sociale sau practici discriminatorii care s-au dezvoltat în timp, sistemul riscă să le repete.

În materie penală, instrumentele care estimează probabilitatea recidivei sau sugerează măsuri precauționale ar putea avea un impact disproporționat asupra anumitor inculpați aparținând unei anumite categorii de indivizi. Acest lucru ar încălca principiul european al egalității și interzicerea discriminării. O altă problemă ar fi răspunderea. Tradiția juridică europeană plasează decizia în sarcina unui subiect uman, care își asumă responsabilitatea și trebuie să își justifice acțiunile.

Conștient de aceste riscuri, Consiliul Europei a adoptat orientări etice pentru utilizarea IA în sistemele judiciare, subliniind centralitatea supravegherii umane, a nediscriminării și, mai presus de toate, a transparenței.

În același timp, Uniunea Europeană a aprobat Legea privind inteligența artificială , care clasifică toate sistemele utilizate în justiție drept sisteme cu risc ridicat, impunând obligații privind supravegherea, evaluarea și protejarea drepturilor fundamentale. Tehnologia, conform Uniunii Europene, poate sprijini, dar nu înlocui complet, funcția judiciară.

În cele din urmă, există o dimensiune mai culturală. Judecata nu este pur și simplu un exercițiu de calcul probabilistic. În sistemele europene, procesul reprezintă și un spațiu pentru ascultare, discuții și motivare publică. Încredințarea acestei sarcini în întregime unui algoritm ar reduce justiția la o operațiune tehnică, lipsind-o de componenta umană care îi constituie esența.

Modelați conversația

Aveți ceva de adăugat la această poveste? Aveți idei pentru interviuri sau unghiuri pe care ar trebui să le explorăm? Anunțați-ne dacă doriți să scrieți o continuare, un contrapunct sau să împărtășiți o poveste similară.