In een Europese context die gekenmerkt wordt door extreem trage civiele en strafrechtelijke procedures, lijkt technologie bijna een pragmatische oplossing. Het automatiseren van repetitieve taken, het sorteren van stapels dossiers, het signaleren van inconsistenties of het raadplegen van precedenten kan rechters immers meer tijd geven om zich te richten op complexere aspecten van de zaak. De intrede van AI in de rechtszaal roept echter diverse vragen op die verder gaan dan het verkorten van processen. Het grootste probleem zou transparantie zijn.

In Europese rechtssystemen is rechtvaardigheid niet beperkt tot de uiteindelijke uitkomst, maar is het essentieel dat het proces dat daartoe leidt begrijpelijk en vooral verifieerbaar is. Veel systemen voor kunstmatige intelligentie functioneren in feite als 'black boxes', die resultaten produceren zonder de gebruikte criteria volledig te weerspiegelen.

Een concreet voorbeeld dat ons kan helpen dit probleem met kunstmatige intelligentie te begrijpen, is het "SyRI"-systeem in Nederland. Dit algoritme, ontwikkeld door de Nederlandse overheid om mogelijke fraude met sociale uitkeringen op te sporen, combineert talrijke overheidsdatabases, zoals belastinggegevens, kadastergegevens, kentekenregistratie en informatie over werk en inkomen. Deze gegevens werden vervolgens automatisch geanalyseerd om burgers een risiconiveau toe te kennen. Als iemand bijvoorbeeld als "risicovol" werd beschouwd, werd die persoon gemeld bij de autoriteiten voor nader onderzoek .

Het grootste probleem met dit mechanisme is de transparantie . Het algoritme was niet openbaar beschikbaar en de autoriteiten legden niet volledig uit welke gegevens werden gecombineerd, welke risicocriteria werden gehanteerd en hoe verdachte profielen werden samengesteld. Hierdoor was het voor burgers onmogelijk om de beslissingen van het systeem aan te vechten. In 2020 verklaarde het Hof van Justitie in Den Haag het gebruik van het systeem illegaal . Volgens het Hof schond SyRI het recht op privacy en garandeerde het onvoldoende transparantie in het besluitvormingsproces.

Als de betrokken partijen niet begrijpen hoe een algoritme heeft bijgedragen aan de beslissing, vervalt de mogelijkheid tot bezwaar. Dit kan bijvoorbeeld leiden tot het risico van indirecte discriminatie. Algoritmen leren van historische gegevens: als de gegevens die ze gebruiken sociale ongelijkheden of discriminerende praktijken weerspiegelen die zich in de loop der tijd hebben ontwikkeld, loopt het systeem het risico deze te herhalen.

In strafzaken kunnen instrumenten die de kans op recidive inschatten of preventieve maatregelen suggereren, onevenredig grote gevolgen hebben voor bepaalde verdachten die tot een bepaalde categorie behoren. Dit zou in strijd zijn met het Europees gelijkheidsbeginsel en het verbod op discriminatie. Een ander probleem is de aansprakelijkheid. De Europese rechtstraditie legt de beslissing bij de mens, die verantwoordelijkheid draagt ​​en zijn of haar handelingen moet verantwoorden.

De Raad van Europa is zich bewust van deze risico's en heeft daarom ethische richtlijnen vastgesteld voor het gebruik van AI in rechtssystemen, waarbij de nadruk ligt op menselijk toezicht, non-discriminatie en vooral transparantie.

Tegelijkertijd heeft de Europese Unie de AI-wet goedgekeurd, die alle systemen die in de rechtspraak worden gebruikt als risicovol bestempelt en verplichtingen oplegt met betrekking tot toezicht, evaluatie en de bescherming van fundamentele rechten. Volgens de Europese Unie kan technologie de rechterlijke functie ondersteunen, maar niet volledig vervangen.

Ten slotte is er nog een culturele dimensie. Rechtspraak is niet louter een kwestie van kansberekening. In Europese rechtssystemen biedt het proces ook ruimte voor luisteren, discussie en publieke motivatie. Deze taak volledig aan een algoritme overlaten zou rechtvaardigheid reduceren tot een technische handeling, waardoor het de menselijke component verliest die de essentie ervan vormt.

Geschreven door

Geef het gesprek vorm

Heb je iets toe te voegen aan dit verhaal? Heb je ideeën voor interviews of invalshoeken die we moeten verkennen? Laat het ons weten als je een vervolg wilt schrijven, een tegengeluid wilt laten horen of een soortgelijk verhaal wilt delen.