W europejskim kontekście charakteryzującym się wyjątkowo powolnym przebiegiem postępowań cywilnych i karnych, technologia jawi się niemal jako pragmatyczna odpowiedź. Automatyzacja powtarzalnych zadań, przeglądanie stosów akt, sygnalizowanie nieścisłości czy odwoływanie się do precedensów może dać sędziom więcej czasu na zajęcie się bardziej złożonymi aspektami sprawy. Jednak wejście sztucznej inteligencji na salę sądową rodzi szereg pytań wykraczających poza skrócenie procesów. Głównym problemem byłaby przejrzystość.
W systemach europejskich sprawiedliwość nie ogranicza się do ostatecznego rezultatu, ale kluczowe jest, aby proces do niego prowadzący był zrozumiały i, przede wszystkim, weryfikowalny. Wiele systemów sztucznej inteligencji działa w istocie jak „czarne skrzynki”, generując wyniki, które nie w pełni odzwierciedlają zastosowane kryteria.
Konkretnym przykładem, który może pomóc nam zrozumieć ten problem sztucznej inteligencji, jest system „SyRI” w Holandii. Ten algorytm, opracowany przez rząd holenderski w celu wykrywania potencjalnych oszustw związanych ze świadczeniami socjalnymi, łączy liczne rządowe bazy danych, takie jak dane podatkowe, ewidencje gruntów, rejestracje pojazdów oraz informacje o zatrudnieniu i dochodach. Dane te były następnie automatycznie analizowane w celu przypisania obywatelom poziomu ryzyka. Na przykład, jeśli dana osoba została uznana za „zagrożoną”, była zgłaszana władzom w celu przeprowadzenia dalszego dochodzenia .
Głównym problemem tego mechanizmu jest przejrzystość . Algorytm nie był publicznie dostępny, a władze nie wyjaśniły w pełni, jakie dane zostały połączone, jakie kryteria ryzyka zastosowano ani w jaki sposób stworzono podejrzane profile. Uniemożliwiło to obywatelom kwestionowanie decyzji systemu. W 2020 roku Trybunał w Hadze uznał korzystanie z systemu za nielegalne . Zdaniem Trybunału, SyRI naruszył prawo do prywatności i nie zapewnił odpowiedniej przejrzystości procesu decyzyjnego.
Jeśli strony procesu nie rozumieją, w jaki sposób algorytm przyczynił się do podjęcia decyzji, traci się możliwość kwestionowania decyzji. Może to na przykład prowadzić do ryzyka dyskryminacji pośredniej. Algorytmy uczą się na podstawie danych historycznych: jeśli uzyskane przez nie dane odzwierciedlają nierówności społeczne lub praktyki dyskryminacyjne, które rozwinęły się na przestrzeni lat, system ryzykuje ich powtórzenie.
W sprawach karnych narzędzia szacujące prawdopodobieństwo recydywy lub sugerujące środki ostrożności mogłyby nieproporcjonalnie wpłynąć na niektórych oskarżonych należących do określonej kategorii osób. Naruszałoby to europejską zasadę równości i zakazu dyskryminacji. Kolejnym problemem byłaby odpowiedzialność. Europejska tradycja prawna przypisuje decyzję podmiotowi ludzkiemu, który ponosi odpowiedzialność i musi uzasadnić swoje działania.
Świadoma tych zagrożeń Rada Europy przyjęła wytyczne etyczne dotyczące stosowania sztucznej inteligencji w systemach sądowniczych, podkreślając centralną rolę nadzoru ludzkiego, niedyskryminacji i przede wszystkim przejrzystości.
Jednocześnie Unia Europejska przyjęła ustawę o sztucznej inteligencji (AI Act ), która klasyfikuje wszystkie systemy wykorzystywane w wymiarze sprawiedliwości jako systemy wysokiego ryzyka, nakładając obowiązki dotyczące nadzoru, oceny i ochrony praw podstawowych. Technologia, zdaniem Unii Europejskiej, może wspierać, ale nie całkowicie zastąpić funkcję sądowniczą.
Wreszcie, pozostaje wymiar bardziej kulturowy. Wydawanie osądu nie jest jedynie ćwiczeniem w rachunku prawdopodobieństwa. W systemach europejskich proces sądowy stanowi również przestrzeń słuchania, dyskusji i motywacji społecznej. Powierzenie tego zadania wyłącznie algorytmowi sprowadziłoby sprawiedliwość do operacji technicznej, pozbawiając ją ludzkiego komponentu, który stanowi jej istotę.
