In einem europäischen Kontext, der von extrem langsamen Zivil- und Strafverfahren geprägt ist, erscheint Technologie beinahe wie eine pragmatische Antwort. Tatsächlich kann die Automatisierung wiederkehrender Aufgaben, das Durchforsten von Aktenbergen, das Markieren von Unstimmigkeiten oder das Abrufen von Präzedenzfällen Richtern mehr Zeit verschaffen, sich mit komplexeren Aspekten des Falles zu befassen. Der Einzug von KI in den Gerichtssaal wirft jedoch eine Reihe von Fragen auf, die über die Verkürzung von Verfahren hinausgehen. Das Hauptproblem wäre die Transparenz.

In europäischen Rechtssystemen beschränkt sich Gerechtigkeit nicht auf das Endergebnis; vielmehr ist es unerlässlich, dass der Weg dorthin nachvollziehbar und vor allem überprüfbar ist. Viele Systeme der künstlichen Intelligenz fungieren tatsächlich als „Black Boxes“ und liefern Ergebnisse, ohne die angewandten Kriterien vollständig abzubilden.

Ein konkretes Beispiel, das uns hilft, dieses Problem der künstlichen Intelligenz zu verstehen, ist das „SyRI“-System in den Niederlanden. Dieser von der niederländischen Regierung entwickelte Algorithmus zur Aufdeckung potenziellen Sozialleistungsbetrugs verknüpft zahlreiche staatliche Datenbanken, darunter Steuerdaten, Grundbuchauszüge, Fahrzeugregistrierungsdaten sowie Informationen zu Beschäftigung und Einkommen. Diese Daten wurden anschließend automatisch analysiert, um Bürgern ein Risikoniveau zuzuordnen. Wurde eine Person beispielsweise als „gefährdet“ eingestuft, wurde sie den Behörden zur weiteren Untersuchung gemeldet .

Das Hauptproblem dieses Mechanismus war die mangelnde Transparenz . Der Algorithmus war nicht öffentlich zugänglich, und die Behörden legten nicht vollständig dar, welche Daten kombiniert wurden, welche Risikokriterien galten und wie verdächtige Profile erstellt wurden. Dadurch war es den Bürgern unmöglich, die Entscheidungen des Systems anzufechten. Im Jahr 2020 erklärte der Internationale Gerichtshof in Den Haag die Nutzung des Systems für rechtswidrig . Laut Gericht verletzte SyRI das Recht auf Privatsphäre und gewährleistete keine ausreichende Transparenz im Entscheidungsprozess.

Wenn die Beteiligten eines Prozesses nicht nachvollziehen können, wie ein Algorithmus zur Entscheidung beigetragen hat, geht die Möglichkeit einer Anfechtung verloren. Dies kann beispielsweise zu indirekter Diskriminierung führen. Algorithmen lernen aus historischen Daten: Spiegelt die von ihnen gewonnene Daten soziale Ungleichheiten oder diskriminierende Praktiken wider, die sich im Laufe der Zeit entwickelt haben, besteht die Gefahr, dass das System diese wiederholt.

Im Strafrecht könnten Instrumente zur Abschätzung der Rückfallwahrscheinlichkeit oder zur Empfehlung von Vorsichtsmaßnahmen bestimmte Angeklagte aus bestimmten Personengruppen unverhältnismäßig benachteiligen. Dies würde gegen den europäischen Gleichheitsgrundsatz und das Diskriminierungsverbot verstoßen. Ein weiteres Problem wäre die Haftung. Nach europäischer Rechtstradition trägt der Einzelne die Verantwortung und muss sein Handeln rechtfertigen.

Der Europarat ist sich dieser Risiken bewusst und hat daher ethische Leitlinien für den Einsatz von KI in Justizsystemen verabschiedet , die die zentrale Bedeutung der menschlichen Aufsicht, der Nichtdiskriminierung und vor allem der Transparenz hervorheben.

Gleichzeitig verabschiedete die Europäische Union den KI-Act , der alle in der Justiz eingesetzten Systeme als risikoreich einstuft und Verpflichtungen hinsichtlich Aufsicht, Bewertung und Schutz der Grundrechte vorsieht. Technologie kann laut Europäischer Union die Justizfunktion unterstützen, aber nicht vollständig ersetzen.

Letztlich spielt auch eine kulturelle Dimension eine Rolle. Urteilsfindung ist nicht bloß eine Wahrscheinlichkeitsrechnung. In europäischen Rechtssystemen bietet der Gerichtssaal auch Raum für Zuhören, Diskussion und öffentliches Engagement. Würde man diese Aufgabe allein einem Algorithmus anvertrauen, würde die Justiz auf einen rein technischen Vorgang reduziert und ihr die menschliche Komponente rauben, die ihr Wesen ausmacht.

Geschrieben von

Gestalten Sie das Gespräch

Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.