Stellen Sie sich vor, Sie könnten die wochenlange Wartezeit auf Ihr Prüfungsergebnis auf Sekunden verkürzen – mit einer datenbasierten Bewertung und einer kurzen Begründung. Algorithmische Benotung verspricht Schnelligkeit, Skalierbarkeit und (potenziell) größere Einheitlichkeit. Doch wie die Kontroverse um die britischen A-Level-Prüfungen 2020 gezeigt hat, kann Automatisierung auch Ungerechtigkeiten verstärken, wenn keine Schutzmaßnahmen, Transparenz und rechtliche Absicherung vorhanden sind. Dieser Artikel untersucht, wie algorithmische Benotung funktioniert, was im britischen Fall schiefgelaufen ist, welche Rolle EU-Regeln wie das KI-Gesetz und die DSGVO spielen und was Schülerinnen und Schüler künftig erwarten können.

Definition der algorithmischen Benotung in einfacher Sprache

Algorithmische Bewertung ist ein Oberbegriff für verschiedene Technologien , die bei der Bewertung von Schülerarbeiten helfen. Am einfachsten sind automatisierte Multiple-Choice-Bewertungssysteme; am anderen Ende stehen Systeme, die mithilfe von natürlicher Sprachverarbeitung (NLP) und großen Sprachmodellen (LLMs) Essays, Kurzantworten und sogar offene Projekte bewerten. Diese Systeme können grammatikalische Strukturen erkennen, Antworten mit Modellantworten vergleichen oder statistische Anpassungen vornehmen, um den Schwierigkeitsgrad der Fragen zu korrigieren. Die Entscheidungen, die wir beim Erstellen dieser Modelle treffen – die Daten, die wir ihnen zuführen, und die Regeln, die wir festlegen – entscheiden darüber, ob algorithmische Bewertung Fairness fördert oder Ungleichheit verschärft.

Noten entscheiden über den Zugang zu Universitäten, Stipendien und Arbeitsplätzen. Wenn Algorithmen in den Bewertungsprozess einfließen, beeinflussen sie daher direkt die Zukunft junger Menschen. Seit COVID-19 setzen Schulen verstärkt auf automatisierte Tools, und mit den neuen KI-Regeln und Datenschutzgesetzen der EU ist Europa zu einem wichtigen Testfeld für die Fairness und Transparenz dieser Systeme geworden.

Ein Beispiel aus der Praxis: die Geschichte des britischen A-Levels

Als Großbritannien im Zuge der COVID-19-Pandemie die Präsenzprüfungen für die A-Levels absagte, wurde 2020 ein algorithmisches Verfahren eingesetzt, um die Ergebnisse auf Grundlage der bisherigen Schulleistungen und der Prognosen der Lehrkräfte zu ermitteln. Die Umsetzung dieses Verfahrens führte dazu, dass viele Schülerinnen und Schüler niedrigere Noten als erwartet erhielten, was insbesondere Schülerinnen und Schüler aus sozial schwächeren Schulen unverhältnismäßig stark benachteiligte. Diese Situation löste landesweite Proteste aus, woraufhin die Regierung die algorithmischen Ergebnisse zurückzog. Der Vorfall verdeutlichte zwei wichtige Lehren: (1) Algorithmen können bestehende Ungleichheiten reproduzieren und verstärken; (2) Transparenz und klare Beschwerdeverfahren sind unerlässlich, wenn ein automatisiertes System die Zukunft von Menschen beeinflusst.

Die KI-gestützte Bewertung bietet schnelleres Feedback, größere Konsistenz und skalierbare Unterstützung für lebenslanges Lernen und Mikro-Zertifikate, die mit dem Ziel 4 für nachhaltige Entwicklung (SDG 4) übereinstimmen. Sie birgt jedoch auch Risiken, darunter potenzielle Verzerrungen durch historische Daten, mangelnde Transparenz bei Bewertungsentscheidungen und eine zu starke Abhängigkeit von der Automatisierung, die wichtige menschliche Urteile außer Acht lassen kann.

Bildnachweis: „KI-generiert, Schulprüfung, Schüler“ von Yamu_Jay via Pixabay (verwendet unter der Pixabay-Lizenz)

Die EU-Regeln: KI-Gesetz und DSGVO

Algorithmische Benotung kann sowohl hilfreich als auch schädlich sein. Einerseits bietet KI-gestützte Benotung schnelleres Feedback, höhere Konsistenz und skalierbare Unterstützung für lebenslanges Lernen und Mikro-Zertifikate im Einklang mit dem Ziel 4 für nachhaltige Entwicklung (SDG 4). Andererseits birgt sie auch Risiken, darunter mögliche Verzerrungen durch historische Daten, mangelnde Transparenz bei Benotungsentscheidungen und eine zu starke Abhängigkeit von Automatisierung, die wichtige menschliche Urteilsfähigkeit außer Acht lassen kann.

Seit ihrer Entstehung setzt sich die Europäische Union für die Regulierung des KI-Einsatzes und die Bereitstellung von Richtlinien und Vorschriften zum Schutz der Nutzer ein. Zwei europäische Rechtsinstrumente sind für die algorithmische Bewertung von Bedeutung:

KI-Gesetz (Verordnung von 2024) : Systeme zur Bestimmung des Zugangs zu Bildung fallen unter die Kategorie „KI mit hohem Risiko“. Anbieter müssen Risikobewertungen durchführen, die Repräsentativität der Daten sicherstellen und Maßnahmen zur Transparenz und Governance implementieren. Dies bedeutet, dass Bewertungssysteme vor ihrer Einführung wahrscheinlich umfangreichen Tests und einer ausführlichen Dokumentation bedürfen.

DSGVO : Algorithmische Benotungsprozesse verarbeiten personenbezogene Daten (Namen, Prüfungsantworten, Schulzeugnisse) und müssen daher den DSGVO-Grundsätzen der Rechtmäßigkeit, Zweckbindung, Richtigkeit und Sicherheit entsprechen. Artikel 22 beschränkt insbesondere den Einsatz vollautomatisierter Entscheidungsfindung mit rechtlichen oder ähnlich schwerwiegenden Folgen und gewährt gleichzeitig das Recht auf menschliche Überprüfung und Anfechtung von Entscheidungen. Dies ist ein entscheidender Schutz für Schülerinnen und Schüler.

Die Regeln schaffen zusammen sowohl Verpflichtungen für Entwickler als auch Schutzmaßnahmen für Studierende. Die Einhaltung erfolgt jedoch nicht automatisch; sie erfordert eine sorgfältige Planung und konkrete Prozesse.

Wie eine gute Bereitstellung aussehen sollte

Wenn Schulen oder Prüfungsbehörden die algorithmische Benotung einsetzen wollen, sollten sie mindestens Folgendes beachten:

  1. Veröffentlichen Sie eine allgemeinverständliche Erklärung, wie das System funktioniert und welche Daten es verwendet.
  2. Führen Sie Bias-Audits durch und veröffentlichen Sie diese, um aufzuzeigen, wie verschiedene Gruppen (nach Schule, sozioökonomischem Hintergrund, Muttersprache) betroffen sind.
  3. Gewährleisten Sie die Einbindung eines Menschen in den Entscheidungsprozess bei Beschwerden und Grenzfällen, wie es die DSGVO-Schutzmaßnahmen vorschreiben.
  4. Sicherstellen von Datenqualität und Repräsentativität – die Trainingsdaten müssen der Population entsprechen, die das System auswerten wird.
  5. Bieten Sie einen unkomplizierten Beschwerdeweg und klare Abhilfemaßnahmen an, wenn Fehler festgestellt werden.

Die Stimmen der Studierenden: Was junge Menschen fragen sollten

Wenn Sie Schüler oder Student sind, sollten Sie Ihrer Schule oder Prüfungsbehörde folgende Fragen stellen, bevor ein algorithmisches System auf Ihre Arbeit angewendet wird:

  • Wird meine Note (auch nur teilweise) durch einen Algorithmus berechnet?
  • Welche Daten verwendet der Algorithmus? Handelt es sich dabei um meine persönlichen Daten?
  • Wie kann ich gegen meine Note Einspruch einlegen? Wird mein Fall von einem Menschen geprüft?
  • Wurde das System auf Voreingenommenheit geprüft? Kann ich die Ergebnisse einsehen?

Antworten darauf zu fordern, wie Technologie die Welt, in der Sie leben, prägt, ist eine Form der informierten Teilhabe und kann niemals schaden.

Versprechen und Schutz im Gleichgewicht halten

Damit algorithmische Benotung das UN-Nachhaltigkeitsziel 4 durch erweiterten Zugang und standardisierte Bewertungen unterstützen kann, bedarf es rechtlicher Schutzmaßnahmen, Transparenz und eines Bekenntnisses zur Chancengleichheit. Das EU-Recht weist bereits in diese Richtung: Das KI-Gesetz stuft Benotungssysteme als risikoreich ein; die DSGVO gewährt Studierenden das Recht auf menschliche Überprüfung und Information. Das technische Potenzial ist real (schnelleres Feedback, potenziell höhere Fairness), die politische Herausforderung besteht jedoch darin, sicherzustellen, dass diese Vorteile allen zugutekommen.

Automatisierung wird die Zukunft der Bildung prägen. Es ist erwiesen, dass Algorithmen in der Vergangenheit Noten vergeben konnten und dies auch in Zukunft tun werden. Für junge Europäerinnen und Europäer stellt sich die zentrale Frage, wie diese Algorithmen reguliert werden. Bessere Prüfungen, transparentere Beschwerdeverfahren und die Einbindung der Studierenden sind unerlässlich, bevor automatisierte Systeme darüber entscheiden, wer einen Studienplatz erhält, wer Stipendien bekommt und wer benachteiligt wird. Die Leserinnen und Leser von Pulse-Z sollten sich dafür interessieren, denn es geht hier um Fairness, Rechte und die Regeln, die die Chancen junger Menschen in ganz Europa bestimmen.

Geschrieben von

Gestalten Sie das Gespräch

Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.