Der General-Purpose AI Code of Practice (GPAI CoP) sollte sicherstellen, dass vertrauenswürdige KI entwickelt wird. Doch immer mehr Gruppen und Experten warnen, dass er letztlich nur großen Unternehmen hilft, ihren Willen durchzusetzen, anstatt die Öffentlichkeit vor KI-Risiken zu schützen. Wird der Ärger der einfachen Leute darüber überhaupt etwas bringen?
Der Code wird heiß
Auf diesem KI-Treffen in Frankreich ging es nur um Geld, nicht wirklich um die Sicherheit von KI oder den Schutz der Menschenrechte. Und laut vielen Menschen aus der Gesellschaft passiert dasselbe mit diesem KI-Code für Dinge wie ChatGPT.
Dieser Kodex wird von dreizehn klugen Köpfen aus Universitäten mit Unterstützung von zahlreichen Experten, Wohltätigkeitsorganisationen, Wissenschaftlern und Unternehmen – insgesamt fast tausend – entwickelt. Er soll den Unternehmen, die ChatGPT-ähnliches Material herstellen, zeigen, wie sie die KI-Regeln der EU einhalten. Einige Gruppen denken jedoch bereits darüber nach, das Ganze aufzugeben.
„Wenn das nur eine Show ist, um den Anschein zu erwecken, dass Entscheidungen fair getroffen werden, dann ist das sinnlos“, sagte Karine Caunes, die Digihumanism leitet und das European Law Journal herausgibt.
Andere Menschenrechtsgruppen, die an der GPAI CoP mitarbeiten, sehen das ähnlich. Einige Wissenschaftler und Mitarbeiter von Wohltätigkeitsorganisationen denken sogar darüber nach, aus Protest die Sitzung zu verlassen, weil sie glauben, dass ihnen niemand wirklich zuhört.
Die Risikoliste: Wo es chaotisch wird
Der wichtigste Teil des Kodex ist die Auflistung der KI-Risiken. Doch die aktuelle Fassung entspricht nicht den Erwartungen der Bürgerrechtsgruppen.
Die allererste Regel des KI-Gesetzes der EU besagt, dass es dem Schutz der Grundrechte dient, erinnert Sarah Andrew von der Gruppe Avaaz.
Der Kodex behandelt Risiken für die Menschenrechte jedoch lediglich als „zusätzliche Überlegungen“, anstatt sie direkt neben die Hauptrisiken zu stellen. Auch Dinge wie „viele illegale Diskriminierung“ oder „schädigende Beeinträchtigung von Menschen“ stehen auf der Risikoliste, wurden aber um Wörter ergänzt, die sie weniger wichtig erscheinen lassen.
Wenn sie bereits bei der Auflistung der Risiken Fehler gemacht haben, wird das gesamte System zur Verwaltung von KI fehlerhaft sein, warnt Andrew.
Fehlendes Zeug: Unternehmen überprüfen und wissen, wie KI trainiert wird
Gruppen, die sich auf die Sicherheit von KI konzentrieren, weisen auf ein weiteres Problem hin: Sie müssen keine unabhängigen Sicherheitsprüfungen durchführen und müssen nicht klarstellen, wie sie ihre KI-Modelle trainieren.
Experten warnen, dass Unternehmen ihre KI leicht missbrauchen könnten, wenn sie sie unbeobachtet testen könnten. Ein weiteres großes Problem des Kodex ist die Frage, ob Unternehmen offenlegen müssen, wie sie ihre KI trainieren. Technologieunternehmen wollen aus Sorge um Urheberrechte und Datenschutz keine Details über die zum Trainieren ihrer Systeme verwendeten Informationen preisgeben.
Die Sicherheitskoalition, zu der auch der bekannte Experte Stuart Russell gehört, hat den Verantwortlichen des Kodex einen Brief geschickt, in dem sie vier Hauptpunkte nennt, die sie ändern möchte:
- Machen Sie unabhängige Überprüfungen von KI-Modellen obligatorisch.
- Nehmen Sie sich mehr Zeit, riskante Systeme zu prüfen, bevor Sie sie verwenden.
- Legen Sie klare Sicherheitsstufen fest, deren Überschreitung bedeutet, dass die Verwendung eines KI-Modells zu gefährlich ist.
- Schaffen Sie Möglichkeiten, mit neuen Risiken umzugehen, an die wir noch nicht gedacht haben.
„Wenn sie diese Dinge tatsächlich täten, würden die Verantwortlichen das tun, was die besten Experten über die Ermittlung und Bewältigung von Risiken sagen“, argumentiert einer der Unterzeichner des Briefes.
Big Tech ist nicht glücklich
Während sich Hilfsorganisationen für strengere Regeln einsetzen, sieht die Tech-Branche die Sache ganz anders. Schon vor dem KI-Treffen erklärten Meta und Google, dass ihnen der Kodex in seiner jetzigen Form überhaupt nicht gefalle.
Metas Top-Lobbyist Joel Kaplan bezeichnete den Kodex als „nicht praktikabel und wirkungslos“, und Kent Walker von Google meinte, er sei „ein Schritt in die falsche Richtung“. Die Unternehmen argumentieren, der Kodex verpflichte sie zu mehr, als das KI-Gesetz der EU vorschreibe.
„Das stimmt nicht“, sagt Caunes. Der Kodex solle nicht nur das Gesetz wiederholen, sondern darüber hinausgehen, glaubt er.
Doch einige dieser Beschwerden scheinen in Brüssel auf Gehör zu stoßen. Die Europäische Kommission spricht sich bereits für eine Vereinfachung der Vorschriften aus, um das Wirtschaftswachstum zu fördern.
Ein besonders bezeichnender Moment auf dem KI-Treffen war die Abschlussrede von Googles CEO Sundar Pichai. Dass ein Unternehmen, das sich für weniger Regeln einsetzt, einen so prominenten Platz einnimmt, blieb niemandem verborgen.
Google übe insgeheim Druck auf die Verantwortlichen des Kodex aus, die Verweise auf EU-Recht abzuschwächen, und habe gleichzeitig das letzte Wort auf dem Gipfel, kommentierte Andrew.
Wie geht es weiter?
Das Hin und Her um diesen KI-Kodex zeigt, wie sehr die Interessen der Bürger und der großen Technologieunternehmen kollidieren. Während sich Bürgergruppen für Werte wie Ehrlichkeit, Sicherheit und Menschenrechte einsetzen, drängen die großen Unternehmen auf weniger Regeln und mehr Handlungsfreiheit.
Bisher haben die öffentlichen Gruppen die Arbeit am Kodex noch nicht offiziell eingestellt, aber sie haben langsam die Nase voll. Wenn ihnen niemand zuhört, könnten sie anfangen, Dinge zu tun, die mehr Aufmerksamkeit erregen.
Geschrieben von
Gestalten Sie das Gespräch
Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.