Neue Forschungsergebnisse zeigen, dass selbst die „fairsten“ Algorithmen dem Einfluss menschlicher Urteilskraft nicht entgehen können. Dies wirft schwierige Fragen darüber auf, wer in einer KI-gesteuerten Welt wirklich die Ergebnisse kontrolliert.

KI wird in unserem Leben immer häufiger eingesetzt. Um sie fair zu nutzen, müssen wir verstehen, wie Mensch und KI interagieren. Obwohl die KI-Entwicklung viele Vorteile bietet, ist ihre faire Nutzung eine Herausforderung. KI wird mittlerweile in wichtigen Bereichen wie der Personalbeschaffung und der Kreditvergabe eingesetzt.

Wir glauben, dass die Überwachung von KI-Entscheidungen durch Menschen Diskriminierung verhindern wird. Untersuchungen des EU Policy Lab , die vom Europäischen Zentrum für algorithmische Transparenz ( ECAT ) unterstützt werden, zeigen jedoch, dass es komplizierter ist.

Fairness in der KI – schwieriger als gedacht

Ihre Studie ergab, dass Menschen KI-Empfehlungen oft blind folgen, selbst wenn diese unfair sind.

Experimente mit Personal- und Bankfachleuten zeigten, dass KI-gestützte Entscheidungen über Einstellungen und Kredite immer noch von menschlichen Vorurteilen beeinflusst waren, selbst wenn die KI neutral konzipiert war.

Selbst „faire“ KI konnte diese Vorurteile nicht vollständig beseitigen. Interviews und Workshops zeigten, dass Fachleuten die Unternehmensziele oft wichtiger waren als Fairness. Dies zeigt, dass wir klarere Regeln brauchen, wann KI-Empfehlungen ignoriert werden dürfen.

Auf dem Weg zu systemischer Fairness

Die Forschung des EU Policy Lab unterstreicht die Notwendigkeit, KI nicht nur von Einzelpersonen überwachen zu lassen, sondern stattdessen einen systemweiten Ansatz zu verfolgen, der sowohl menschliche als auch algorithmische Vorurteile berücksichtigt. Um Diskriminierung wirksam zu minimieren, sind Maßnahmen auf mehreren Ebenen erforderlich.

Technische Maßnahmen sollten sicherstellen, dass KI-Systeme fair gestaltet und regelmäßig aktualisiert werden, um potenzielle Fehler zu vermeiden. Strategische organisatorische Maßnahmen können eine Kultur der Fairness schaffen, einschließlich der Schulung der Mitarbeiter im Umgang mit KI-Tools.

Auch politisches Handeln ist von entscheidender Bedeutung – die Festlegung klarer Richtlinien für die Zusammenarbeit zwischen Mensch und KI wird dazu beitragen, das Diskriminierungsrisiko besser zu bewältigen.

Die Herausforderung menschlicher und künstlicher Entscheidungsfindung

Das große Problem ist, wie Menschen und KI gemeinsam Entscheidungen treffen. Artikel 14 des EU-KI-Gesetzes besagt, dass menschliche Aufsicht Probleme durch schlecht programmierte Systeme verhindern soll. Tatsächlich ignorieren Menschen jedoch oft die Vorschläge der KI oder nutzen ihre eigenen Vorurteile, was das Konzept fairer Entscheidungen zunichtemacht.

Eine Studie mit 1.400 Fachleuten aus Deutschland und Italien zeigte, dass menschliche Vorgesetzte dazu neigten, „faire“ KI-Empfehlungen abzulehnen und sich auf ihr eigenes Bauchgefühl zu verlassen, das oft voreingenommen ist.

In Interviews und Workshops gaben die Teilnehmer zu, dass ihre Entscheidungen auf vielen Faktoren beruhten, auch auf unbewussten Vorurteilen. Das zeigt, dass wir diese Dinge verstehen und uns damit auseinandersetzen müssen.

Entscheidungsträgern die Möglichkeit geben, die richtigen Entscheidungen zu treffen

Um die Voreingenommenheit bei KI-gestützten Entscheidungen wirklich zu reduzieren, ist es äußerst wichtig, Entscheidungsträgern die richtigen Werkzeuge und Regeln an die Hand zu geben. Wir müssen klarstellen, wann es in Ordnung ist, die Vorschläge der KI zu ignorieren, und wir müssen den Fortschritt im Auge behalten.

Wenn wir Entscheidungsträgern Informationen darüber geben, wie sie abschneiden und wo sie möglicherweise Fehler machen, können sie bessere Entscheidungen treffen. Das regt sie dazu an, über ihre Entscheidungen nachzudenken, was zu faireren und ausgewogeneren KI-gestützten Prozessen führt.

Das Gesetz zur künstlichen Intelligenz – ein Wendepunkt

Der im vergangenen Jahr verabschiedete EU-KI-Act legt Regeln für künstliche Intelligenz fest und gilt als globaler Standard.

Die Erkenntnisse des EU Policy Lab sind für die Ausarbeitung künftiger Regeln und Richtlinien von großer Bedeutung: Es geht nicht nur darum, die Vorschriften einzuhalten, sondern auch darum, sie in der Praxis umzusetzen.

Die Forschung zeigt, dass die Gewährleistung fairer KI ständige Arbeit und einen flexiblen Ansatz erfordert. Es liegt sowohl an den Menschen, die die Systeme entwickeln, als auch an denen, die sie nutzen. Ohne einen umfassenden Ansatz – der soziale, technische und politische Aspekte berücksichtigt – wird es schwierig, KI fair zu gestalten.

Kernpunkte der Forschung

Die Forschung des EU Policy Lab nutzte einen Methodenmix, um zu zeigen, wie kompliziert Fairness in der KI tatsächlich ist. Um fairere und offenere KI-Systeme zu entwickeln, müssen wir verstehen, wie Menschen und KI Entscheidungen treffen und wie sie sich gegenseitig beeinflussen.

Um Gerechtigkeit zu erreichen, reicht es letztlich nicht, nur die Voreingenommenheit von Algorithmen zu beseitigen. Es erfordert auch eine sorgfältige Auswahl von Trainings- und Validierungsdaten, um die Übertragung menschlicher Vorurteile oder absichtlicher Desinformation auf KI-Systeme zu verhindern. Ebenso wichtig ist ein Wandel menschlicher Einstellungen und organisatorischer Ansätze. Der Einsatz von KI zur Entscheidungsfindung gibt uns die Möglichkeit, über unsere eigenen Vorurteile und unsere Entscheidungsfindung nachzudenken – sowohl persönlich als auch als Gesellschaft.

Geschrieben von

Gestalten Sie das Gespräch

Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.