Der Funke

Dänemark wird in der nächsten Staffel von Black Mirror nicht mitspielen

Stellen Sie sich vor, Sie wachen eines Morgens auf und stellen fest, dass Sie eine Pressekonferenz gegeben und dabei Dinge gesagt haben, die Sie sich nie hätten vorstellen können, ohne sich daran erinnern zu können. In der Welt von Black Mirror ist heute erst Dienstag. Ihr Bild, Ihre Stimme, sogar Ihre Mimik gehören nicht mehr Ihnen; sie sind zum geistigen Eigentum eines anderen geworden, zu Material für Reproduktion, Unterhaltung oder sogar Folter. Denn in diesem Universum lautet die Frage nicht, ob die Technologie Sie verraten wird, sondern wann. Von „USS Callister“, wo Charaktere ohne ihre Zustimmung in digitalen Klonen gefangen werden, bis hin zu „Joan Is Awful“, wo das Leben einer Frau Eigentum einer Streaming-Plattform wird, spielt die Serie immer wieder mit derselben Idee: dass Ihr Bild, Ihre Stimme, sogar Ihre Persönlichkeit zu einem Produkt werden können, ohne dass Sie etwas dazu zu sagen haben.

In einer nicht allzu fernen Welt schaffte die dänische Ministerpräsidentin Mette Frederiksen im April 2024 Ostern, Weihnachten und mehrere andere Feiertage ab . Dies erklärte der Vorsitzende der Dänischen Volkspartei, Morten Messerschmidt, der ein Video der Ministerpräsidentin bei dieser Ankündigung veröffentlichte. Das Video war offensichtlich ein Deepfake und wurde auch als solches gekennzeichnet, verbreitete sich jedoch viral und löste sofort einen politischen Sturm aus. Fast alle Parteien verurteilten die Aktion und forderten die Regierung auf, entsprechende Gesetze zu erlassen.

Hier seht ihr ein Bild aus dem Video, das eine falsche Mette Frederiksen zeigt. Das Bild ist KI-generiert. (Foto: © Screenshot von X)

Ein Jahr später legte Kulturminister Jakob Engel-Schmidt einen radikalen Vorschlag vor, wonach alle Dänen automatisch das Urheberrecht an ihren eigenen Beiträgen erwerben sollten. Dieser Vorschlag stieß auf breite Zustimmung: Neun der elf Parteien im Parlament einigten sich darauf, den notwendigen Konsens zu erzielen, damit jeder Bürger die Entfernung von Deepfakes über ihn von jeder Plattform verlangen kann, auch wenn diese nicht kommerziell genutzt wurden. Der Vorschlag sieht außerdem eine Entschädigung vor, sieht aber weiterhin eine Ausnahme für Parodie und Satire vor.

Im Mittelpunkt der ethischen Debatte stand die Frage, was passieren würde, wenn dieselbe Technologie in einer Krisenzeit eingesetzt würde, beispielsweise wenn sie den Premierminister bei der Ausrufung des Ausnahmezustands oder der Ankündigung restriktiver Maßnahmen aufgrund einer Krise zeigen würde. Die Sorge war, dass Deepfakes nicht nur lustige oder gefährliche Videos sind, sondern Werkzeuge, die das Vertrauen in die Institutionen selbst untergraben können. Die Innovation dieses dänischen Modells ist die Proaktivität: Es ist kein Nachweis eines Schadens für das Opfer erforderlich, sondern die Daten werden im Wesentlichen verändert, wodurch die reine Souveränität von Aussehen und Identität durch einen automatischen und universellen Akt wiederhergestellt wird.

Die Fähigkeit künstlicher Intelligenz, realistische Inhalte zu erstellen, hat das Konzept des Beweises zu einem Schlachtfeld gemacht, auf dem Deepfakes eingesetzt werden können, um Gesichts- und Stimmerkennungssysteme zu umgehen und sich so illegalen Zugriff auf sensible Daten zu verschaffen. Das Problem beschränkt sich natürlich nicht nur auf die Cybersicherheit, denn die sozialen und psychologischen Auswirkungen sind enorm. 95 % der Deepfakes sind pornografisch und betreffen überproportional Frauen und Minderjährige. Gleichzeitig untergräbt die Möglichkeit, glaubwürdiges Material als Fälschung abzutun – die sogenannte Lügnerdividende – das Vertrauen in den öffentlichen Diskurs. Ein bemerkenswertes Beispiel im politischen Bereich waren die Deepfake-Audioanrufe mit „Joe Bidens Stimme“, die Wähler in New Hampshire daran hinderten, zur Wahl zu gehen. Dies zeigt, wie solche Tools sogar Wahlen destabilisieren können. Die neue Realität hat nichts mit Privatsphäre an sich zu tun, sondern mit ihrer Ausweitung als Frage der demokratischen Sicherheit.

Dänemark versucht mit seinem Vorschlag, diese Lücke zu schließen. Das Land beabsichtigt, seine bevorstehende EU-Ratspräsidentschaft zu nutzen, um das Thema in Brüssel voranzutreiben. Engel-Schmidt hat bereits seine Absicht bekundet, das Thema auf europäischer Ebene zur Sprache zu bringen und sich für einen gemeinsamen Rahmen einzusetzen, der selbst die großen Plattformen zur Einhaltung verpflichtet und bei Nichteinhaltung mit hohen Geldstrafen droht. Damit wird Dänemark zum kleinen Labor für eine Intervention, die die europäischen Regeln zum Schutz der digitalen Identität im Zeitalter genetischer Algorithmen prägen könnte.

Die europäische Perspektive: Homo Digitalis

Dänemarks Vorschlag wurde als innovativ und ehrgeizig angesehen und rief sowohl Begeisterung als auch Skepsis hervor. Lefteris Helioudakis, ein auf neue Technologien spezialisierter Anwalt und Geschäftsführer von Homo Digitalis , erklärte: „Auf den ersten Blick erscheint der Vorschlag als fragwürdige Behelfslösung. Das Urheberrecht funktioniert wie ein Gesellschaftsvertrag: Der Schöpfer eines Originalwerks leistet einen Beitrag zur Gesellschaft, und im Gegenzug gewährt die Gesellschaft ihm exklusive Rechte. Die Ausweitung dieser Logik auf biometrische Informationen widerspricht den Grundprinzipien des geistigen Eigentumsrechts.“ Folglich schafft Dänemarks ehrgeiziges neues Gesetz einen neuen Präzedenzfall, der auf dem Konzept der Identität statt auf dem des Schaffens basiert – etwas, das es vorher noch nie gegeben hat.

Homo Digitalis weist zudem darauf hin, dass der Rechtsrahmen auf europäischer Ebene bereits in der Richtlinie 1385/2024, die den Einsatz von Deepfakes in sensiblen Kontexten unter Strafe stellt, und im Digital Services Act (DSA), der Regeln zu illegalen Inhalten und zur Plattformhaftung enthält, existiert. „Solche Legalitätsregeln werden eigentlich von den nationalen Parlamenten der EU-Mitgliedstaaten erlassen. Dänemark könnte daher weitere Bestimmungen zu personenbezogenen Daten, Desinformation und Verleumdung prüfen, um den Einsatz von Deepfakes zu bekämpfen, hat dies aber nicht getan.“ Um noch einen Schritt weiterzugehen und die „Innovation“ des dänischen Vorgehens zu kritisieren, ziehen solche einseitigen nationalen Initiativen zwar die Aufmerksamkeit der Medien auf sich, gehen aber nicht an die Wurzel des Problems.

Auf den ersten Blick erscheint der Vorschlag als fragwürdige Lösung. Das Urheberrecht funktioniert wie ein Gesellschaftsvertrag: Der Schöpfer eines Originalwerks leistet einen Beitrag zur Gesellschaft, und im Gegenzug gewährt ihm die Gesellschaft exklusive Rechte. Die Ausweitung dieser Logik auf biometrische Informationen widerspricht den Grundprinzipien des Urheberrechts.

Gleichzeitig ist Homo Digitalis, was die Meinungsfreiheit betrifft, kategorisch: „Ausnahmen für Parodie, Satire und politische Kritik sind im EU-Urheberrecht bereits fest verankert … Zusammen bieten diese Mechanismen sowohl den rechtlichen Schutz der Meinungsfreiheit als auch die Verfahrensinstrumente zur Bekämpfung schädlicher Deepfakes, ohne das zugrunde liegende Gleichgewicht neu zu erfinden.“ Mit anderen Worten: Der Rahmen zum Schutz von Satire und politischer Kritik existiert bereits, und es besteht kein Bedarf für ein neues Gleichgewicht; was benötigt wird, ist die Anwendung der bestehenden, fundierten Regeln.

Ihre Beobachtung zur Plattformverantwortung im Rahmen des DSA rückt die Verpflichtung großer Plattformen, systematische Risikobewertungen durchzuführen, wieder in den Vordergrund – nicht nur für illegale Inhalte, sondern auch für Material, das „den öffentlichen Diskurs beeinträchtigen könnte“. Das bedeutet, dass Deepfakes bereits Vorkehrungen treffen und daher auch im Rahmen des gesetzlich vorgesehenen Krisenreaktionsmechanismus unter obligatorische Eindämmungsmaßnahmen fallen. Dänemarks Intervention scheint eher ein politischer Akt als eine rechtliche Notwendigkeit zu sein und steht möglicherweise im Einklang mit dem allgemeinen Trend der EU-Sicherheit, sich auch auf den digitalen Raum auszudehnen.

Schließlich besteht laut Lefteris Helioudakis, Geschäftsführer von Homo Digitalis, die Gefahr, dass Regulierung als Allheilmittel behandelt wird, während die eigentliche Herausforderung systemischer Natur ist. Helioudakis warnt: „Zu oft bestimmen kommerzielle Interessen die Agenda und drängen auf eine schnelle Einführung trotz ungelöster ethischer, rechtlicher und gesellschaftlicher Bedenken. Dieser Mangel an Bereitschaft und kritischer Prüfung erhöht die Wahrscheinlichkeit, dass KI individuelle Rechte und demokratische Prozesse untergräbt.“ Der Kampf richtet sich nicht nur gegen Deepfakes, sondern gegen die Art und Weise, wie künstliche Intelligenz ohne ausreichende öffentliche Debatte in jeden Bereich unseres Lebens eindringt. Kurz gesagt: Homo Digitalis lehnt die dänische Initiative nicht ab, sondern sieht sie als Chance für etwas Größeres und macht deutlich, wenn sie uns sagen: „Was jetzt nötig ist, ist eine kritische Reflexion der bestehenden Regeln und ein aktives Experimentieren mit den von ihnen gebotenen Lösungen. Dies erfordert ein breiteres Engagement der Bürgerinnen und Bürger … Wir brauchen dringend mehr Stimmen und mehr Beteiligung, um eine sinnvolle Aufsicht und demokratische Widerstandsfähigkeit zu gewährleisten.“ Die Herausforderung besteht daher nicht nur darin, unsere Identität rechtlich zu etablieren, sondern sie auch politisch durch kollektives Handeln und demokratische Kontrolle zu schützen.

Zu oft bestimmen kommerzielle Interessen die Agenda und drängen trotz ungelöster ethischer, rechtlicher und gesellschaftlicher Bedenken auf eine schnelle Einführung. Dieser Mangel an Bereitschaft und kritischer Prüfung erhöht die Wahrscheinlichkeit, dass KI individuelle Rechte und demokratische Prozesse untergräbt.

Philosophierender schwarzer Spiegel

Die Idee des Körperurheberrechts ist im Wesentlichen der Versuch, etwas ansonsten Selbstverständliches rechtlich zu fassen: dass unser Körper uns gehört – im Allgemeinen. Dänemarks Gesetzesinitiative wird dadurch zu etwas, das wir bisher für selbstverständlich hielten: dass unser Körper uns gehört. Doch gerade der Akt des Rechtsschutzes offenbart, dass diese Selbstverständlichkeit zusammengebrochen und gestört ist. Die Technologie zwingt uns, zu definieren, was „Ego“ bedeutet, wenn unsere Stimme, unser Bild und sogar unsere Gedanken unbegrenzt kopiert werden können, um uns durch Drittparameter wieder als Eigentümer unseres eigenen Selbst zu etablieren.

Das Problem, da es uns auf materieller Ebene betrifft, kann nur ontologischer Natur sein. Der Körper ist der Bezugspunkt der Identität, eine materielle Grenze, die das Selbst vom Anderen unterscheidet. Wenn dieser Körper perfekt reproduziert werden kann, bricht diese Grenze zusammen, insbesondere wenn mein digitaler „Klon“ kein Fremder mehr ist, aber auch nicht genau ich selbst. Er ist ein Hybrid, der meine Stimme und meine Bewegungen trägt, aber meinem Willen nicht gehorcht. Und hier liegt die Herausforderung: nicht darin, wer die geistigen Eigentumsrechte besitzt, sondern darin, wie wir das Konzept der Subjektivität, des Selbst, in einer Welt bewahren, in der sich das Selbst vervielfältigt hat. Körperurheberrechte werden derzeit marktwirtschaftlich diskutiert, im Hinblick auf Registrierung, Lizenzierung und Vergütung – mit der Logik, dass sie einerseits schützen sollen, andererseits aber Identität in Kapital verwandeln. Dies ist kein Problem der Lösung, sondern Teil des Problems, das wir lösen müssen. Wenn mein Körper ein Vermögenswert ist, kann ich ihn vermieten, verkaufen, übertragen – oder ihn verlieren, wenn ich seinen Schutz nicht bezahlen kann. Freiheit wird zum Privileg. Das Problem ist nicht die Ermächtigung, sondern eine neue Form der Abhängigkeit. Die individuelle Souveränität, die das Urheberrecht eigentlich schützen soll, wird zur Voraussetzung für gesellschaftliche Teilhabe. Diese Bedrohung führt zu einem weiteren Problem: Der Körper wird vom Erfahrungsort zum Objekt der Kontrolle. Die Gesellschaft funktioniert nicht mehr auf Anerkennung, sondern auf Gehorsam. Gehorsam bedeutet eine Art Lizenz: Wer sich nicht „schützt“, wird entweder unsichtbar oder verletzlich. Individuelle Identität ist also keine Beziehung mehr, sondern ein Vertrag.

Die wirkliche Antwort darauf kann nicht einfach mehr Rechte sein; wir brauchen ein Konzept von „Eigentum“, das den Körper nicht als Ware definiert, sondern als Erweiterung der Menschenwürde, eine Rückkehr zu den Wurzeln der Menschenrechte. Eine Politik, die sich nicht auf finanzielle Entschädigung beschränkt, sondern sicherstellt, dass keine Verwendung des Bildes oder „Klons“ die Autonomie der Person beeinträchtigen kann. Die philosophische Herausforderung des Körperurheberrechts besteht nicht darin, einen fairen Preis für unser Gesicht oder eine faire Strafe für seinen Missbrauch zu finden, sondern sicherzustellen, dass unser Gesicht niemals vermarktbar wird. Nur so kann Technologie die menschliche Freiheit erweitern, anstatt sie zunichte zu machen.

Geschrieben von

Gestalten Sie das Gespräch

Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.