Der Funke

Dänemark wird in der nächsten Staffel von Black Mirror nicht mitspielen.

Stellen Sie sich vor, Sie wachen eines Morgens auf und stellen fest, dass Sie eine Pressekonferenz gegeben haben, Dinge gesagt haben, die Sie sich nie hätten vorstellen können, und sich nicht einmal daran erinnern können. In der Welt von Black Mirror ist das ganz normaler Dienstag. Ihr Bild, Ihre Stimme, selbst Ihre Mimik gehören Ihnen nicht mehr; sie sind zum geistigen Eigentum anderer geworden, Material zur Reproduktion, Unterhaltung oder gar Folter. Denn in diesem Universum ist die Frage nicht, ob die Technologie Sie verrät, sondern wann. Von „USS Callister“, wo Charaktere ohne ihr Einverständnis in digitalen Klonen gefangen sind, bis zu „Joan Is Awful“, wo das Leben einer Frau zum Eigentum einer Streaming-Plattform wird, spielt die Serie immer wieder mit derselben Idee: dass Ihr Bild, Ihre Stimme, ja sogar Ihre Persönlichkeit zu einem Produkt werden können, ohne dass Sie ein Mitspracherecht haben.

In einer gar nicht so fernen Welt schaffte die dänische Ministerpräsidentin Mette Frederiksen im April 2024 Ostern , Weihnachten und einige andere Feiertage ab. Dies behauptete der Vorsitzende der Dänischen Volkspartei, Morten Messerschmidt, der ein Video der Ministerpräsidentin bei dieser Ankündigung veröffentlichte. Das Video entpuppte sich als Deepfake und wurde auch entsprechend gekennzeichnet. Trotzdem verbreitete es sich rasant und löste umgehend einen politischen Sturm aus. Fast alle Parteien verurteilten die Abschaffung und forderten die Regierung zum Handeln auf.

Hier sehen Sie ein Bild aus dem Video, das eine gefälschte Mette Frederiksen zeigt. Das Bild wurde von einer KI generiert. (Foto: © Screenshot von X)

Ein Jahr später legte Kulturminister Jakob Engel-Schmidt einen radikalen Vorschlag vor, wonach alle Dänen automatisch das Urheberrecht an ihren eigenen Deepfakes erwerben sollten. Dieser Vorschlag fand breite Unterstützung: Neun der elf Parteien im Parlament stimmten zu, den notwendigen Konsens zu schaffen, damit jeder Bürger die Entfernung von Deepfakes, die ihn betreffen, von jeder Plattform verlangen kann – selbst wenn diese nicht kommerziell genutzt wurden. Der Vorschlag sieht auch Entschädigungen vor, hält aber Parodie und Satire von dieser Regelung aus.

Im Zentrum der Debatte um die ethischen Aspekte stand die Frage, was geschehen würde, wenn dieselbe Technologie in einer Krisenzeit eingesetzt würde, beispielsweise wenn sie den Premierminister bei der Ausrufung des Notstands oder der Ankündigung restriktiver Maßnahmen aufgrund einer Krise zeigen würde. Die Sorge bestand darin, dass Deepfakes nicht nur lustige oder gefährliche Videos sind, sondern Instrumente, die das Vertrauen in institutionelle Stimmen untergraben können. Die Innovation dieses dänischen Modells liegt in seiner Proaktivität: Es ist kein Nachweis eines Schadens für das Opfer erforderlich; die Daten werden im Wesentlichen verändert, wodurch die uneingeschränkte Souveränität über Aussehen und Identität durch einen automatischen und universellen Akt wiederhergestellt wird.

Die Fähigkeit künstlicher Intelligenz, realistische Inhalte zu erstellen, hat den Beweisbegriff grundlegend verändert. Deepfakes können genutzt werden, um Gesichts- und Spracherkennungssysteme zu umgehen und sogar illegalen Zugriff auf sensible Daten zu erlangen. Das Problem beschränkt sich natürlich nicht auf die Cybersicherheit; die sozialen und psychologischen Auswirkungen sind enorm. 95 % der Deepfakes sind pornografisch und betreffen unverhältnismäßig stark Frauen und Minderjährige. Die Möglichkeit, plausibles Material als Fälschung abzutun – die sogenannte Lügnerdividende – untergräbt das Vertrauen in den öffentlichen Diskurs. Ein bemerkenswertes Beispiel aus der Politik sind die Deepfake-Anrufe mit der Stimme von „Joe Biden“, die Wähler in New Hampshire an der Stimmabgabe hinderten und zeigten, wie solche Werkzeuge selbst Wahlen destabilisieren können. Die neue Realität hat nichts mit Datenschutz an sich zu tun, sondern mit dessen Ausweitung als Frage der demokratischen Sicherheit.

Dänemark versucht mit seinem Vorschlag, diese Lücke zu schließen. Das Land beabsichtigt, seine bevorstehende EU-Ratspräsidentschaft zu nutzen, um das Thema in Brüssel voranzutreiben. Engel-Schmidt hat bereits seine Absicht erklärt, das Thema auf europäischer Ebene anzusprechen und auf einen gemeinsamen Rahmen zu drängen, der auch die großen Plattformen zur Einhaltung verpflichtet, wobei bei Nichteinhaltung hohe Geldstrafen drohen. Damit wird Dänemark zum kleinen Labor für eine Intervention, die die europäischen Regeln zum Schutz der digitalen Identität im Zeitalter genetischer Algorithmen prägen könnte.

Die europäische Perspektive: Homo Digitalis

Dänemarks Vorschlag wurde als innovativ und ambitioniert wahrgenommen und rief sowohl Begeisterung als auch Skepsis hervor. Lefteris Helioudakis, Rechtsanwalt mit Spezialisierung auf neue Technologien und Geschäftsführer von Homo Digitalis , erklärte: „Auf den ersten Blick erscheint der Vorschlag wie ein fragwürdiger Notbehelf. Das Urheberrecht funktioniert als Gesellschaftsvertrag: Der Schöpfer eines Originalwerks leistet einen Beitrag zur Gesellschaft, und im Gegenzug gewährt ihm die Gesellschaft exklusive Rechte. Diese Logik auf biometrische Daten auszudehnen, widerspricht den Grundprinzipien des Rechts des geistigen Eigentums.“ Folglich schafft Dänemarks ambitioniertes neues Gesetz einen Präzedenzfall, der auf dem Konzept der Identität statt der Schöpfung basiert – etwas, das es zuvor noch nie gegeben hat.

Homo Digitalis weist zudem darauf hin, dass der Rechtsrahmen auf europäischer Ebene bereits in der Richtlinie 1385/2024 existierte, welche die Verwendung von Deepfakes in sensiblen Kontexten unter Strafe stellt, sowie im Gesetz über digitale Dienste (Digital Services Act, DSA), das Regelungen zu illegalen Inhalten und zur Haftung von Plattformen enthält. „Diese Legalitätsregeln werden von den nationalen Parlamenten der EU-Mitgliedstaaten erlassen. Dänemark hätte daher andere Bestimmungen zu personenbezogenen Daten, Desinformation und Verleumdung prüfen können, um gegen die Verwendung von Deepfakes vorzugehen, tat dies aber nicht.“ Weiterhin kritisiert Homo Digitalis die „Innovation“ des dänischen Vorgehens: Solche einseitigen nationalen Initiativen mögen zwar mediale Aufmerksamkeit erregen, gehen aber nicht auf die Wurzel des Problems ein.

„Auf den ersten Blick erscheint der Vorschlag als fragwürdige Notlösung. Das Urheberrecht funktioniert als Gesellschaftsvertrag: Der Schöpfer eines Originalwerks leistet einen Beitrag zur Gesellschaft, und im Gegenzug gewährt ihm die Gesellschaft ausschließliche Rechte. Diese Logik auf biometrische Daten auszudehnen, widerspricht den Grundprinzipien des Rechts des geistigen Eigentums.“

Gleichzeitig ist Homo Digitalis in Bezug auf die Meinungsfreiheit kategorisch: „Ausnahmen für Parodie, Satire und politische Kritik sind im EU-Urheberrecht bereits fest verankert … Diese Mechanismen bieten gemeinsam sowohl den rechtlichen Schutz der Meinungsfreiheit als auch die verfahrenstechnischen Instrumente zur Bekämpfung schädlicher Deepfakes, ohne das bestehende Gleichgewicht neu zu definieren.“ Anders ausgedrückt: Der Rahmen zum Schutz von Satire und politischer Kritik existiert bereits, und es bedarf keiner neuen Balance; notwendig ist lediglich die Anwendung der bestehenden, fundierten Regeln.

Ihre Beobachtung zur Plattformverantwortung im Zusammenhang mit der DSA rückt die Pflicht großer Plattformen zur Durchführung systematischer Risikobewertungen wieder in den Vordergrund – nicht nur für illegale Inhalte, sondern auch für Material, das „den öffentlichen Diskurs untergraben könnte“. Dies bedeutet, dass Deepfakes bereits erfasst sind und somit unter die obligatorischen Schutzmaßnahmen fallen, selbst im Rahmen des gesetzlich vorgesehenen Krisenreaktionsmechanismus. Dänemarks Intervention wirkt eher wie ein politischer Akt als eine rechtliche Notwendigkeit und steht möglicherweise im Einklang mit dem breiteren Trend der EU-Sicherheit, sich auch auf den digitalen Raum auszudehnen.

Laut Lefteris Helioudakis, Geschäftsführer von Homo Digitalis, besteht die Gefahr, dass Regulierung als Allheilmittel missverstanden wird, während die eigentliche Herausforderung systemischer Natur ist. Helioudakis warnt: „Allzu oft bestimmen kommerzielle Interessen die Agenda und drängen auf eine rasche Einführung trotz ungelöster ethischer, rechtlicher und gesellschaftlicher Bedenken. Dieser Mangel an Bereitschaft und kritischer Prüfung erhöht die Wahrscheinlichkeit, dass KI individuelle Rechte und demokratische Prozesse untergräbt.“ Der Kampf richtet sich nicht nur gegen Deepfakes, sondern gegen die Art und Weise, wie künstliche Intelligenz ohne ausreichende öffentliche Debatte in alle Lebensbereiche eindringt. Kurz gesagt: Homo Digitalis lehnt die dänische Initiative nicht ab, sondern sieht sie als Chance für etwas Umfassenderes. Dies wird deutlich, wenn die Organisation erklärt: „Was wir jetzt brauchen, ist eine kritische Reflexion der bestehenden Regeln und aktives Experimentieren mit den darin enthaltenen Lösungsansätzen. Dies erfordert eine breitere Bürgerbeteiligung … Wir brauchen dringend mehr Stimmen und mehr Beteiligung, um eine sinnvolle Kontrolle und die Widerstandsfähigkeit der Demokratie zu gewährleisten.“ Die Herausforderung besteht daher nicht nur darin, unsere Identität rechtlich zu etablieren, sondern sie auch politisch durch kollektives Handeln und demokratische Kontrolle zu schützen.

Allzu oft bestimmen kommerzielle Interessen die Agenda und drängen auf eine rasche Einführung trotz ungelöster ethischer, rechtlicher und gesellschaftlicher Bedenken. Dieser Mangel an Bereitschaft und kritischer Prüfung erhöht die Wahrscheinlichkeit, dass KI individuelle Rechte und demokratische Prozesse untergräbt.

Philosophierender schwarzer Spiegel

Die Idee des Urheberrechts am eigenen Körper ist im Grunde der Versuch, etwas Selbstverständliches rechtlich zu untermauern, nämlich dass unsere Körper uns gehören – im Allgemeinen. Die dänische Gesetzesinitiative macht daraus etwas, das wir bisher für selbstverständlich hielten: das Eigentum an unseren Körpern. Doch gerade der Akt des Rechtsschutzes offenbart, dass diese vermeintliche Selbstverständlichkeit ins Wanken geraten ist, dass sie erschüttert wurde und dass die Technologie uns zwingt, den Begriff „Ego“ neu zu definieren, wenn unsere Stimme, unser Bild und sogar unsere Gedanken unbegrenzt kopiert werden können. Dies geschieht in dem Bestreben, uns mithilfe von Dritten wieder als Eigentümer unseres eigenen Selbst zu etablieren.

Da uns das Problem auf materieller Ebene betrifft, muss es ontologischer Natur sein. Der Körper ist der Bezugspunkt der Identität, eine materielle Grenze, die das Selbst vom Anderen unterscheidet. Wenn dieser Körper perfekt reproduziert werden kann, verschwimmt diese Grenze, insbesondere wenn mein digitaler „Klon“ nicht mehr fremd, aber auch nicht mehr genau ich ist. Er ist ein Hybrid, der meine Stimme und meine Bewegungen trägt, aber nicht meinem Willen gehorcht. Und genau hier liegt die Herausforderung: nicht in der Frage, wem die Rechte am geistigen Eigentum gehören, sondern darin, wie wir den Begriff der Subjektivität, des Selbst, in einer Welt bewahren, in der sich das Selbst vervielfältigt hat. Das Urheberrecht am Körper wird derzeit in marktwirtschaftlichen Kategorien diskutiert, im Hinblick auf Registrierung, Lizenzierung und Vergütung – mit der Logik, dass es einerseits Schutz bieten soll, andererseits aber Identität in Kapital verwandelt. Dies ist nicht Teil der Lösung, sondern Teil des Problems, das wir lösen müssen. Wenn mein Körper ein Vermögenswert ist, kann ich ihn vermieten, verkaufen, abtreten – oder verlieren, wenn ich seinen Schutz nicht bezahlen kann. Freiheit wird zum Privileg, wobei das Problem nicht in der Selbstbestimmung liegt, sondern in einer neuen Form der Abhängigkeit. Die individuelle Souveränität, die das Urheberrecht eigentlich schützen soll, wird zur Voraussetzung für gesellschaftliche Teilhabe. Die Bedrohung führt somit zu einem weiteren Problem: Der Körper wird vom Ort der Erfahrung zum Objekt der Kontrolle, und die Gesellschaft funktioniert nicht mehr nach dem Prinzip der Anerkennung, sondern nach dem Prinzip der Konformität. Diese Konformität impliziert eine Art Lizenz: Wer sich nicht „schützt“, wird entweder unsichtbar oder angreifbar. Folglich ist die individuelle Identität keine Beziehung mehr, sondern ein Vertrag.

Die wirkliche Antwort darauf kann nicht einfach in mehr Rechten liegen; wir brauchen ein Konzept von „Eigentum“, das den Körper nicht als Ware definiert, sondern als Ausdruck der Menschenwürde – eine Rückkehr zu den Wurzeln der Menschenrechte. Eine Politik, die sich nicht auf finanzielle Entschädigung beschränkt, sondern sicherstellt, dass die Verwendung des Bildes oder eines „Klons“ die Autonomie der Person nicht beeinträchtigen kann. Die philosophische Herausforderung des Urheberrechts am Körper besteht nicht darin, einen fairen Preis für unser Gesicht oder eine angemessene Strafe für dessen Missbrauch zu finden, sondern sicherzustellen, dass unser Gesicht niemals marktfähig wird. Nur so kann Technologie die menschliche Freiheit erweitern, anstatt sie einzuschränken.

Geschrieben von

Gestalten Sie das Gespräch

Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.