Iskra

Dania nie zagra w kolejnym sezonie serialu Black Mirror

Wyobraź sobie, że budzisz się pewnego ranka i dowiadujesz się, że wygłosiłeś konferencję prasową, mówiąc rzeczy, których sobie nigdy nie wyobrażałeś, a nawet nie pamiętasz, że to zrobiłeś. W świecie Black Mirror jest po prostu wtorek. Twój wizerunek, twój głos, a nawet twoje wyrażenia nie należą już do ciebie; stały się czyjąś własnością intelektualną, materiałem do reprodukcji, rozrywki, a nawet tortur. Ponieważ w tym wszechświecie pytanie nie brzmi, czy technologia cię zdradzi, ale kiedy. Od „USS Callister”, gdzie postacie są uwięzione w cyfrowych klonach bez ich zgody, do „Joan Is Awful”, gdzie życie kobiety staje się własnością platformy streamingowej, serial bawi się wciąż tym samym pomysłem: że twój wizerunek, twój głos, a nawet twoja osobowość mogą stać się produktem bez twojego głosu w tej sprawie.

W nie tak odległym świecie, w kwietniu 2024 roku, premier Danii Mette Frederiksen zniosła Wielkanoc, Boże Narodzenie i kilka innych świąt, jak poinformował przewodniczący Duńskiej Partii Ludowej, Morten Messerschmidt, który opublikował nagranie wideo, na którym premier ogłasza tę decyzję. Morten Messerschmidt opublikował nagranie wideo, na którym premier ogłasza tę decyzję. Oczywiście nagranie było deepfake'iem i zostało tak oznaczone, ale stało się viralem, co natychmiast wywołało burzę polityczną. Prawie wszystkie partie potępiły tę ustawę i wezwały rząd do jej uchwalenia.

Tutaj możesz zobaczyć obraz z filmu przedstawiający fałszywą Mette Frederiksen. Obraz został wygenerowany przez sztuczną inteligencję. (Zdjęcie: © Zrzut ekranu z X)

Rok później minister kultury Jakob Engel-Schmidt przedstawił radykalną propozycję, zgodnie z którą wszyscy Duńczycy powinni automatycznie nabywać prawa autorskie do swoich materiałów. Propozycja ta spotkała się z szerokim poparciem, a dziewięć z jedenastu partii w parlamencie zgodziło się na zapewnienie konsensusu niezbędnego do umożliwienia każdemu obywatelowi żądania usunięcia deepfake'ów go dotyczących z dowolnej platformy, nawet jeśli nie zostały one wykorzystane komercyjnie. Przewiduje ona również rekompensatę, zachowując jednocześnie wyjątek dla parodii i satyry.

W centrum debaty, dotyczącej etyki tej kwestii, znalazła się dyskusja o tym, co by się stało, gdyby ta sama technologia została wykorzystana w czasie kryzysu, na przykład gdyby pokazała premiera ogłaszającego stan wyjątkowy lub zapowiadającego środki ograniczające w związku z kryzysem. Obawy budził fakt, że deepfake'i to nie tylko zabawne lub niebezpieczne filmy, ale narzędzia zdolne podważyć zaufanie do samych instytucji. Innowacją wprowadzoną przez ten duński model jest proaktywność, tj. brak konieczności udowodnienia szkody ofierze, a w istocie zmiana danych, przywrócenie czystej suwerenności wizerunku i tożsamości za pomocą automatycznego i uniwersalnego działania.

Zdolność sztucznej inteligencji do tworzenia realistycznych treści przekształciła samą koncepcję dowodu w pole bitwy, na którym deepfake'i mogą być wykorzystywane do omijania systemów rozpoznawania twarzy i głosu, aż do uzyskania nielegalnego dostępu do poufnych danych. Problem oczywiście nie kończy się na cyberbezpieczeństwie, a społeczne i psychologiczne implikacje są ogromne. 95% deepfake'ów ma charakter pornograficzny, dotykając w nieproporcjonalnie dużym stopniu kobiety i nieletnich, a możliwość odrzucenia wiarygodnego materiału jako fałszywego, tzw. dywidenda kłamcy, podważa zaufanie do dyskursu publicznego. W sferze politycznej godnym uwagi przykładem były deepfake'owe rozmowy telefoniczne z „głosem Joe Bidena”, które uniemożliwiły wyborcom pójście do urn w New Hampshire, pokazując, jak takie narzędzia mogą destabilizować nawet wybory. Nowa rzeczywistość nie ma nic wspólnego z prywatnością samą w sobie, ale z jej rozszerzeniem w kontekście bezpieczeństwa demokratycznego.

Dania swoją propozycją próbuje zniwelować tę lukę. Kraj ten zamierza wykorzystać zbliżającą się prezydencję w UE, aby naciskać na tę kwestię w Brukseli. Engel-Schmidt już wyraził zamiar poruszenia tej kwestii przy stole europejskim i wywarcia nacisku na stworzenie wspólnych ram, które zobowiążą nawet duże platformy do przestrzegania przepisów, grożąc wysokimi karami za brak przestrzegania przepisów. Dania stałaby się w ten sposób małym laboratorium interwencji, która mogłaby ukształtować europejskie zasady ochrony tożsamości cyfrowej w erze algorytmów genetycznych.

Perspektywa europejska: Homo Digitalis

Propozycja Danii została uznana za innowacyjną i ambitną, wzbudzając zarówno entuzjazm, jak i sceptycyzm. Jak wyjaśnił Lefteris Helioudakis, prawnik specjalizujący się w nowych technologiach i dyrektor wykonawczy Homo Digitalis , „na pierwszy rzut oka propozycja wydaje się wątpliwym obejściem. Prawo autorskie funkcjonuje jako umowa społeczna: twórca oryginalnego dzieła wnosi coś do społeczeństwa, a w zamian społeczeństwo przyznaje mu wyłączne prawa. Rozszerzenie tej logiki na informacje biometryczne jest niezgodne z podstawowymi zasadami prawa własności intelektualnej”. W konsekwencji, ambitne nowe prawo Danii ustanawia nowy precedens oparty na koncepcji tożsamości, a nie twórczości, co jest zjawiskiem bezprecedensowym.

Homo Digitalis zwraca również uwagę, że ramy prawne na poziomie europejskim istniały już w dyrektywie 1385/2024, która kryminalizuje wykorzystywanie deepfake'ów w kontekstach wrażliwych, aż po ustawę o usługach cyfrowych (DSA), która określa przepisy dotyczące nielegalnych treści i odpowiedzialności platform. „Takie przepisy dotyczące legalności są w rzeczywistości uchwalane przez parlamenty narodowe państw członkowskich UE. Dania mogła zatem rozważyć inne przepisy dotyczące danych osobowych, dezinformacji i zniesławienia, aby przeciwdziałać takiemu wykorzystywaniu deepfake'ów, ale tego nie zrobiła”. Idąc o krok dalej, krytykując „innowacyjność” duńskich działań, takie jednostronne inicjatywy krajowe mogą przyciągać uwagę mediów, ale nie rozwiązują sedna problemu.

„Na pierwszy rzut oka propozycja wydaje się wątpliwym rozwiązaniem. Prawo autorskie funkcjonuje jak umowa społeczna: twórca oryginalnego dzieła wnosi coś do społeczeństwa, a w zamian społeczeństwo przyznaje mu wyłączne prawa. Rozszerzenie tej logiki na informacje biometryczne jest niezgodne z podstawowymi zasadami prawa własności intelektualnej”.

Jednocześnie, jeśli chodzi o wolność wypowiedzi, Homo Digitalis jest kategoryczny: „Wyjątki dotyczące parodii, satyry i krytyki politycznej są już dobrze ugruntowane w prawie autorskim UE… Razem mechanizmy te zapewniają zarówno prawną ochronę wolności wypowiedzi, jak i narzędzia proceduralne do zwalczania szkodliwych deepfake’ów bez konieczności ponownego tworzenia leżącej u ich podstaw równowagi”. Innymi słowy, ramy ochrony satyry i krytyki politycznej już istnieją i nie ma potrzeby tworzenia nowej równowagi; konieczne jest stosowanie istniejących, dobrze ugruntowanych zasad.

Ich obserwacja dotycząca odpowiedzialności platform, w kontekście ustawy DSA, ponownie wysuwa na pierwszy plan obowiązek dużych platform przeprowadzania systematycznej oceny ryzyka, nie tylko w odniesieniu do treści nielegalnych, ale także materiałów, które „mogą podważyć debatę publiczną”. Oznacza to, że istnieją już przepisy dotyczące deepfake’ów, a zatem podlegają one obowiązkowym środkom zaradczym, nawet w ramach mechanizmu reagowania kryzysowego przewidzianego prawem. Interwencja Danii wydaje się bardziej aktem politycznym niż koniecznością prawną, być może wpisując się w szerszy trend bezpieczeństwa UE, rozszerzający się na przestrzeń cyfrową.

Wreszcie, zdaniem Lefterisa Helioudakisa, dyrektora wykonawczego Homo Digitalis, istnieje niebezpieczeństwo, że regulacje będą traktowane jako panaceum, podczas gdy prawdziwe wyzwanie ma charakter systemowy. Jak ostrzega Helioudakis: „Zbyt często interesy komercyjne kształtują agendę, forsując szybką adopcję pomimo nierozwiązanych problemów etycznych, prawnych i społecznych. Ten brak gotowości i krytycznej kontroli zwiększa prawdopodobieństwo, że sztuczna inteligencja podważy prawa jednostki i procesy demokratyczne”. Walka toczy się nie tylko z deepfake’ami, ale także ze sposobem, w jaki sztuczna inteligencja ingeruje w każdą dziedzinę naszego życia bez wystarczającej debaty publicznej. Krótko mówiąc, Homo Digitalis nie odrzuca inicjatywy Danii, ale postrzega ją jako szansę na coś szerszego, dając jasno do zrozumienia, że ​​„teraz potrzebna jest krytyczna refleksja nad obowiązującymi przepisami i aktywne eksperymentowanie z oferowanymi przez nie rozwiązaniami. Wymaga to szerszego zaangażowania obywateli… Pilnie potrzebujemy więcej głosów i większego uczestnictwa, aby zapewnić znaczący nadzór i demokratyczną odporność”. Wyzwaniem jest zatem nie tylko prawne ugruntowanie naszej tożsamości, ale także jej polityczna ochrona, poprzez działania zbiorowe i kontrolę demokratyczną.

Zbyt często interesy komercyjne kształtują agendę, forsując szybką adopcję pomimo nierozwiązanych kwestii etycznych, prawnych i społecznych. Ten brak gotowości i krytycznej kontroli zwiększa prawdopodobieństwo, że sztuczna inteligencja będzie podważać prawa jednostki i procesy demokratyczne .

Filozofowanie czarnego lustra

Idea praw autorskich do ciała jest w istocie próbą prawnego ujęcia czegoś, co skądinąd jest oczywiste, a mianowicie, że nasze ciała należą do nas – ogólnie rzecz biorąc – zmieniając duńską inicjatywę ustawodawczą w coś, co do tej pory uważaliśmy za oczywiste, a mianowicie, że nasze ciała należą do nas. Jednak sam akt ochrony prawnej ujawnia, że ​​ta oczywista prawda upadła, została zakłócona, a technologia zmusza nas do zdefiniowania, co oznacza „ego”, skoro nasz głos, wizerunek, a nawet myśli mogą być kopiowane w nieskończoność, w celu ponownego ustanowienia nas właścicielami samych siebie poprzez „trzecie parametry”.

Problem, ponieważ dotyczy nas na poziomie materialnym, musi mieć charakter ontologiczny. Ciało jest punktem odniesienia dla tożsamości, materialną granicą, która odróżnia jaźń od innych. Kiedy to ciało można idealnie odtworzyć, granica ta zanika, zwłaszcza gdy mój cyfrowy „klon” nie jest już obcy, ale też nie do końca mną. Jest hybrydą, która przenosi mój głos i moje ruchy, ale nie poddaje się mojej woli. I tu właśnie tkwi wyzwanie – nie w tym, kto jest właścicielem praw własności intelektualnej, ale w tym, jak podtrzymujemy koncepcję podmiotowości, jaźni, w świecie, w którym jaźń się rozmnożyła. Prawa autorskie do ciała są obecnie dyskutowane w kategoriach rynkowych, w kategoriach rejestracji, licencjonowania i rekompensaty – z jednej strony logika jest taka, że ​​powinny chronić, z drugiej strony przekształcają tożsamość w kapitał, a to nie jest problem rozwiązania, ale część problemu, który mamy rozwiązać. Jeśli moje ciało jest aktywem, mogę je wynająć, sprzedać, scedować – albo stracić, jeśli nie będę w stanie zapłacić za jego ochronę. Wolność staje się przywilejem, a problemem nie jest wzmocnienie pozycji, lecz nowa forma zależności, w której suwerenność jednostki, której prawo autorskie ma bronić, staje się warunkiem uczestnictwa w społeczeństwie. W ten sposób zagrożenie prowadzi do dodatkowego problemu, w którym ciało przekształca się z miejsca doświadczenia w przedmiot zarządzania, a społeczeństwo funkcjonuje nie w kategoriach uznania, lecz uległości. Zgodności, która implikuje rodzaj licencji, gdzie jeśli się nie „chroni”, staje się niewidzialnym lub podatnym na zranienie. W konsekwencji tożsamość jednostki nie jest już relacją, lecz kontraktem.

Prawdziwą odpowiedzią na to nie może być po prostu więcej praw; potrzebujemy koncepcji „własności”, która nie definiuje ciała jako towaru, ale jako przedłużenie ludzkiej godności, powrotu do korzeni praw człowieka. Polityki, która nie ogranicza się do rekompensaty finansowej, ale gwarantuje, że żadne wykorzystanie wizerunku lub „klonu” nie pozbawi osoby jej autonomii. Filozoficzne wyzwanie związane z prawem autorskim do ciała nie polega na znalezieniu uczciwej ceny za naszą twarz ani uczciwej kary za jej niewłaściwe wykorzystanie, ale na zapewnieniu, że nasza twarz nigdy nie stanie się przedmiotem obrotu rynkowego. Tylko w ten sposób technologia może poszerzyć, a nie zniweczyć, ludzką wolność.

Kształt rozmowy

Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.