La scintilla

La Danimarca non giocherà nella prossima stagione di Black Mirror

Immagina di svegliarti una mattina e scoprire di aver tenuto una conferenza stampa, dicendo cose che non avresti mai immaginato, senza nemmeno ricordarti di averla fatta. Nel mondo di Black Mirror , è solo martedì. La tua immagine, la tua voce, persino le tue espressioni non ti appartengono più; sono diventate proprietà intellettuale di qualcun altro, materiale per la riproduzione, l'intrattenimento o persino la tortura. Perché in questo universo, la domanda non è se la tecnologia ti tradirà, ma quando. Da "USS Callister", dove i personaggi sono intrappolati in cloni digitali senza il loro consenso, a "Joan Is Awful", dove la vita di una donna diventa proprietà di una piattaforma di streaming, la serie gioca con la stessa idea più e più volte: che la tua immagine, la tua voce, persino la tua personalità possono diventare un prodotto senza che tu abbia voce in capitolo.

In un mondo non così lontano, nell'aprile 2024, il Primo Ministro danese Mette Frederiksen ha abolito la Pasqua, il Natale e diverse altre festività, secondo il presidente del Partito Popolare Danese, Morten Messerschmidt, che ha pubblicato un video del Primo Ministro che annunciava l'abolizione. Ovviamente, il video era un deepfake, ed è stato etichettato come tale, ma è diventato virale, scatenando immediatamente una tempesta politica. Quasi tutti i partiti hanno condannato l'atto e hanno chiesto al governo di legiferare.

Qui potete vedere un'immagine dal video che mostra una falsa Mette Frederiksen. L'immagine è generata dall'intelligenza artificiale. (Foto: © Screenshot da X)

Un anno dopo, il Ministro della Cultura Jakob Engel-Schmidt presentò una proposta radicale secondo cui tutti i danesi avrebbero dovuto acquisire automaticamente il copyright sui propri contenuti. Questa proposta ricevette un ampio sostegno, con nove degli undici partiti parlamentari che accettarono di fornire il consenso necessario per consentire a ogni cittadino di richiedere la rimozione dei deepfake che li riguardavano da qualsiasi piattaforma, anche quando non fossero stati sfruttati commercialmente. Prevede inoltre un risarcimento, pur mantenendo un'eccezione per parodia e satira.

Al centro del dibattito, per quanto riguarda l'etica della questione, c'era la discussione su cosa sarebbe successo se la stessa tecnologia fosse stata utilizzata in un periodo di crisi, ad esempio se avesse mostrato il primo ministro dichiarare lo stato di emergenza o annunciare misure restrittive a causa di una crisi. La preoccupazione era che i deepfake non fossero solo video divertenti o pericolosi, ma strumenti in grado di minare la fiducia nelle stesse voci istituzionali. L'innovazione introdotta da questo modello danese è la proattività, ovvero non è richiesta la prova del danno subito dalla vittima, modificando sostanzialmente i dati, ripristinando la pura sovranità dell'apparenza e dell'identità con un atto automatico e universale.

La capacità dell'intelligenza artificiale di creare contenuti realistici ha trasformato il concetto stesso di prova in un campo di battaglia in cui i deepfake possono essere utilizzati per aggirare i sistemi di riconoscimento facciale e vocale, fino al punto di ottenere l'accesso illegale a dati sensibili. Il problema, ovviamente, non si ferma alla sicurezza informatica, con implicazioni sociali e psicologiche enormi. Il 95% dei deepfake è pornografico e colpisce in modo sproporzionato donne e minori, mentre la capacità di liquidare materiale plausibile come falso, il cosiddetto dividendo del bugiardo, mina la fiducia nel dibattito pubblico. In ambito politico, un esempio degno di nota sono state le chiamate audio deepfake con la "voce di Joe Biden" che hanno impedito agli elettori di recarsi alle urne nel New Hampshire, dimostrando come tali strumenti possano destabilizzare persino le elezioni. La nuova realtà non ha nulla a che fare con la privacy in sé, ma con la sua estensione in termini di sicurezza democratica.

La Danimarca, con la sua proposta, sta cercando di colmare questa lacuna, con il paese che intende usare la sua prossima presidenza dell'UE per portare avanti la questione a Bruxelles, con Engel-Schmidt che ha già dichiarato la sua intenzione di sollevare la questione al tavolo europeo e spingere per un quadro comune che obblighi anche le grandi piattaforme a conformarsi, con la minaccia di pesanti multe in caso di inosservanza, rendendo la Danimarca il piccolo laboratorio per un intervento che potrebbe plasmare le regole europee per la protezione dell'identità digitale nell'era degli algoritmi genetici.

La prospettiva europea: Homo Digitalis

La proposta danese è stata considerata innovativa e ambiziosa, generando sia entusiasmo che scetticismo. Come ha spiegato Lefteris Helioudakis, avvocato specializzato in nuove tecnologie e direttore esecutivo di Homo Digitalis , "a prima vista, la proposta sembra una soluzione discutibile. Il diritto d'autore funziona come un contratto sociale: il creatore di un'opera originale contribuisce alla società e in cambio la società concede al creatore diritti esclusivi. Estendere questa logica alle informazioni biometriche è in contrasto con i principi fondamentali del diritto della proprietà intellettuale". Di conseguenza, l'ambiziosa nuova legge danese stabilisce un nuovo precedente basato sul concetto di identità piuttosto che di creazione, qualcosa senza precedenti.

Homo Digitalis sottolinea inoltre che il quadro giuridico a livello europeo esisteva già nella Direttiva 1385/2024, che criminalizza l'uso dei deepfake in contesti sensibili, fino al Digital Services Act (DSA), che prevede norme sui contenuti illegali e sulla responsabilità delle piattaforme. "Tali norme di legalità sono in realtà emanate dai parlamenti nazionali degli Stati membri dell'UE. Pertanto, la Danimarca avrebbe potuto valutare altre disposizioni in materia di dati personali, disinformazione e diffamazione per contrastare tale uso dei deepfake, ma non l'ha fatto". Andando oltre, criticando l'"innovazione" dell'azione danese, tali iniziative nazionali unilaterali possono attirare l'attenzione dei media, ma non affrontano la radice del problema.

"A prima vista, la proposta sembra una soluzione discutibile. Il diritto d'autore funziona come un contratto sociale: il creatore di un'opera originale contribuisce alla società e in cambio la società concede al creatore diritti esclusivi. Estendere questa logica alle informazioni biometriche è in contrasto con i principi fondamentali del diritto della proprietà intellettuale."

Allo stesso tempo, quando si parla di libertà di espressione, Homo Digitalis è categorico: «Le eccezioni per la parodia, la satira e la critica politica sono già ben consolidate nel diritto d'autore dell'UE… Insieme, questi meccanismi forniscono sia le garanzie legali per la libertà di espressione sia gli strumenti procedurali per contrastare i deepfake dannosi senza reinventare l'equilibrio sottostante». In altre parole, il quadro per la protezione della satira e della critica politica esiste già e non c'è bisogno di un nuovo equilibrio; ciò che serve è l'applicazione delle regole esistenti e ben fondate.

La loro osservazione sulla responsabilità delle piattaforme, con la DSA, riporta in primo piano gli obblighi delle grandi piattaforme di condurre valutazioni sistematiche del rischio, non solo per i contenuti illegali, ma anche per il materiale che "potrebbe minare il dibattito pubblico". Ciò significa che i deepfake sono già previsti e quindi rientrano nelle misure di mitigazione obbligatorie, anche attraverso il meccanismo di risposta alle crisi previsto dalla legge. L'intervento della Danimarca sembra più un atto politico che una necessità legale, forse in linea con la più ampia tendenza della sicurezza dell'UE a estendersi allo spazio digitale.

Infine, secondo Lefteris Helioudakis, Direttore Esecutivo di Homo Digitalis, il pericolo è che la regolamentazione venga trattata come una panacea, quando la vera sfida è sistemica. Come avverte Helioudakis, "Troppo spesso, gli interessi commerciali plasmano l'agenda, spingendo per una rapida adozione nonostante questioni etiche, legali e sociali irrisolte. Questa mancanza di preparazione e di analisi critica aumenta la probabilità che l'IA comprometta i diritti individuali e i processi democratici". La battaglia non è solo contro i deepfake; è contro il modo in cui l'intelligenza artificiale sta invadendo ogni ambito della nostra vita senza un adeguato dibattito pubblico. In breve, Homo Digitalis non respinge l'iniziativa danese, ma la vede come un'opportunità per qualcosa di più ampio, affermando chiaramente che "Ciò che serve ora è una riflessione critica sulle norme esistenti e una sperimentazione attiva dei rimedi che esse offrono. Ciò richiede un più ampio coinvolgimento dei cittadini… Abbiamo urgente bisogno di più voci e di più partecipazione per garantire una supervisione significativa e una resilienza democratica". La sfida, quindi, non è solo quella di stabilire legalmente la nostra identità, ma anche di proteggerla politicamente, attraverso l'azione collettiva e il controllo democratico.

" Troppo spesso, gli interessi commerciali plasmano l'agenda, spingendo per una rapida adozione nonostante le preoccupazioni etiche, legali e sociali irrisolte. Questa mancanza di preparazione e di analisi critica aumenta la probabilità che l'IA comprometta i diritti individuali e i processi democratici " .

Filosofare Black Mirror

L'idea del diritto d'autore sul corpo è essenzialmente un tentativo di inquadrare giuridicamente qualcosa che altrimenti sarebbe ovvio, ovvero che i nostri corpi ci appartengono – in generale – trasformando l'iniziativa legislativa danese in qualcosa che fino ad ora davamo per scontato, ovvero che i nostri corpi ci appartengono. Tuttavia, l'atto stesso di tutela legale rivela che questa verità evidente è crollata, è stata sconvolta, e che la tecnologia ci costringe a definire cosa significhi "ego" quando la nostra voce, la nostra immagine e persino i nostri pensieri possono essere copiati all'infinito, nel tentativo di ristabilire la nostra proprietà di noi stessi attraverso parametri terzi.

Il problema, poiché ci riguarda a livello materiale, non può che essere ontologico. Il corpo è il punto di riferimento dell'identità, un confine materiale che distingue il sé dall'altro. Quando questo corpo può essere riprodotto perfettamente, il confine crolla, soprattutto quando il mio "clone" digitale non è più un estraneo, ma non è nemmeno esattamente me. È un ibrido che porta la mia voce e i miei movimenti, ma non obbedisce alla mia volontà. E qui sta la sfida, non in chi detiene i diritti di proprietà intellettuale, ma in come manteniamo il concetto di soggettività, del sé, in un mondo in cui il sé si è moltiplicato. Il copyright sul corpo è attualmente discusso in termini di mercato, in termini di registrazione, licenza e compensazione – con la logica, da un lato, che dovrebbe essere protettivo, ma dall'altro, che trasforma l'identità in capitale, e questo non è un problema di soluzione, ma parte del problema che siamo chiamati a risolvere. Se il mio corpo è un bene, posso affittarlo, venderlo, cederlo – o perderlo se non posso pagare per la sua protezione. La libertà diventa un privilegio, e il problema non è l'emancipazione, ma una nuova forma di dipendenza, in cui la sovranità individuale che il copyright dovrebbe difendere diventa un prerequisito per la partecipazione alla società. Pertanto, la minaccia porta a un ulteriore problema, in cui il corpo si trasforma da luogo di esperienza in oggetto di gestione, con la società che funziona non in termini di riconoscimento, ma in termini di conformità. Una conformità che implica una sorta di licenza in cui, se non ci si "protegge", si diventa invisibili o vulnerabili. Di conseguenza, l'identità individuale non è più una relazione, ma un contratto.

La vera risposta a tutto questo non può essere semplicemente più diritti; abbiamo bisogno di un concetto di "proprietà" che non definisca il corpo come una merce, ma come un'estensione della dignità umana, un ritorno alle radici dei diritti umani. Una politica che non si limiti al risarcimento finanziario, ma garantisca che nessun uso dell'immagine o del "clone" possa privare la persona dell'autonomia. La sfida filosofica del diritto d'autore sul corpo non è trovare un prezzo equo per il nostro volto, o una giusta pena per il suo uso improprio, ma garantire che il nostro volto non diventi mai commerciabile. Solo in questo modo la tecnologia può espandere, anziché annullare, la libertà umana.

Dai forma alla conversazione

Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.