{"id":58829,"date":"2025-10-13T14:44:30","date_gmt":"2025-10-13T14:44:30","guid":{"rendered":"https:\/\/www.pulse-z.eu\/body-copyright-deepfakes-denmark-digital-identity\/"},"modified":"2025-11-11T10:57:42","modified_gmt":"2025-11-11T10:57:42","slug":"la-danimarca-e-lontologia-del-diritto-dautore-sui-corpi","status":"publish","type":"post","link":"https:\/\/www.pulse-z.eu\/it\/la-danimarca-e-lontologia-del-diritto-dautore-sui-corpi\/","title":{"rendered":"La Danimarca e l&#39;ontologia del diritto d&#39;autore sui corpi"},"content":{"rendered":"<p> La scintilla <\/p>\n<p><span style=\"font-weight: 400;\"><strong>La Danimarca non giocher\u00e0 nella prossima stagione di Black Mirror<\/strong><\/span><\/p>\n<p> Immagina di svegliarti una mattina e scoprire di aver tenuto una conferenza stampa, dicendo cose che non avresti mai immaginato, senza nemmeno ricordarti di averla fatta. Nel mondo di <a href=\"https:\/\/www.imdb.com\/title\/tt2085059\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Black Mirror<\/span><\/a> <span style=\"font-weight: 400;\">, \u00e8 solo marted\u00ec. La tua immagine, la tua voce, persino le tue espressioni non ti appartengono pi\u00f9; sono diventate propriet\u00e0 intellettuale di qualcun altro, materiale per la riproduzione, l&#39;intrattenimento o persino la tortura. Perch\u00e9 in questo universo, la domanda non \u00e8 se la tecnologia ti tradir\u00e0, ma quando. Da &quot;USS Callister&quot;, dove i personaggi sono intrappolati in cloni digitali senza il loro consenso, a &quot;Joan Is Awful&quot;, dove la vita di una donna diventa propriet\u00e0 di una piattaforma di streaming, la serie gioca con la stessa idea pi\u00f9 e pi\u00f9 volte: che la tua immagine, la tua voce, persino la tua personalit\u00e0 possono diventare un prodotto senza che tu abbia voce in capitolo.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">In un mondo non cos\u00ec lontano, nell&#39;aprile 2024, il Primo Ministro danese Mette Frederiksen<\/span> <a href=\"https:\/\/www.nrc.nl\/nieuws\/2025\/07\/15\/denen-krijgen-auteursrecht-op-hun-lichaam-gezicht-en-stem-om-deepfakes-tegen-te-gaan-a4900369\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">ha abolito<\/span><\/a> <span style=\"font-weight: 400;\">la Pasqua, il Natale e diverse altre festivit\u00e0, secondo il presidente del Partito Popolare Danese, Morten Messerschmidt, che ha pubblicato un video del Primo Ministro che annunciava l&#39;abolizione. Ovviamente, il video era un deepfake, ed \u00e8 stato etichettato come tale, ma \u00e8 diventato virale, scatenando immediatamente una tempesta politica. Quasi tutti i partiti hanno condannato l&#39;atto e hanno chiesto al governo di legiferare.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Lettore video di YouTube\" src=\"https:\/\/www.youtube.com\/embed\/WYIeGRV2pGU?si=GSx55k0X1F5OU08p\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/p>\n<div style=\"width: 558px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"\" src=\"https:\/\/asset.dr.dk\/drdk\/drupal-images\/other\/2024\/04\/27\/messerschmidtvideo.jpg?im=AspectCrop%3D%28720%2C922%29%2CxPosition%3D.5%2CyPosition%3D.5%3BResize%3D%28720%2C922%29\" alt=\"\" width=\"548\" height=\"702\" \/><\/p>\n<p class=\"wp-caption-text\"> Qui potete vedere un&#39;immagine dal video che mostra una falsa Mette Frederiksen. L&#39;immagine \u00e8 generata dall&#39;intelligenza artificiale. (Foto: \u00a9 Screenshot da X)<\/p>\n<\/div>\n<p><span style=\"font-weight: 400;\">Un anno dopo, il Ministro della Cultura Jakob Engel-Schmidt present\u00f2 una<\/span> proposta <a href=\"https:\/\/www.theguardian.com\/technology\/2025\/jun\/27\/deepfakes-denmark-copyright-law-artificial-intelligence\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">radicale<\/span><\/a> <span style=\"font-weight: 400;\">secondo cui tutti i danesi avrebbero dovuto acquisire automaticamente il copyright sui propri contenuti. Questa proposta ricevette un ampio sostegno, con nove degli undici partiti parlamentari che accettarono di fornire il consenso necessario per consentire a ogni cittadino di richiedere la rimozione dei deepfake che li riguardavano da qualsiasi piattaforma, anche quando non fossero stati sfruttati commercialmente. Prevede inoltre un risarcimento, pur mantenendo un&#39;eccezione per parodia e satira.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">Al centro del dibattito, per quanto riguarda l&#39;etica della questione, c&#39;era la discussione su cosa sarebbe successo se la stessa tecnologia fosse stata utilizzata in un periodo di crisi, ad esempio se avesse mostrato il primo ministro dichiarare lo stato di emergenza o annunciare misure restrittive a causa di una crisi. La preoccupazione era che i deepfake non fossero solo video divertenti o pericolosi, ma strumenti in grado di minare la fiducia nelle stesse voci istituzionali. L&#39;innovazione introdotta da questo modello danese \u00e8 la proattivit\u00e0, ovvero non \u00e8 richiesta la prova del danno subito dalla vittima, modificando sostanzialmente i dati, ripristinando la pura sovranit\u00e0 dell&#39;apparenza e dell&#39;identit\u00e0 con un atto automatico e universale.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">La capacit\u00e0 dell&#39;intelligenza artificiale di creare contenuti realistici ha trasformato il concetto stesso di prova in un campo di battaglia in cui i deepfake possono essere utilizzati per aggirare i sistemi di riconoscimento facciale e vocale, fino al punto di ottenere l&#39;accesso illegale a dati sensibili. Il problema, ovviamente, non si ferma alla sicurezza informatica, con implicazioni sociali e psicologiche enormi. Il 95% dei deepfake \u00e8 pornografico e colpisce in modo sproporzionato donne e minori, mentre la capacit\u00e0 di liquidare materiale plausibile come falso, il cosiddetto dividendo del bugiardo, mina la fiducia nel dibattito pubblico. In ambito politico, un esempio degno di nota sono state le chiamate audio deepfake con la &quot;voce di Joe Biden&quot; che hanno impedito agli elettori di recarsi alle urne nel New Hampshire, dimostrando come tali strumenti possano destabilizzare persino le elezioni. La nuova realt\u00e0 non ha nulla a che fare con la privacy in s\u00e9, ma con la sua estensione in termini di sicurezza democratica.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">La Danimarca, con la sua proposta, sta cercando di colmare questa lacuna, con il paese che intende usare la sua prossima presidenza dell&#39;UE per portare avanti la questione a Bruxelles, con Engel-Schmidt che ha gi\u00e0 dichiarato la sua intenzione di sollevare la questione al tavolo europeo e spingere per un quadro comune che obblighi anche le grandi piattaforme a conformarsi, con la minaccia di pesanti multe in caso di inosservanza, rendendo la Danimarca il piccolo laboratorio per un intervento che potrebbe plasmare le regole europee per la protezione dell&#39;identit\u00e0 digitale nell&#39;era degli algoritmi genetici.<\/span><\/p>\n<\/p>\n<h3><strong>La prospettiva europea: Homo Digitalis<\/strong><\/h3>\n<p> <span style=\"font-weight: 400;\">La proposta danese \u00e8 stata considerata innovativa e ambiziosa, generando sia entusiasmo che scetticismo. Come ha spiegato Lefteris Helioudakis, avvocato specializzato in nuove tecnologie e direttore esecutivo di <a href=\"https:\/\/homodigitalis.gr\/en\/\" target=\"_blank\" rel=\"noopener\">Homo Digitalis<\/a> , &quot;a prima vista, la proposta sembra una soluzione discutibile. Il diritto d&#39;autore funziona come un contratto sociale: il creatore di un&#39;opera originale contribuisce alla societ\u00e0 e in cambio la societ\u00e0 concede al creatore diritti esclusivi. Estendere questa logica alle informazioni biometriche \u00e8 in contrasto con i principi fondamentali del diritto della propriet\u00e0 intellettuale&quot;. Di conseguenza, l&#39;ambiziosa nuova legge danese stabilisce un nuovo precedente basato sul concetto di identit\u00e0 piuttosto che di creazione, qualcosa senza precedenti.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">Homo Digitalis sottolinea inoltre che il quadro giuridico a livello europeo esisteva gi\u00e0 nella Direttiva 1385\/2024, che criminalizza l&#39;uso dei deepfake in contesti sensibili, fino al Digital Services Act (DSA), che prevede norme sui contenuti illegali e sulla responsabilit\u00e0 delle piattaforme. &quot;Tali norme di legalit\u00e0 sono in realt\u00e0 emanate dai parlamenti nazionali degli Stati membri dell&#39;UE. Pertanto, la Danimarca avrebbe potuto valutare altre disposizioni in materia di dati personali, disinformazione e diffamazione per contrastare tale uso dei deepfake, ma non l&#39;ha fatto&quot;. Andando oltre, criticando l&#39;&quot;innovazione&quot; dell&#39;azione danese, tali iniziative nazionali unilaterali possono attirare l&#39;attenzione dei media, ma non affrontano la radice del problema.<\/span><\/p>\n<blockquote>\n<h3><em><strong>&quot;A prima vista, la proposta sembra una soluzione discutibile. Il diritto d&#39;autore funziona come un contratto sociale: il creatore di un&#39;opera originale contribuisce alla societ\u00e0 e in cambio la societ\u00e0 concede al creatore diritti esclusivi. Estendere questa logica alle informazioni biometriche \u00e8 in contrasto con i principi fondamentali del diritto della propriet\u00e0 intellettuale.&quot;<\/strong><\/em><\/h3>\n<\/p>\n<\/blockquote>\n<p><span style=\"font-weight: 400;\">Allo stesso tempo, quando si parla di libert\u00e0 di espressione, Homo Digitalis \u00e8 categorico:<\/span> <span style=\"font-weight: 400;\">\u00abLe eccezioni per la parodia, la satira e la critica politica sono gi\u00e0 ben consolidate nel diritto d&#39;autore dell&#39;UE&#8230; Insieme, questi meccanismi forniscono sia le garanzie legali per la libert\u00e0 di espressione sia gli strumenti procedurali per contrastare i deepfake dannosi senza reinventare l&#39;equilibrio sottostante\u00bb.<\/span> <span style=\"font-weight: 400;\">In altre parole, il quadro per la protezione della satira e della critica politica esiste gi\u00e0 e non c&#39;\u00e8 bisogno di un nuovo equilibrio; ci\u00f2 che serve \u00e8 l&#39;applicazione delle regole esistenti e ben fondate.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">La loro osservazione sulla responsabilit\u00e0 delle piattaforme, con la DSA, riporta in primo piano gli obblighi delle grandi piattaforme di condurre valutazioni sistematiche del rischio, non solo per i contenuti illegali, ma anche per il materiale che &quot;potrebbe minare il dibattito pubblico&quot;. Ci\u00f2 significa che i deepfake sono gi\u00e0 previsti e quindi rientrano nelle misure di mitigazione obbligatorie, anche attraverso il meccanismo di risposta alle crisi previsto dalla legge. L&#39;intervento della Danimarca sembra pi\u00f9 un atto politico che una necessit\u00e0 legale, forse in linea con la pi\u00f9 ampia tendenza della sicurezza dell&#39;UE a estendersi allo spazio digitale.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">Infine, secondo Lefteris Helioudakis, Direttore Esecutivo di Homo Digitalis, il pericolo \u00e8 che la regolamentazione venga trattata come una panacea, quando la vera sfida \u00e8 sistemica. Come avverte Helioudakis, &quot;Troppo spesso, gli interessi commerciali plasmano l&#39;agenda, spingendo per una rapida adozione nonostante questioni etiche, legali e sociali irrisolte. Questa mancanza di preparazione e di analisi critica aumenta la probabilit\u00e0 che l&#39;IA comprometta i diritti individuali e i processi democratici&quot;. La battaglia non \u00e8 solo contro i deepfake; \u00e8 contro il modo in cui l&#39;intelligenza artificiale sta invadendo ogni ambito della nostra vita senza un adeguato dibattito pubblico. In breve, Homo Digitalis non respinge l&#39;iniziativa danese, ma la vede come un&#39;opportunit\u00e0 per qualcosa di pi\u00f9 ampio, affermando chiaramente che &quot;Ci\u00f2 che serve ora \u00e8 una riflessione critica sulle norme esistenti e una sperimentazione attiva dei rimedi che esse offrono. Ci\u00f2 richiede un pi\u00f9 ampio coinvolgimento dei cittadini&#8230; Abbiamo urgente bisogno di pi\u00f9 voci e di pi\u00f9 partecipazione per garantire una supervisione significativa e una resilienza democratica&quot;. La sfida, quindi, non \u00e8 solo quella di stabilire legalmente la nostra identit\u00e0, ma anche di proteggerla politicamente, attraverso l&#39;azione collettiva e il controllo democratico.<\/span><\/p>\n<h3><strong><em>&quot;<\/em> <em>Troppo spesso, gli interessi commerciali plasmano l&#39;agenda, spingendo per una rapida adozione nonostante le preoccupazioni etiche, legali e sociali irrisolte. Questa mancanza di preparazione e di analisi critica aumenta la probabilit\u00e0 che l&#39;IA comprometta i diritti individuali e i processi democratici<\/em> <em>&quot;<\/em> .<\/strong><\/h3>\n<h3>Filosofare Black Mirror<\/h3>\n<p> <span style=\"font-weight: 400;\">L&#39;idea del diritto d&#39;autore sul corpo \u00e8 essenzialmente un tentativo di inquadrare giuridicamente qualcosa che altrimenti sarebbe ovvio, ovvero che i nostri corpi ci appartengono \u2013 in generale \u2013 trasformando l&#39;iniziativa legislativa danese in qualcosa che fino ad ora davamo per scontato, ovvero che i nostri corpi ci appartengono. Tuttavia, l&#39;atto stesso di tutela legale rivela che questa verit\u00e0 evidente \u00e8 crollata, \u00e8 stata sconvolta, e che la tecnologia ci costringe a definire cosa significhi &quot;ego&quot; quando la nostra voce, la nostra immagine e persino i nostri pensieri possono essere copiati all&#39;infinito, nel tentativo di ristabilire la nostra propriet\u00e0 di noi stessi attraverso parametri terzi.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">Il problema, poich\u00e9 ci riguarda a livello materiale, non pu\u00f2 che essere ontologico. Il corpo \u00e8 il punto di riferimento dell&#39;identit\u00e0, un confine materiale che distingue il s\u00e9 dall&#39;altro. Quando questo corpo pu\u00f2 essere riprodotto perfettamente, il confine crolla, soprattutto quando il mio &quot;clone&quot; digitale non \u00e8 pi\u00f9 un estraneo, ma non \u00e8 nemmeno esattamente me. \u00c8 un ibrido che porta la mia voce e i miei movimenti, ma non obbedisce alla mia volont\u00e0. E qui sta la sfida, non in chi detiene i diritti di propriet\u00e0 intellettuale, ma in come manteniamo il concetto di soggettivit\u00e0, del s\u00e9, in un mondo in cui il s\u00e9 si \u00e8 moltiplicato. Il copyright sul corpo \u00e8 attualmente discusso in termini di mercato, in termini di registrazione, licenza e compensazione \u2013 con la logica, da un lato, che dovrebbe essere protettivo, ma dall&#39;altro, che trasforma l&#39;identit\u00e0 in capitale, e questo non \u00e8 un problema di soluzione, ma parte del problema che siamo chiamati a risolvere. Se il mio corpo \u00e8 un bene, posso affittarlo, venderlo, cederlo \u2013 o perderlo se non posso pagare per la sua protezione. La libert\u00e0 diventa un privilegio, e il problema non \u00e8 l&#39;emancipazione, ma una nuova forma di dipendenza, in cui la sovranit\u00e0 individuale che il copyright dovrebbe difendere diventa un prerequisito per la partecipazione alla societ\u00e0. Pertanto, la minaccia porta a un ulteriore problema, in cui il corpo si trasforma da luogo di esperienza in oggetto di gestione, con la societ\u00e0 che funziona non in termini di riconoscimento, ma in termini di conformit\u00e0. Una conformit\u00e0 che implica una sorta di licenza in cui, se non ci si &quot;protegge&quot;, si diventa invisibili o vulnerabili. Di conseguenza, l&#39;identit\u00e0 individuale non \u00e8 pi\u00f9 una relazione, ma un contratto.<\/span><\/p>\n<p> <span style=\"font-weight: 400;\">La vera risposta a tutto questo non pu\u00f2 essere semplicemente pi\u00f9 diritti; abbiamo bisogno di un concetto di &quot;propriet\u00e0&quot; che non definisca il corpo come una merce, ma come un&#39;estensione della dignit\u00e0 umana, un ritorno alle radici dei diritti umani. Una politica che non si limiti al risarcimento finanziario, ma garantisca che nessun uso dell&#39;immagine o del &quot;clone&quot; possa privare la persona dell&#39;autonomia. La sfida filosofica del diritto d&#39;autore sul corpo non \u00e8 trovare un prezzo equo per il nostro volto, o una giusta pena per il suo uso improprio, ma garantire che il nostro volto non diventi mai commerciabile. Solo in questo modo la tecnologia pu\u00f2 espandere, anzich\u00e9 annullare, la libert\u00e0 umana.<\/span><\/p>\n<p style=\"text-align: center;\"><iframe loading=\"lazy\" title=\"Lettore video di YouTube\" src=\"https:\/\/www.youtube.com\/embed\/pkF3m5wVUYI?si=f9VNQd080l2HjFHN\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La scintilla La Danimarca non giocher\u00e0 nella prossima stagione di Black Mirror Immagina di svegliarti una mattina e scoprire di aver tenuto una conferenza stampa, dicendo cose che non avresti mai immaginato, senza nemmeno ricordarti [&hellip;]<\/p>\n","protected":false},"author":355,"featured_media":46880,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[682,618,686],"tags":[8318,13366,13367,13368,13369,13370,13371,2430,9074,1415,13372,13373,13374,2438,13375],"post_formats":[626],"coauthors":[4037],"class_list":["post-58829","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-attualita","category-collegare-i-punti","category-tecnologia","tag-artificial-intelligence-it","tag-black-mirror-it","tag-body-copyright-it","tag-deepfakes-it","tag-democratic-resilience-it","tag-denmark-legislation-it","tag-digital-identity-it","tag-digital-services-act-it","tag-eu-regulation-it","tag-freedom-of-expression-it","tag-homo-digitalis-it","tag-human-dignity-it","tag-media-ethics-it","tag-platform-accountability-it","tag-surveillance-capitalism-it","post_formats-articoli"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts\/58829","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/users\/355"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/comments?post=58829"}],"version-history":[{"count":8,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts\/58829\/revisions"}],"predecessor-version":[{"id":64764,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts\/58829\/revisions\/64764"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/media\/46880"}],"wp:attachment":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/media?parent=58829"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/categories?post=58829"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/tags?post=58829"},{"taxonomy":"post_formats","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/post_formats?post=58829"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/coauthors?post=58829"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}