L'étincelle

Le Danemark ne participera pas à la prochaine saison de Black Mirror

Imaginez-vous vous réveiller un matin et découvrir que vous avez donné une conférence de presse, en disant des choses que vous n'auriez jamais imaginées, sans même vous en souvenir. Dans l'univers de Black Mirror , nous sommes mardi. Votre image, votre voix, même vos expressions ne vous appartiennent plus ; elles sont devenues la propriété intellectuelle d'autrui, un matériau à reproduire, à divertir, voire à torturer. Car dans cet univers, la question n'est pas de savoir si la technologie vous trahira, mais quand. De « USS Callister », où les personnages sont piégés dans des clones numériques sans leur consentement, à « Joan Is Awful », où la vie d'une femme devient la propriété d'une plateforme de streaming, la série joue sans cesse avec la même idée : votre image, votre voix, voire votre personnalité peuvent devenir un produit sans que vous ayez votre mot à dire.

Dans un monde pas si lointain, en avril 2024, la Première ministre danoise Mette Frederiksen a aboli Pâques, Noël et plusieurs autres fêtes, selon le président du Parti populaire danois, Morten Messerschmidt, qui a publié une vidéo de la Première ministre faisant cette annonce. De toute évidence, la vidéo était un deepfake, et elle a été étiquetée comme telle, mais elle est devenue virale et a immédiatement déclenché une tempête politique. Presque tous les partis ont condamné cet acte et ont appelé le gouvernement à légiférer.

Vous pouvez voir ici une image de la vidéo montrant une fausse Mette Frederiksen. L'image est générée par l'IA. (Photo : © Capture d'écran de X)

Un an plus tard, le ministre de la Culture, Jakob Engel-Schmidt, a présenté une proposition radicale prévoyant que tous les Danois acquièrent automatiquement les droits d'auteur sur leurs propres œuvres. Cette proposition a reçu un large soutien, neuf des onze partis représentés au Parlement s'engageant à dégager le consensus nécessaire pour permettre à chaque citoyen d'exiger la suppression des deepfakes les concernant sur toute plateforme, même lorsqu'ils n'ont pas fait l'objet d'une exploitation commerciale. Elle prévoit également une compensation, tout en préservant une exception pour la parodie et la satire.

Au cœur du débat, concernant l'éthique, se trouvait la question de savoir ce qui se passerait si la même technologie était utilisée en période de crise, par exemple si elle montrait le Premier ministre déclarant l'état d'urgence ou annonçant des mesures restrictives en raison d'une crise. La crainte était que les deepfakes ne soient pas seulement des vidéos drôles ou dangereuses, mais des outils capables de saper la confiance dans les institutions elles-mêmes. L'innovation introduite par ce modèle danois réside dans la proactivité : la preuve du préjudice causé à la victime n'est pas requise, ce qui modifie essentiellement les données et restaure la souveraineté pure de l'apparence et de l'identité par un acte automatique et universel.

La capacité de l'intelligence artificielle à créer des contenus réalistes a transformé le concept même de preuve en un champ de bataille où les deepfakes peuvent être utilisés pour contourner les systèmes de reconnaissance faciale et vocale, jusqu'à accéder illégalement à des données sensibles. Le problème, bien sûr, ne se limite pas à la cybersécurité : les implications sociales et psychologiques sont considérables. 95 % des deepfakes sont pornographiques, touchant de manière disproportionnée les femmes et les mineurs. Quant à la capacité à rejeter des contenus plausibles comme faux, ce que l'on appelle le « dividende du menteur », elle sape la confiance dans le discours public. Sur la scène politique, un exemple notable est celui des appels audio deepfakes avec la « voix de Joe Biden » qui ont empêché des électeurs de se rendre aux urnes dans le New Hampshire, illustrant comment de tels outils peuvent déstabiliser même les élections. Cette nouvelle réalité n'a rien à voir avec la vie privée en soi, mais avec son extension en tant que question de sécurité démocratique.

Le Danemark, avec sa proposition, tente de combler cette lacune, le pays ayant l'intention d'utiliser sa prochaine présidence de l'UE pour faire avancer la question à Bruxelles, Engel-Schmidt ayant déjà déclaré son intention de soulever la question à la table européenne et de faire pression pour un cadre commun qui obligera même les grandes plateformes à se conformer, sous la menace de lourdes amendes en cas de non-respect, faisant du Danemark le petit laboratoire d'une intervention qui pourrait façonner les règles européennes pour la protection de l'identité numérique à l'ère des algorithmes génétiques.

La perspective européenne : Homo Digitalis

La proposition danoise a été perçue comme innovante et ambitieuse, suscitant à la fois enthousiasme et scepticisme. Comme l'explique Lefteris Helioudakis, avocat spécialisé dans les nouvelles technologies et directeur exécutif d' Homo Digitalis , « à première vue, la proposition apparaît comme une solution de contournement discutable. Le droit d'auteur fonctionne comme un contrat social : le créateur d'une œuvre originale apporte une contribution à la société, et en retour, la société lui accorde des droits exclusifs. Étendre cette logique aux informations biométriques est contraire aux principes fondamentaux du droit de la propriété intellectuelle. » Par conséquent, la nouvelle loi ambitieuse du Danemark établit un précédent fondé sur le concept d'identité plutôt que de création, un concept sans précédent.

Homo Digitalis souligne également que le cadre juridique européen existait déjà, depuis la directive 1385/2024, qui criminalise l'utilisation de deepfakes dans des contextes sensibles, jusqu'à la loi sur les services numériques (DSA), qui prévoit des règles sur les contenus illicites et la responsabilité des plateformes. « Ces règles de légalité sont en réalité édictées par les parlements nationaux des États membres de l'UE. Ainsi, le Danemark aurait pu envisager d'autres dispositions concernant les données personnelles, la désinformation et la diffamation pour lutter contre ce type d'utilisation de deepfakes, mais il ne l'a pas fait. » Pour aller plus loin, et critiquer l'« innovation » de l'action danoise, de telles initiatives nationales unilatérales peuvent attirer l'attention des médias, mais elles ne s'attaquent pas à la racine du problème.

À première vue, la proposition semble constituer une solution de contournement discutable. Le droit d'auteur fonctionne comme un contrat social : le créateur d'une œuvre originale apporte une contribution à la société, et en retour, la société lui accorde des droits exclusifs. Étendre cette logique aux informations biométriques est contraire aux principes fondamentaux du droit de la propriété intellectuelle.

Parallèlement, en matière de liberté d'expression, Homo Digitalis est catégorique : « Les exceptions pour la parodie, la satire et la critique politique sont déjà bien établies dans le droit d'auteur de l'UE… Ensemble, ces mécanismes fournissent à la fois les garanties juridiques pour la liberté d'expression et les outils procéduraux pour lutter contre les deepfakes préjudiciables sans réinventer l'équilibre sous-jacent. » En d'autres termes, le cadre de protection de la satire et de la critique politique existe déjà, et il n'est pas nécessaire de trouver un nouvel équilibre ; il suffit d'appliquer les règles existantes, bien fondées.

Leur observation sur la responsabilité des plateformes, avec la DSA, remet au premier plan l'obligation des grandes plateformes de procéder à des évaluations systématiques des risques, non seulement pour les contenus illicites, mais aussi pour ceux qui « peuvent nuire au débat public ». Cela signifie qu'il existe déjà des dispositions concernant les deepfakes, qui relèvent donc de mesures d'atténuation obligatoires, même via le mécanisme de réponse aux crises prévu par la loi. L'intervention du Danemark apparaît davantage comme un acte politique que comme une nécessité juridique, ce qui s'inscrit peut-être dans la tendance générale de l'UE en matière de sécurité, qui s'étend à l'espace numérique.

Enfin, selon Lefteris Helioudakis, directeur exécutif d'Homo Digitalis, le danger est que la réglementation soit considérée comme une panacée, alors que le véritable défi est systémique. Comme l'avertit M. Helioudakis, « Trop souvent, les intérêts commerciaux dictent l'ordre du jour, poussant à une adoption rapide malgré des préoccupations éthiques, juridiques et sociétales non résolues. Ce manque de préparation et d'examen critique accroît le risque que l'IA porte atteinte aux droits individuels et aux processus démocratiques. » Le combat ne se limite pas aux deepfakes ; il s'agit de la façon dont l'intelligence artificielle envahit tous les domaines de notre vie sans débat public suffisant. En bref, Homo Digitalis ne rejette pas l'initiative danoise, mais y voit une opportunité d'aller plus loin, affirmant clairement : « Ce qu'il faut maintenant, c'est une réflexion critique sur les règles existantes et une expérimentation active des solutions qu'elles offrent. Cela nécessite un engagement citoyen plus large… Nous avons un besoin urgent de davantage de voix et de participation pour garantir une surveillance significative et une résilience démocratique. » Le défi n’est donc pas seulement d’établir légalement notre identité, mais de la protéger politiquement, par l’action collective et le contrôle démocratique.

Trop souvent, les intérêts commerciaux influencent l'agenda, poussant à une adoption rapide malgré des préoccupations éthiques, juridiques et sociétales non résolues. Ce manque de préparation et d'examen critique accroît le risque que l'IA porte atteinte aux droits individuels et aux processus démocratiques .

Philosopher le miroir noir

L'idée du droit d'auteur sur le corps est essentiellement une tentative d'encadrer juridiquement une évidence, à savoir que notre corps nous appartient – ​​en général – transformant l'initiative législative danoise en une évidence jusqu'alors tenue pour acquise. Cependant, l'acte même de protection juridique révèle que cette évidence s'est effondrée, a été bouleversée, et que la technologie nous oblige à définir ce que signifie « ego » lorsque notre voix, notre image et même nos pensées peuvent être copiées indéfiniment, dans une tentative de nous réapproprier notre propre identité grâce à des paramètres tiers.

Le problème, puisqu'il nous concerne au niveau matériel, ne peut qu'être ontologique. Le corps est le point de référence de l'identité, une frontière matérielle qui distingue le soi de l'autre. Lorsque ce corps peut être reproduit à l'identique, cette frontière s'effondre, surtout lorsque mon « clone » numérique n'est plus un étranger, mais n'est plus moi non plus. C'est un hybride qui porte ma voix et mes mouvements, mais n'obéit pas à ma volonté. Et c'est là que réside le défi, non pas de savoir à qui appartiennent les droits de propriété intellectuelle, mais de savoir comment préserver le concept de subjectivité, le soi, dans un monde où le soi s'est multiplié. Le droit d'auteur sur le corps est actuellement débattu en termes de marché, d'enregistrement, de licence et de rémunération – la logique étant, d'une part, qu'il devrait être protecteur, mais, d'autre part, qu'il transforme l'identité en capital. Il ne s'agit pas d'un problème de solution, mais d'une partie du problème que nous sommes appelés à résoudre. Si mon corps est un bien, je peux le louer, le vendre, le céder – ou le perdre si je ne peux pas payer pour sa protection. La liberté devient un privilège, le problème n'étant pas l'autonomisation, mais une nouvelle forme de dépendance, où la souveraineté individuelle, que le droit d'auteur est censé défendre, devient une condition préalable à la participation à la société. Ainsi, cette menace engendre un problème supplémentaire : le corps, lieu d'expérience, devient objet de gestion, la société fonctionnant non pas en termes de reconnaissance, mais de conformité. Une conformité qui implique une sorte de licence où, si l'on ne se « protège », on devient invisible ou vulnérable. Par conséquent, l'identité individuelle n'est plus une relation, mais un contrat.

La véritable réponse à ce problème ne peut se résumer à davantage de droits ; nous avons besoin d'un concept de « propriété » qui ne définisse pas le corps comme une marchandise, mais comme une extension de la dignité humaine, un retour aux sources des droits humains. Une politique qui ne se limite pas à une compensation financière, mais qui garantisse qu'aucune utilisation de l'image ou du « clone » ne puisse priver la personne de son autonomie. L'enjeu philosophique du droit d'auteur sur le corps n'est pas de trouver un juste prix pour notre visage, ni une juste sanction en cas d'utilisation abusive, mais de garantir que notre visage ne devienne jamais commercialisable. Ce n'est qu'ainsi que la technologie pourra étendre, plutôt qu'annihiler, la liberté humaine.

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.