Berlin riposte – Google dit « non »

En juin, l'autorité de protection des données de Berlin a exigé que Google et Apple retirent DeepSeek de leurs boutiques d'applications. Le régulateur arguait que l'application, développée par une entreprise chinoise, ne respectait pas les exigences de confidentialité de l'UE.

Pourtant, en août, l'application était toujours disponible. Google a clairement indiqué : « Nous n'avons pas l'intention de la supprimer. » Apple, quant à lui, est resté silencieux, selon l'autorité de surveillance berlinoise. Cette absence de réaction alimente les doutes quant à l'efficacité de l'application des règles européennes aux acteurs mondiaux.

Le cadre juridique – et ses points faibles

Le régulateur a fondé sa décision sur la loi sur les services numériques (DSA), qui permet aux particuliers et aux organisations de signaler des contenus ou applications illicites. Mais le problème est que les plateformes décident elles-mêmes de donner suite à ces plaintes. Les régulateurs ne peuvent que recommander la suppression, du moins jusqu'à l'ouverture d'une procédure formelle assortie de sanctions.

Un autre problème réside dans les règles européennes du RGPD. L'UE ne reconnaît pas la réglementation chinoise en matière de protection de la vie privée comme équivalente à la sienne. Cela signifie que les données des utilisateurs européens de DeepSeek pourraient, en théorie, être consultées par les autorités de Pékin, sans les garanties auxquelles les citoyens européens s'attendent. Dès lors, le maintien de l'application dans les boutiques européennes porte-t-il atteinte non seulement à la lettre, mais aussi à l'esprit du droit européen ?

DeepSeek – une technologie disruptive avec des signaux d’alarme

Son lancement en début d'année a suscité un vif intérêt dans le monde de l'IA. L'entreprise a réussi à construire un modèle d'IA puissant avec des ressources relativement modestes, remettant en question les hypothèses sur le coût de l'entraînement d'une IA à grande échelle.

Mais l'enthousiasme a vite cédé la place au scepticisme. D'où provenaient les données d'entraînement ? Les méthodes étaient-elles éthiques ? Et surtout, sachant que DeepSeek est basé en Chine, où les entreprises technologiques sont étroitement liées à l'État, la promesse de « protection de la vie privée » peut-elle réellement tenir si les agences gouvernementales exigent l'accès aux données des utilisateurs ?

Une question de souveraineté numérique

En mai dernier, l'autorité berlinoise de protection des données a même tenté d'obtenir le retrait de DeepSeek du marché allemand. L'entreprise a refusé. Les régulateurs n'avaient donc qu'une seule option : faire pression sur Google et Apple pour qu'ils agissent comme gardiens.

Cela met en lumière un problème plus vaste : la souveraineté numérique. Si les plateformes mondiales peuvent tout simplement ignorer les régulateurs européens, quelle est l'efficacité concrète de la DSA et du RGPD ? Et si des applications comme DeepSeek restent disponibles malgré les plaintes officielles, les citoyens peuvent-ils réellement être certains que leur vie privée est protégée au-delà des formalités administratives ?

La dimension géopolitique

Il ne s'agit pas seulement d'un différend juridique ou technique : il est aussi géopolitique. Avec la montée des tensions entre l'UE et la Chine dans le secteur technologique, chaque application d'IA chinoise est scrutée de près.

La loi chinoise oblige les entreprises technologiques à coopérer avec les agences de sécurité de l'État. Cela est en contradiction directe avec la vision de l'UE en matière de protection de la vie privée et des données. Pour beaucoup, autoriser des applications comme DeepSeek dans les boutiques d'applications européennes relève moins d'une concurrence anodine que d'un risque potentiel pour la sécurité nationale.

Les plateformes, véritables décideurs ?

L'affaire DeepSeek montre qu'en pratique, ce sont les plateformes, et non les régulateurs, qui ont le dernier mot sur les applications qui restent accessibles. La DSA décrit les procédures de signalement et d'examen, mais c'est finalement Google et Apple qui décident du maintien ou de la suppression d'une application, du moins dans les premières phases.

Cela soulève une question plus profonde : les entreprises privées devraient-elles réellement décider de ce qui est légal ? Ignorer les recommandations réglementaires non seulement affaiblit l’application de la loi, mais sape également la confiance des citoyens dans la surveillance numérique européenne.

Ce que cela signifie pour la réglementation de l'IA en Europe

DeepSeek est plus qu'une application controversée : c'est un test pour l'avenir de la réglementation de l'IA. À mesure que les modèles d'IA gagnent en puissance et en capacité de traiter des données sensibles, les normes de confidentialité transfrontalières seront confrontées à des défis plus importants.

Et cette affaire montre clairement une chose : même l’UE, qui dispose de règles de protection des données parmi les plus strictes au monde, peine à les appliquer lorsque des géants mondiaux de la technologie et des gouvernements étrangers sont impliqués.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.