Berlin stawia opór – Google mówi „nie”

W czerwcu berliński urząd ochrony danych zażądał od Google i Apple usunięcia aplikacji DeepSeek ze swoich sklepów z aplikacjami. Regulator argumentował, że aplikacja, opracowana przez chińską firmę, nie spełnia unijnych wymogów dotyczących prywatności.

Jednak w sierpniu aplikacja była nadal dostępna. Google jasno oświadczyło: „Nie zamierzamy usuwać aplikacji”. Apple natomiast, według berlińskiego organu nadzoru, zachowało milczenie. Ten brak reakcji podsyca wątpliwości co do skuteczności egzekwowania europejskich przepisów wobec globalnych graczy.

Rama prawna i jej słabe punkty

Regulator oparł swoje działania na ustawie o usługach cyfrowych (DSA), która pozwala osobom fizycznym i organizacjom zgłaszać nielegalne treści lub aplikacje. Jest jednak pewien haczyk: platformy decydują, czy podjąć działania w odpowiedzi na te skargi. Regulatorzy mogą jedynie zalecić usunięcie treści – przynajmniej do czasu rozpoczęcia formalnego postępowania z karami.

Kolejnym problemem są europejskie przepisy RODO. UE nie uznaje chińskich przepisów dotyczących prywatności za równoważne z własnymi. Oznacza to, że dane użytkowników DeepSeek z UE mogłyby teoretycznie zostać udostępnione władzom w Pekinie – bez zabezpieczeń, jakich oczekują obywatele UE. Czy zatem utrzymywanie aplikacji w europejskich sklepach podważa nie tylko literę, ale i ducha prawa UE?

DeepSeek – przełomowa technologia z czerwonymi flagami

Premiera DeepSeek na początku tego roku wywołała poruszenie w świecie sztucznej inteligencji. Firmie udało się zbudować potężny model sztucznej inteligencji, wykorzystując stosunkowo skromne zasoby – podważając tym samym założenia dotyczące kosztów szkolenia sztucznej inteligencji na dużą skalę.

Ale entuzjazm szybko przerodził się w sceptycyzm. Skąd pochodziły dane treningowe? Czy metody były etyczne? A co ważniejsze – biorąc pod uwagę, że DeepSeek ma siedzibę w Chinach, gdzie firmy technologiczne są ściśle powiązane z państwem – czy obietnica „ochrony prywatności” może być prawdziwa, jeśli agencje rządowe zażądają dostępu do danych użytkowników?

Kwestia suwerenności cyfrowej

W maju berliński urząd ochrony danych osobowych próbował nawet nakłonić DeepSeek do wycofania się z rynku niemieckiego. Firma odmówiła. Pozostawiło to regulatorom tylko jedno wyjście: wywarcie presji na Google i Apple, aby pełniły rolę strażników.

To uwypukla poważniejszy problem: suwerenność cyfrową. Jeśli globalne platformy mogą po prostu ignorować unijne organy regulacyjne, jak skuteczne są w praktyce DSA i RODO? A jeśli aplikacje takie jak DeepSeek pozostaną dostępne pomimo oficjalnych skarg, czy obywatele naprawdę mogą ufać, że ich prywatność jest chroniona poza formalnościami?

Wymiar geopolityczny

To nie tylko spór prawny czy techniczny – to także geopolityczny. Wraz z rosnącymi napięciami między UE a Chinami w sektorze technologicznym, każda chińska aplikacja AI jest poddawana wnikliwej analizie.

Chińskie prawo zobowiązuje firmy technologiczne do współpracy z państwowymi agencjami bezpieczeństwa. Jest to sprzeczne z unijną wizją prywatności i ochrony danych. Dla wielu osób zezwolenie na dostęp aplikacji takich jak DeepSeek do europejskich sklepów z aplikacjami wygląda mniej jak nieszkodliwa konkurencja, a bardziej jak potencjalne zagrożenie dla bezpieczeństwa narodowego.

Czy platformy są prawdziwymi decydentami?

Saga DeepSeek pokazuje, że w praktyce to platformy – a nie organy regulacyjne – mają ostateczny głos w kwestii tego, które aplikacje pozostaną dostępne. DSA określa procedury raportowania i weryfikacji, ale ostatecznie to Google i Apple decydują, czy aplikacja pozostanie, czy zniknie, przynajmniej na wczesnym etapie.

To rodzi głębsze pytanie: czy prywatne firmy naprawdę powinny decydować, co jest legalne? Ignorowanie zaleceń regulacyjnych nie tylko osłabia egzekwowanie przepisów, ale także podważa zaufanie obywateli do europejskiego nadzoru cyfrowego.

Co to oznacza dla regulacji dotyczących sztucznej inteligencji w Europie

DeepSeek to coś więcej niż kontrowersyjna aplikacja – to test przyszłości regulacji dotyczących sztucznej inteligencji. Wraz ze wzrostem wydajności modeli sztucznej inteligencji i ich zdolności do przetwarzania wrażliwych danych, standardy ochrony prywatności w kontekście transgranicznym będą stawiać czoła coraz większym wyzwaniom.

Ta sprawa jasno pokazuje: nawet Unia Europejska, w której obowiązują jedne z najsurowszych przepisów o ochronie danych na świecie, ma trudności z ich egzekwowaniem, gdy w sprawę zaangażowani są globalni giganci technologiczni i rządy innych państw.

Kształt rozmowy

Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.