UE jest bardziej zainteresowana kontrolowaniem sposobu, w jaki sztuczna inteligencja wpisuje się w społeczeństwo niż budowaniem najsilniejszej sztucznej inteligencji.
27 stycznia 2026 roku Komisja Europejska wszczęła formalne postępowanie na mocy ustawy o rynkach cyfrowych (DMA), zobowiązując Google do udostępnienia swojego systemu operacyjnego Android i niektórych kluczowych danych konkurencyjnym programistom AI i wyszukiwarkom działającym w Europie, aby zapewnić uczciwą konkurencję. Komisja Europejska dała Google sześć miesięcy na usunięcie barier technicznych, które uniemożliwiają konkurencyjnym asystentom AI uczciwe działanie na urządzeniach z Androidem. Jednocześnie Google musi również przyznać innym dostawcom wyszukiwarek dostęp do podstawowych danych wyszukiwania. (1 )
Ta interwencja nie koncentruje się przede wszystkim na wydajności technologicznej, lecz na koncentracji władzy. Unia Europejska (UE) dąży do podjęcia jednego z głównych wyzwań stojących dziś przed sztuczną inteligencją: integracji AI ze społeczeństwem bez podważania wartości demokratycznych.
Sztuczna inteligencja w wyobraźni zbiorowej: długa historia kontroli człowieka
Patrząc na historię rozwoju sztucznej inteligencji w zbiorowej wyobraźni, musimy cofnąć się na długo przed naszą erą. Idea sztucznej inteligencji pojawia się już w XVIII wieku, w Imperium Osmańskim, wraz z „Mechanicznym Turkiem”: maszyną przedstawianą jako człowiek zdolny do gry w szachy na wyjątkowym poziomie i pokonania wszystkich przeciwników. To dowodzi, że wizja maszyny zdolnej przewyższyć inteligencję człowieka istniała w zbiorowej wyobraźni od bardzo dawna. W końcu ujawniono, że za maszyną ukrywał się człowiek-operator.
Jednak ten przykład pozostaje niezwykle aktualny, ponieważ ilustruje fundamentalną rzeczywistość, która wciąż ma zastosowanie do współczesnej sztucznej inteligencji. Za każdą inteligentną maszyną stoją ludzie, którzy ją projektują, obsługują i utrzymują. Bez ogromnych ilości danych dostarczanych przez ludzi, systemy sztucznej inteligencji nie mogą funkcjonować, uczyć się ani ewoluować. W konsekwencji, sztuczna inteligencja nie może sama stać się prawdziwym zagrożeniem koncepcyjnym ani egzystencjalnym; pozostaje głęboko zależna od ludzkiej interwencji, intencji i kontroli.
Z tego powodu regulacja rynków sztucznej inteligencji jest niezbędna. Bez skutecznych ram regulacyjnych sektor sztucznej inteligencji ryzykuje ewolucję w kierunku monopolizacji, gdzie niewielka liczba dominujących podmiotów kontroluje infrastrukturę technologiczną i dostęp do danych. W takim scenariuszu dane, jako centralny zasób sztucznej inteligencji, byłyby skoncentrowane w rękach kilku podmiotów prywatnych.
Sztuczna inteligencja początkowo była zagadnieniem filozoficznym i teoretycznym, dopiero później stała się zagadnieniem technicznym.
Podejście regulacyjne Unii Europejskiej implicite zakłada, że prawdziwe zagrożenie ze strony sztucznej inteligencji nie tkwi w jej wydajności technicznej, lecz w mocy, jaką może ona uzyskać w systemach ludzkich. To założenie bezpośrednio nawiązuje do fundamentalnego pytania filozoficznego, które pojawiło się w połowie XX wieku: czy maszyny potrafią myśleć, a jeśli tak, to pod jakimi warunkami należy im przyznać uprawnienia decyzyjne?
Badając prawdziwe pochodzenie maszyn myślących, dochodzimy do europejskiego kontekstu intelektualnego. W latach 50. XX wieku Alan Turing jako pierwszy w swoim artykule „ Maszyny liczące i inteligencja ” postawił pytanie: „Czy maszyny potrafią myśleć?” . Znaczenie tego pytania tkwi w kwestiach władzy i dominacji: tylko wtedy, gdy maszyny posiadają rzeczywistą zdolność podejmowania decyzji, mogą stać się zagrożeniem koncepcyjnym. W przeciwnym razie sztuczne inteligencje pozostają jedynie imitacjami ludzkiego sposobu myślenia.
Biorąc pod uwagę kontekst historyczny, w którym pojawiła się sztuczna inteligencja, staje się jasne, że jej rozwój był ściśle związany z potrzebami wojskowymi. Od lat 50. XX wieku armia Stanów Zjednoczonych finansowała badania nad automatycznym tłumaczeniem, szczególnie w celu tłumaczenia i dekodowania tekstów radzieckich w okresie zimnej wojny. Celem było zwiększenie potęgi militarnej poprzez kontrolowanie procesów informacyjnych i decyzyjnych państw przeciwnika, a nie wyłącznie koncentrowanie się na wydajności technicznej. W ten sposób sztuczna inteligencja zawsze była kojarzona z inwigilacją, strategiczną dominacją i wykorzystaniem zarządzania wiedzą jako narzędzia władzy.
Podczas gdy Stany Zjednoczone nadal umacniają swoją dominację w dziedzinie sztucznej inteligencji, kontrolując infrastrukturę i platformy globalne, Unia Europejska obrała zupełnie inną ścieżkę. Zamiast konkurować o dominację technologiczną, UE pozycjonuje się jako siła normatywna, koncentrując się na osadzaniu sztucznej inteligencji w ramach wartości demokratycznych, praw człowieka i uczciwości rynkowej. Ustawa o sztucznej inteligencji (AI), przyjęta w czerwcu 2024 r ., stanowi doskonały przykład pierwszych na świecie kompleksowych ram regulacyjnych dla AI. Gwarantuje ona bezpieczeństwo, przejrzystość i zgodność AI z prawami podstawowymi. To podejście legislacyjne dzieli systemy AI na kategorie ryzyka – od minimalnego do niedopuszczalnego – i odpowiednio ustala obowiązki.
Jednak to zaangażowanie w etyczne zarządzanie ujawnia również strategiczny dylemat Europy. Koncentrując się na regulacjach, a nie na władzy, UE przyznaje się do technologicznego zacofania w porównaniu ze Stanami Zjednoczonymi i Chinami. Chociaż istnieją przepisy dotyczące piaskownic innowacji i wsparcia dla startupów, zależność Europy od amerykańskich dostawców chmury obliczeniowej i infrastruktury AI utrudnia prawdziwą suwerenność cyfrową.
