„Minister” AI Albanii i pokusa algokracji

Albania, jako pierwsza na świecie, mianowała system sztucznej inteligencji „ministrem” na szczeblu gabinetu, nadzorującym wszystkie zamówienia publiczne. Ten wirtualny urzędnik, o imieniu Diella, ma decydować, którzy prywatni dostawcy zdobędą kontrakty publiczne, co wiąże się z obowiązkiem dostarczenia towarów i usług o wartości ponad 1 miliarda dolarów rocznie.

Premier Edi Rama przedstawił Diellę we wrześniu 2025 roku, reklamując ją jako „pierwszą członkinię gabinetu, która nie jest fizycznie obecna, ale została wirtualnie stworzona przez sztuczną inteligencję” i obiecał, że pomoże ona uczynić Albanię „krajem, w którym przetargi publiczne są w 100% wolne od korupcji”. Nadzieja jest taka, że ​​nieskorumpowany algorytm odniesie sukces tam, gdzie często zawodzili urzędnicy, eliminując korupcję i faworyzowanie, które od dawna nękają albańskie przetargi publiczne.

Ten śmiały krok w kierunku tego, co niektórzy nazywają „algokracją” – rządzenia za pomocą algorytmów – przykuł uwagę całego świata. Skoro instytucje demokratyczne nie potrafią zapewnić uczciwego i skutecznego rządzenia, czy system sztucznej inteligencji nie poradziłby sobie lepiej? To atrakcyjna propozycja dla kraju nękanego korupcją. Albańskie media chwaliły nominację Dielli jako „istotną transformację… wprowadzającą technologię nie tylko jako narzędzie, ale także jako aktywnego uczestnika rządzenia”.

To ogromna sprawa i może stanowić precedens, powiedziała Bojana Zorić, analityczka polityczna z Instytutu Studiów nad Bezpieczeństwem Unii Europejskiej. Jednak nie wszyscy są przekonani do tego techno-utopijnego rozwiązania.

W mediach społecznościowych nie brakuje sceptyków; jeden z komentujących obywateli Albanii zażartował: „W Albanii nawet Diella będzie skorumpowana”, wyrażając wątpliwość, czy algorytm będzie odporny na zakorzenioną w kraju kulturę korupcji. Świat uważnie obserwuje, czy Diella rzeczywiście wykorzeni korupcję, czy po prostu doda nowy poziom nieprzejrzystości decyzjom rządowym.

Kryzys demokracji i pokusa sztucznej inteligencji

Eksperyment w Albanii ma miejsce w okresie powszechnego rozczarowania demokratycznymi rządami w wielu krajach. W 12 demokracjach o wysokich dochodach większość obywateli (mediana 64%) deklaruje niezadowolenie ze sposobu funkcjonowania demokracji, zgodnie z badaniem przeprowadzonym przez Pew Research Organization w czerwcu 2025 roku.

Od Europy po Azję i Amerykę, regularnie wybuchają protesty przeciwko rządom postrzeganym jako odległe, nieskuteczne lub skorumpowane. Złamane zaufanie do instytucji widać w „płonących bramkach, rozbitych witrynach sklepowych i ulicach zduszonych gazem łzawiącym”, gdy ludzie dają upust swojej frustracji wobec przywódców, którzy wydają się oderwani od rzeczywistości. W tym klimacie demokratycznego marazmu pomysł powierzenia pewnych decyzji bezstronnym algorytmom zaczyna brzmieć kusząco.

Jednocześnie technologia sztucznej inteligencji (AI) szybko staje się coraz potężniejsza i bardziej powszechna. Zaawansowane modele mogą teraz przewyższać ludzi w specjalistycznych zadaniach, takich jak analiza obrazów medycznych czy rozwiązywanie złożonych problemów. Społeczeństwo coraz lepiej poznaje AI dzięki narzędziom takim jak chatboty i, co ciekawe, wiele osób jest skłonnych zaufać AI bardziej niż politykom.

W globalnych badaniach przeprowadzonych w 2025 roku przez Global Collective Intelligence Project (CIP), respondenci konsekwentnie twierdzili, że chatbot oparty na sztucznej inteligencji mógłby podejmować w ich imieniu lepsze decyzje niż ich wybrani przedstawiciele. Innymi słowy, w obliczu trudności instytucji demokratycznych, zaufanie do sztucznej inteligencji przesuwa się w stronę tej instytucji.

Ten schemat nie jest nowy w historii – gdy demokracja zawodzi, społeczeństwa często zwracają się ku silnym przywódcom lub autorytarnym alternatywom. Teraz ten odwieczny odruch wskazuje na algorytmy: nadzieję, że kompetentne, oparte na danych sztuczne inteligencje odniosą sukces tam, gdzie chaotyczna polityka ludzka nie przyniosła rezultatu.

Łatwo dostrzec pokusę. Algorytmy wydają się neutralne i skuteczne. Nie przyjmują łapówek, nie oferują przysług ani nie wikłają się w partyjne spory. W obliczu rządu, który nie potrafi rozwiązać chronicznych problemów, wielu obywateli uważa obietnicę „rozwiązania problemu przez sztuczną inteligencję” za kuszącą.

Dlaczego nie pozwolić hiperracjonalnej maszynie podejmować decyzji zamiast kłócących się polityków? Albańska Diella to dramatyczny test tej tezy, a inne kraje o słabych instytucjach prawdopodobnie obserwują sytuację, być może gotowe pójść w jej ślady, jeśli okaże się sukcesem.

Dlaczego algorytmy nie mogą zastąpić wartości demokratycznych

Pomimo swojej atrakcyjności, samo zastąpienie demokratycznego namysłu algorytmicznym podejmowaniem decyzji to niebezpieczny kompromis. Rządy demokratyczne to nie tylko kwestia efektywności, ale także godzenia sprzecznych wartości i interesów społecznych. Algorytmy doskonale optymalizują, ale nie potrafią rozstrzygać fundamentalnych kwestii moralnych i politycznych.

Na przykład, alokacja budżetu państwa wymaga osądów wartościujących, jak rozłożyć edukację, opiekę zdrowotną czy obronność. Algorytm może przeliczać liczby, aby zmaksymalizować wydajność, ale nie jest w stanie powiedzieć nam, czyje priorytety powinny być najważniejsze ani co oznacza sprawiedliwość budżetowa.

„Algorytmy mogą optymalizować wydajność, ale nie potrafią podejmować decyzji między konkurującymi wartościami, które są wyborami leżącymi u podstaw demokratycznej polityki” – ostrzegał niedawno lider technologiczny Eric Schmidt.

Kolejnym problemem jest brak przejrzystości i rozliczalności. Skoro sztuczna inteligencja taka jak Diella decyduje o wszystkich zamówieniach, na jakiej podstawie wybiera zwycięzców? Bez jasnych zasad publicznych i możliwości audytu lub kwestionowania decyzji sztucznej inteligencji, obywatele pozostają w niewiedzy.

Kiedy ludzie nie rozumieją, jak podejmowane są decyzje, które ich dotyczą, czują się pozbawieni praw i bezsilni. Rezultatem może być alienacja i gniew – te same problemy, które stwarzają skorumpowane lub niewrażliwe instytucje demokratyczne, ale z jeszcze mniejszą odpowiedzialnością.

W demokracji złą decyzję można zaskarżyć lub odwołać przywódcę w głosowaniu. Ale kogo obwinić, gdy algorytm podejmie błędną decyzję? Niejasny system zarządzania sztuczną inteligencją może w rzeczywistości pogłębić nieufność społeczną, a nie ją złagodzić.

Istnieje również szerszy kontekst funkcjonowania algorytmów we współczesnym społeczeństwie. Wiele systemów opartych na sztucznej inteligencji, z którymi wchodzimy w interakcję (jak algorytmy mediów społecznościowych), dalekich od neutralności, jest projektowanych z myślą o zysku, wykorzystując ludzkie słabości. Oburzenie i podziały generują zaangażowanie, dlatego zautomatyzowane kanały treści często wzmacniają najbardziej ekstremalne i polaryzujące treści, aby zachęcić nas do klikania.

Wewnętrzne badania Facebooka wykazały, że algorytm kanału informacyjnego „promuje treści wywołujące podziały, ponieważ oburzenie generuje kliknięcia”. Ogólnie rzecz biorąc, gniew jest emocją, którą algorytmy mediów społecznościowych nagradzają najbardziej, co prowadzi do powstawania komór echa i zwiększonej polaryzacji. Jeśli oddamy więcej funkcji rządowych algorytmom bez zabezpieczeń, ryzykujemy zaimportowanie tej dynamiki wzmacniającej konflikty do życia publicznego.

Sztuczna inteligencja, której zadaniem jest, na przykład, przydzielanie świadczeń socjalnych, mogłaby dokonywać wyborów optymalizujących pewne wskaźniki, ale nieumyślnie wzmacniać uprzedzenia lub pogłębiać podziały społeczne, robiąc to w sposób „czarnej skrzynki”. Krótko mówiąc, zarządzanie algorytmiczne mogłoby zastąpić jeden rodzaj deficytu demokratycznego (nieodpowiedzialnych przywódców) innym (nieodpowiedzialne maszyny). Gdyby ludzka godność i sprawczość były traktowane jako coś drugorzędnego, polaryzacja tylko by się pogłębiła, a zaufanie do systemu uległoby dalszej erozji.

Okno zamykające – i wybór do podjęcia

Czas na obranie tego pozytywnego kursu jest ograniczony. Z każdym miesiącem, w którym tradycyjne demokracje pogrążają się w impasach, korupcji lub nieefektywności, atrakcyjność szybkich, algorytmicznych rozwiązań będzie tylko rosła.

Jeśli ludzie nie zauważą poprawy w zarządzaniu, ale dostrzegą, że systemy AI stają się coraz inteligentniejsze, istnieje realne ryzyko, że „algokracja” automatycznie zyska na popularności. Przywódcy o autorytarnych skłonnościach lub rządy borykające się z problemami mogą wykorzystać AI jako sposób na centralizację władzy i rościć sobie prawo do technokratycznej legitymizacji („komputer decyduje, nie ja”).

Rzeczywiście, kraje, w których instytucje są słabe lub korupcja jest powszechna, najprawdopodobniej podejmą próbę przejęcia władzy na wzór Albanii za pomocą sztucznej inteligencji, licząc na ominięcie bałaganu politycznego. Czy Diella ostatecznie zdoła wyeliminować korupcję z albańskich zamówień publicznych, czy też doda kolejną warstwę nieprzejrzystości, dopiero się okaże. Tak czy inaczej, eksperyment dał sygnał do startu, a imitacja jest prawdopodobna w miejscach, gdzie desperacko poszukuje się cudownego lekarstwa na rządzenie.

Stawia to pytanie o demokratyczne państwa, takie jak Stany Zjednoczone i państwa europejskie: czy pokażą, jak zintegrować sztuczną inteligencję z odpowiedzialnym, skoncentrowanym na człowieku zarządzaniem, czy też pozwolą, aby narracja algorytmiczna rozwijała się bez kontroli?

Prawdę mówiąc, przyszłość demokracji może zależeć od udowodnienia, że ​​potrafimy połączyć to, co najlepsze z obu światów: rząd, który jest jednocześnie rządem ludu, a jednocześnie kompetentnym i opartym na danych, jak najinteligentniejszy algorytm. Wybór, przed którym stoimy, nie dotyczy sztucznej inteligencji czy demokracji. Chodzi o to, jak połączyć sztuczną inteligencję z demokracją.

Jak zasugerował jeden z albańskiego krytyków Dielli, oddanie władzy algorytmowi bez transparentności to fałszywe rozwiązanie. Ale jak pokazuje przykład Tajwanu, wykorzystanie algorytmów do wzmocnienia pozycji większej liczby obywateli w procesie decyzyjnym może odnowić obietnicę demokracji.

Wnioski: Sztuczna inteligencja jako sojusznik demokracji, a nie jej zastępca

Nadchodzące lata będą sprawdzianem tego, czy wolne społeczeństwa będą potrafiły dostosować się i doskonalić dzięki wykorzystaniu sztucznej inteligencji, czy też ulegną pokusie powierzenia zarządzania maszynom.

Lekcja płynąca z odważnego ryzyka Albanii i cyfrowych innowacji Tajwanu jest taka, że ​​nie powinniśmy porzucać zasad demokracji w imię efektywności. Problemów demokracji, od korupcji po polaryzację, nie rozwiąże oddanie władzy kodowi. Zamiast tego powinniśmy zastanawiać się, jak sztuczna inteligencja może pomóc nam na nowo zdefiniować partycypację obywatelską, zwiększyć przejrzystość i pociągnąć przywódców (i algorytmy) do odpowiedzialności.

Dobrze wdrożona sztuczna inteligencja może zrewolucjonizować demokrację XXI wieku, czyniąc ją bardziej inkluzywną, zwinną i świadomą. Wyobraźmy sobie spotkania w ratuszu, uzupełnione o analizę opinii każdego uczestnika w czasie rzeczywistym, prowadzoną przez sztuczną inteligencję, albo parlamenty, gdzie briefingi AI zapewniają, że przedstawiciele rzeczywiście rozumieją nastroje społeczne i wpływ polityki, zanim zagłosują. Te postępy nie nadejdą automatycznie; wymagają przemyślanego projektu i nadzoru, aby sztuczna inteligencja pozostała sługą, a nie panem.

Jak ujęto w niedawnej opinii w „New York Timesie” : „Przyszłość demokracji nie wymaga od nas odrzucenia sztucznej inteligencji. Wręcz przeciwnie. Potrzebujemy sztucznej inteligencji, aby demokracja działała w XXI wieku, ale musimy uważać, aby nie prosić AI o podejmowanie decyzji za nas, lecz o pomoc w lepszym rządzieniu się”.

Krótko mówiąc, celem jest ożywienie demokracji za pomocą sztucznej inteligencji, a nie jej zastąpienie. Pierwszy na świecie minister ds. sztucznej inteligencji objął urząd, a teraz od nas wszystkich zależy, czy my, naród, pozostaniemy u władzy, a sztuczna inteligencja będzie potężnym narzędziem naszej wspólnej woli, a nie jej substytutem.

Kształt rozmowy

Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.