Ale kiedy algorytmy mogą pisać całe artykuły — i jednocześnie zalewać internet fałszywymi wiadomościami — jedno pytanie staje się głośniejsze: czy media nadążają za technologią, która zmienia kształt ich misji?

W całej Europie coraz więcej redakcji sięga po sztuczną inteligencję. Niektórzy postrzegają ją jako szansę na zwiększenie efektywności, inni jako ryzykowne ryzyko. Najbardziej obiecującym podejściem wydaje się jak dotąd model hybrydowy – wykorzystujący szybkość i moc automatyzacji, a jednocześnie pozwalający ludziom na podejmowanie krytycznych decyzji. To połączenie może być najlepszą obroną przed dezinformacją. Rzeczywistość jest jednak trudna: choć sztuczna inteligencja pomaga, stwarza również nowe zagrożenia – od stronniczych algorytmów po wątpliwości co do tego, czy jakiekolwiek wiadomości są nadal wiarygodne.

Czy więc ten hybrydowy model jest rozwiązaniem długoterminowym, czy tylko tymczasowym, mającym na celu opóźnienie jeszcze większego kryzysu zaufania?

Czynnik ludzki – niezbędny czy przestarzały?

Badania nie pozostawiają wątpliwości : ludzie pozostają kluczowi dla dziennikarstwa. Nie tylko w pisaniu artykułów, ale także w budowaniu narzędzi do ich weryfikacji. Bez ludzkiego nadzoru walka z dezinformacją byłaby niemal niemożliwa.

Wyzwanie? Wiele redakcji nie posiada solidnych umiejętności technicznych. Ta luka utrudnia dostosowanie się do szybkiego rozwoju sztucznej inteligencji. Coraz więcej pracowników mediów apeluje o powszechne szkolenia dziennikarzy z zakresu sztucznej inteligencji, ostrzegając, że bez nich reporterzy ryzykują uzależnienie od technologii, której tak naprawdę nie rozumieją. A jeśli dziennikarze nie potrafią wyjaśnić, z jakich narzędzi korzystają – czy naprawdę mogą twierdzić, że są niezależni?

Pętla dezinformacji – czy możemy ją przerwać?

Problem z dezinformacją nie dotyczy tylko podaży, ale także popytu. Jak zauważyła Susan D'Agostino w „The Bulletin” , algorytmy wzmacniają treści, które generują najwięcej kliknięć i zaangażowania – niezależnie od tego, czy są prawdziwe, czy nie.

Marshall Van Alstyne argumentuje, że potrzebujemy podwójnej strategii: blokowania tworzenia fałszywych wiadomości generowanych przez sztuczną inteligencję, a jednocześnie zmiany sposobu, w jaki ludzie konsumują informacje. Oznacza to zmiany technologiczne, kulturowe, a nawet psychologiczne. Ale na ile jest to realne? I jeśli nam się nie uda, ile czasu minie, zanim społeczeństwo straci zdolność odróżniania prawdy od cyfrowej iluzji?

Błąd algorytmiczny – błąd czy awaria systemu?

Kolejny poważny problem: stronniczość wbudowana w algorytmy. Ramaa Sharma podkreśla, że ​​rozwiązanie tego problemu wymaga zróżnicowanych zespołów, szerszych zbiorów danych i jasnych standardów etycznych wbudowanych w projektowanie sztucznej inteligencji od samego początku.

Niektóre rozwiązania obejmują monitorowanie metadanych, opracowywanie narzędzi do wykrywania stronniczości, promowanie transparentności i współpracę między redakcjami. Ale nawet najlepsze poprawki techniczne nie będą miały znaczenia, jeśli branża nie zmierzy się z bolesną prawdą: tolerowanie stronniczej sztucznej inteligencji może oznaczać poświęcenie wiarygodności – sedna dziennikarstwa.

Chatboty jako nowa linia obrony

Niektóre redakcje eksperymentują z własnymi narzędziami sztucznej inteligencji, aby stawić opór. Dziennikarz Rowan Philip opisuje, jak niektóre redakcje stworzyły wewnętrzne chatboty, które odpowiadają na pytania wyłącznie na podstawie zweryfikowanych archiwów.

W przeciwieństwie do publicznych systemów sztucznej inteligencji, takich jak ChatGPT, które czerpią z niezweryfikowanych treści internetowych, te zamknięte modele opierają się wyłącznie na zaufanych źródłach. Dostarczają odbiorcom trafnych odpowiedzi i odbudowują zaufanie poprzez transparentność. Pytanie brzmi: czy te mniejsze, lokalne rozwiązania przetrwają w starciu z globalnymi platformami, które dominują dzięki algorytmom nastawionym na zysk?

Dziennikarstwo w erze sztucznej inteligencji – czy demokracja przetrwa?

Sztuczna inteligencja jest już wpleciona w europejskie dziennikarstwo, a jej wpływ będzie tylko rósł. Szanse są ogromne – ale i zagrożenia. Pozostawione bez kontroli, zautomatyzowane dziennikarstwo może spotęgować dezinformację i podważyć zaufanie do wszystkich mediów. A jeśli obywatele całkowicie przestaną wierzyć w informacje, same podstawy demokracji będą zagrożone.

Dlatego eksperci twierdzą, że same poprawki techniczne nie wystarczą. Potrzebujemy wspólnego wysiłku – prawnego, etycznego i kulturowego – aby zapewnić, że sztuczna inteligencja wzmocni dziennikarstwo, a nie je osłabi. Europejskie redakcje, wspólnie z decydentami, powinny zobowiązać się do przejrzystości, uczciwości i niezależnego nadzoru.

Bo bez tych zabezpieczeń dziennikarstwo może nie zostać uratowane przez sztuczną inteligencję — wręcz przeciwnie, może zostać przez nią utracone.

Kształt rozmowy

Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.