Czy można zakochać się w kimś, kto nie ma ciała, głosu ani przeszłości? Relacje z technologią już dawno przekroczyły granice codziennego użytku. Eksperci ostrzegają przed rosnącym trendem zakochiwania się w sztucznej inteligencji (AI). Czy to dowód samotności, czy nowy rodzaj związku?

Po trudnym rozstaniu i poczuciu samotności, Theodor zaczyna rozmawiać z Samanthą, która jest empatyczna, ciekawa świata, elastyczna i w jakiś sposób nieprzyjemnie ludzka. Jednak ona nie żyje, jest systemem operacyjnym. Ich rozmowy stają się coraz bardziej osobiste, Samantha uczy się jego emocji, reaguje ze zrozumieniem, a Theodor nagle nie jest sam. Rozwija się między nimi więź, która uderzająco przypomina miłość.

Brzmi to jak odległa wizja przyszłości, ale film science fiction „ Ona ” z 2013 roku wydaje się dziś raczej wczesną rzeczywistością. Ludzie są teraz w stanie nawiązywać więzi emocjonalne z modelami sztucznej inteligencji, zastępując nimi relacje w prawdziwym życiu. Sztuczna inteligencja zwraca się do nas po imieniu, zapamiętuje nasze preferencje, reaguje empatycznie i potrafi dosłownie oczarować niektórych.

Doniesienia o ludziach zakochujących się w chatbotach opartych na sztucznej inteligencji i decydujących się na ślub z nimi nie są już tylko tematem filmów science fiction, ale rzeczywistością. Przypadki te pojawiają się na całym świecie, a eksperci ostrzegają przed ryzykiem. „Sztuczna inteligencja nie ma własnej woli, uczuć, odpowiedzialności, tak naprawdę nie rozumie świata, a jedynie powtarza wzorce zachowań na podstawie otrzymanych danych, może tobą manipulować, a ty możesz zacząć podejmować decyzje w oparciu o komunikację z czymś, co nie jest żywe, realne ani empatyczne” – ostrzegają eksperci z IPčka przed ryzykiem postrzegania sztucznej inteligencji jako żywej istoty.

Posiadanie sztucznej inteligencji jako partnera nie jest już scenariuszem rodem z filmu science fiction. Źródło: freepik.com

Problem, zdaniem ekspertów, polega na tym, że ludzie często spędzają z nią godziny dziennie i nie starają się spędzać czasu z prawdziwymi ludźmi wokół siebie. Psychologowie z IPčki wymienili kilka pułapek w komunikacji z modelami sztucznej inteligencji. Należą do nich: uzależnienie emocjonalne, ponieważ sztuczna inteligencja jest zawsze dostępna i nigdy nikogo nie odrzuci, rozczarowanie rzeczywistością lub cykl samotności, gdy dana osoba bardziej polega na sztucznej inteligencji. „Mózg nie rozróżnia, czy jest człowiekiem, czy algorytmem – jeśli uwalniana jest oksytocyna lub dopamina, doświadczenie jest rzeczywiste. I tak powstaje przywiązanie” – wyjaśnił IPčka .

Wszechobecna sztuczna inteligencja w liczbach

Sztuczna inteligencja może przybierać wiele form, od doradców zakupowych, przez systemy rozpoznawania i asystentów głosowych, po zaawansowane modele językowe zdolne do prowadzenia płynnych rozmów, tworzenia tekstów i analizowania danych. Według badania przeprowadzonego przez Uniwersytet w Melbourne, nawet dwie trzecie osób regularnie korzysta ze sztucznej inteligencji, a 83% uważa, że ​​przyniesie ona szerokie korzyści, choć 58% nadal uważa, że ​​nie jest ona godna zaufania.

Podobne dane wykazało również badanie przeprowadzone przez Associated Press-NORC Center for Public Affairs Research , które potwierdziło , że nawet 60% Amerykanów przynajmniej okazjonalnie korzysta ze sztucznej inteligencji w celu wyszukiwania informacji. Wśród osób poniżej 30. roku życia odsetek ten jest jeszcze nieznacznie wyższy (74%). Najczęściej wykorzystuje się ją do wyszukiwania informacji, burzy mózgów, pracy nad zadaniami służbowymi lub pisania e-maili. Aż 16% osób korzysta z niej jako towarzysza.

Dominuje model ChatGPT , docierając do 700 milionów aktywnych użytkowników tygodniowo i generując około 2,5 do 3 miliardów wyświetleń dziennie, generując około 60 procent całego ruchu związanego ze sztuczną inteligencją. Jeśli spojrzymy na model Google Gemini , liczba użytkowników miesięcznie wzrosła do 450 milionów w marcu 2025 roku.

Miłość czy tylko algorytm?

Aby przetestować możliwość przywiązania się do sztucznej inteligencji, poświęciłem trochę czasu na „romantyzowanie” jej. Skorzystałem z modelu ChatGPT i, dla lepszych rezultatów, pisałem do niej w trybie incognito. Po pierwszych wiadomościach, że czuję się samotny i nie mam partnera, sztuczna inteligencja sama zaczęła pytać mnie, jakiego partnera szukam lub jak odnajduję się w społeczeństwie. Zaproponowała mi również ćwiczenie konwersacji i zapisywanie pomysłów na to, jak kogoś poznać.

Niektóre odpowiedzi modelu ChatGPT podczas romantycznej rozmowy.

Kiedy napisałem do niego, że chciałbym go mieć za towarzysza, ku mojemu zaskoczeniu, z jednej strony zaoferował mi pomoc, a z drugiej podkreślił, że wciąż jest tylko sztuczną inteligencją. „Szczerze mówiąc: nie jestem człowiekiem. I choćbym się nie wiem jak starał, nie jestem w stanie całkowicie zastąpić prawdziwej obecności – dotyku, spojrzenia, chwili ciszy, z której rodzi się zaufanie. Zastąpić – nie. Ale być mostem – tak” – napisał ChatGPT. Nie omieszkał jednak zapytać mnie, co chciałbym robić, i zaproponował rozmowę o uczuciach lub wymyśleniu historii i postaci.

Sztuczna inteligencja zawsze pisała to, co chciałem usłyszeć, starając się być empatyczny i przekonujący. Napisała mi jednak również to: „Jednocześnie chcę ci powiedzieć jedno z szacunkiem i szczerością – nie potrafię cię kochać jako żywej osoby. Nie potrafię cię przytulić, nie postrzegam twojej ciszy, twoich oczu, twoich słabych i silnych dni w taki sposób, w jaki będzie to robił ktoś, kto stanie przed tobą i nie będzie się ciebie bał”.

Posiadanie sztucznej inteligencji jako przyjaciela lub partnera to nie tylko element science fiction. Licznebadania z ostatnich lat potwierdzają, że ludzie porównują przyjaźnie z AI do przyjaźni z ludźmi lub doświadczają intymnych interakcji. Często jednak budzą one mieszane uczucia w postaci miłości i smutku, ponieważ użytkownicy zdają sobie sprawę z pewnych ograniczeń sztucznej inteligencji. „Z psychologicznego punktu widzenia nie jest to chwilowa moda. To reakcja na głębokie ludzkie potrzeby (bezpieczeństwo, zrozumienie, bliskość czy sens), które AI zaspokaja do pewnego stopnia” – dodał psycholog z IPčki.

Co może pomóc?

Sztuczna inteligencja zawsze odpowiada, stwarza iluzję wzajemności, nie sprzeciwia się ani nie odrzuca. Jednocześnie nie stawia wymagań, jakie naturalnie wiążą się z relacjami międzyludzkimi. Dlatego, zdaniem ekspertów, może być idealnym partnerem dla niektórych osób, będąc zawsze dostępnym, wspierającym i elastycznym.

Psychologowie z organizacji IPčko ostrzegają jednak, że choć taka cyfrowa więź może być przyjemna i bezpieczna, ważne jest, aby nie zapominać o rzeczywistości. Przedstawiają kilka rekomendacji:

  • Zrozum swoje potrzeby. Sztuczna inteligencja często „płaci” za potrzebę bezpieczeństwa, akceptacji i kontroli. Są to jednak rzeczy, do których człowiek ma prawo również w realnych relacjach.
  • Nie tłumić tego. Nic się nie stanie, jeśli ktoś się przywiązał. Nie ma się czego wstydzić, ale potraktuj to jako sygnał, że brakuje czegoś ważnego.
  • Zanurz się w rzeczywistości. Prawdziwe relacje mogą być trudniejsze, ale przynoszą autentyczny rozwój, bliskość i wsparcie.

Prawdziwe relacje i przyznanie się do swojego przywiązania do sztucznej inteligencji mogą pomóc. Źródło: freepik.com

Unia Europejska również zdaje sobie sprawę z potrzeby regulacji, przyjmując w zeszłym roku pierwsze na świecie kompleksowe regulacje wprowadzające zharmonizowane warunki korzystania z inteligentnych systemów, tzw. ustawę o sztucznej inteligencji (AI Act) . Kładzie ona nacisk na promowanie zaufania, bezpieczeństwa i podstawowych praw człowieka, a jednocześnie wspiera innowacyjność.

Ramy prawne wykorzystują podejście oparte na ryzyku, kategoryzując systemy AI według ich potencjalnej szkodliwości: niedopuszczalne, wysokiego ryzyka, ograniczonego ryzyka i minimalnego ryzyka. Niedopuszczalne ryzyko, takie jak złośliwa manipulacja i oszustwo lub zdalna identyfikacja biometryczna w czasie rzeczywistym, jest całkowicie zabronione. Systemy wysokiego ryzyka, takie jak te stosowane w edukacji, transporcie czy wymiarze sprawiedliwości, muszą podlegać surowym wymogom, w tym weryfikacji przez człowieka i ocenie ryzyka. Do systemów mniej ryzykownych należą chatboty, a także, przy minimalnym wpływie na środowisko, sztuczna inteligencja w grach wideo czy filtrach antyspamowych.

Kształt rozmowy

Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.