Czy można zakochać się w kimś, kto nie ma ciała, głosu ani przeszłości? Relacje z technologią już dawno przekroczyły granice codziennego użytku. Eksperci ostrzegają przed rosnącym trendem zakochiwania się w sztucznej inteligencji (AI). Czy to dowód samotności, czy nowy rodzaj związku?
Po trudnym rozstaniu i poczuciu samotności, Theodor zaczyna rozmawiać z Samanthą, która jest empatyczna, ciekawa świata, elastyczna i w jakiś sposób nieprzyjemnie ludzka. Jednak ona nie żyje, jest systemem operacyjnym. Ich rozmowy stają się coraz bardziej osobiste, Samantha uczy się jego emocji, reaguje ze zrozumieniem, a Theodor nagle nie jest sam. Rozwija się między nimi więź, która uderzająco przypomina miłość.
Brzmi to jak odległa wizja przyszłości, ale film science fiction „ Ona ” z 2013 roku wydaje się dziś raczej wczesną rzeczywistością. Ludzie są teraz w stanie nawiązywać więzi emocjonalne z modelami sztucznej inteligencji, zastępując nimi relacje w prawdziwym życiu. Sztuczna inteligencja zwraca się do nas po imieniu, zapamiętuje nasze preferencje, reaguje empatycznie i potrafi dosłownie oczarować niektórych.
Doniesienia o ludziach zakochujących się w chatbotach opartych na sztucznej inteligencji i decydujących się na ślub z nimi nie są już tylko tematem filmów science fiction, ale rzeczywistością. Przypadki te pojawiają się na całym świecie, a eksperci ostrzegają przed ryzykiem. „Sztuczna inteligencja nie ma własnej woli, uczuć, odpowiedzialności, tak naprawdę nie rozumie świata, a jedynie powtarza wzorce zachowań na podstawie otrzymanych danych, może tobą manipulować, a ty możesz zacząć podejmować decyzje w oparciu o komunikację z czymś, co nie jest żywe, realne ani empatyczne” – ostrzegają eksperci z IPčka przed ryzykiem postrzegania sztucznej inteligencji jako żywej istoty.
Posiadanie sztucznej inteligencji jako partnera nie jest już scenariuszem rodem z filmu science fiction. Źródło: freepik.com
Problem, zdaniem ekspertów, polega na tym, że ludzie często spędzają z nią godziny dziennie i nie starają się spędzać czasu z prawdziwymi ludźmi wokół siebie. Psychologowie z IPčki wymienili kilka pułapek w komunikacji z modelami sztucznej inteligencji. Należą do nich: uzależnienie emocjonalne, ponieważ sztuczna inteligencja jest zawsze dostępna i nigdy nikogo nie odrzuci, rozczarowanie rzeczywistością lub cykl samotności, gdy dana osoba bardziej polega na sztucznej inteligencji. „Mózg nie rozróżnia, czy jest człowiekiem, czy algorytmem – jeśli uwalniana jest oksytocyna lub dopamina, doświadczenie jest rzeczywiste. I tak powstaje przywiązanie” – wyjaśnił IPčka .
Wszechobecna sztuczna inteligencja w liczbach
Sztuczna inteligencja może przybierać wiele form, od doradców zakupowych, przez systemy rozpoznawania i asystentów głosowych, po zaawansowane modele językowe zdolne do prowadzenia płynnych rozmów, tworzenia tekstów i analizowania danych. Według badania przeprowadzonego przez Uniwersytet w Melbourne, nawet dwie trzecie osób regularnie korzysta ze sztucznej inteligencji, a 83% uważa, że przyniesie ona szerokie korzyści, choć 58% nadal uważa, że nie jest ona godna zaufania.
Podobne dane wykazało również badanie przeprowadzone przez Associated Press-NORC Center for Public Affairs Research , które potwierdziło , że nawet 60% Amerykanów przynajmniej okazjonalnie korzysta ze sztucznej inteligencji w celu wyszukiwania informacji. Wśród osób poniżej 30. roku życia odsetek ten jest jeszcze nieznacznie wyższy (74%). Najczęściej wykorzystuje się ją do wyszukiwania informacji, burzy mózgów, pracy nad zadaniami służbowymi lub pisania e-maili. Aż 16% osób korzysta z niej jako towarzysza.
Dominuje model ChatGPT , docierając do 700 milionów aktywnych użytkowników tygodniowo i generując około 2,5 do 3 miliardów wyświetleń dziennie, generując około 60 procent całego ruchu związanego ze sztuczną inteligencją. Jeśli spojrzymy na model Google Gemini , liczba użytkowników miesięcznie wzrosła do 450 milionów w marcu 2025 roku.
Miłość czy tylko algorytm?
Aby przetestować możliwość przywiązania się do sztucznej inteligencji, poświęciłem trochę czasu na „romantyzowanie” jej. Skorzystałem z modelu ChatGPT i, dla lepszych rezultatów, pisałem do niej w trybie incognito. Po pierwszych wiadomościach, że czuję się samotny i nie mam partnera, sztuczna inteligencja sama zaczęła pytać mnie, jakiego partnera szukam lub jak odnajduję się w społeczeństwie. Zaproponowała mi również ćwiczenie konwersacji i zapisywanie pomysłów na to, jak kogoś poznać.

Niektóre odpowiedzi modelu ChatGPT podczas romantycznej rozmowy.
Kiedy napisałem do niego, że chciałbym go mieć za towarzysza, ku mojemu zaskoczeniu, z jednej strony zaoferował mi pomoc, a z drugiej podkreślił, że wciąż jest tylko sztuczną inteligencją. „Szczerze mówiąc: nie jestem człowiekiem. I choćbym się nie wiem jak starał, nie jestem w stanie całkowicie zastąpić prawdziwej obecności – dotyku, spojrzenia, chwili ciszy, z której rodzi się zaufanie. Zastąpić – nie. Ale być mostem – tak” – napisał ChatGPT. Nie omieszkał jednak zapytać mnie, co chciałbym robić, i zaproponował rozmowę o uczuciach lub wymyśleniu historii i postaci.
Sztuczna inteligencja zawsze pisała to, co chciałem usłyszeć, starając się być empatyczny i przekonujący. Napisała mi jednak również to: „Jednocześnie chcę ci powiedzieć jedno z szacunkiem i szczerością – nie potrafię cię kochać jako żywej osoby. Nie potrafię cię przytulić, nie postrzegam twojej ciszy, twoich oczu, twoich słabych i silnych dni w taki sposób, w jaki będzie to robił ktoś, kto stanie przed tobą i nie będzie się ciebie bał”.
Posiadanie sztucznej inteligencji jako przyjaciela lub partnera to nie tylko element science fiction. Licznebadania z ostatnich lat potwierdzają, że ludzie porównują przyjaźnie z AI do przyjaźni z ludźmi lub doświadczają intymnych interakcji. Często jednak budzą one mieszane uczucia w postaci miłości i smutku, ponieważ użytkownicy zdają sobie sprawę z pewnych ograniczeń sztucznej inteligencji. „Z psychologicznego punktu widzenia nie jest to chwilowa moda. To reakcja na głębokie ludzkie potrzeby (bezpieczeństwo, zrozumienie, bliskość czy sens), które AI zaspokaja do pewnego stopnia” – dodał psycholog z IPčki.
Co może pomóc?
Sztuczna inteligencja zawsze odpowiada, stwarza iluzję wzajemności, nie sprzeciwia się ani nie odrzuca. Jednocześnie nie stawia wymagań, jakie naturalnie wiążą się z relacjami międzyludzkimi. Dlatego, zdaniem ekspertów, może być idealnym partnerem dla niektórych osób, będąc zawsze dostępnym, wspierającym i elastycznym.
Psychologowie z organizacji IPčko ostrzegają jednak, że choć taka cyfrowa więź może być przyjemna i bezpieczna, ważne jest, aby nie zapominać o rzeczywistości. Przedstawiają kilka rekomendacji:
- Zrozum swoje potrzeby. Sztuczna inteligencja często „płaci” za potrzebę bezpieczeństwa, akceptacji i kontroli. Są to jednak rzeczy, do których człowiek ma prawo również w realnych relacjach.
- Nie tłumić tego. Nic się nie stanie, jeśli ktoś się przywiązał. Nie ma się czego wstydzić, ale potraktuj to jako sygnał, że brakuje czegoś ważnego.
- Zanurz się w rzeczywistości. Prawdziwe relacje mogą być trudniejsze, ale przynoszą autentyczny rozwój, bliskość i wsparcie.
Prawdziwe relacje i przyznanie się do swojego przywiązania do sztucznej inteligencji mogą pomóc. Źródło: freepik.com
Unia Europejska również zdaje sobie sprawę z potrzeby regulacji, przyjmując w zeszłym roku pierwsze na świecie kompleksowe regulacje wprowadzające zharmonizowane warunki korzystania z inteligentnych systemów, tzw. ustawę o sztucznej inteligencji (AI Act) . Kładzie ona nacisk na promowanie zaufania, bezpieczeństwa i podstawowych praw człowieka, a jednocześnie wspiera innowacyjność.
Ramy prawne wykorzystują podejście oparte na ryzyku, kategoryzując systemy AI według ich potencjalnej szkodliwości: niedopuszczalne, wysokiego ryzyka, ograniczonego ryzyka i minimalnego ryzyka. Niedopuszczalne ryzyko, takie jak złośliwa manipulacja i oszustwo lub zdalna identyfikacja biometryczna w czasie rzeczywistym, jest całkowicie zabronione. Systemy wysokiego ryzyka, takie jak te stosowane w edukacji, transporcie czy wymiarze sprawiedliwości, muszą podlegać surowym wymogom, w tym weryfikacji przez człowieka i ocenie ryzyka. Do systemów mniej ryzykownych należą chatboty, a także, przy minimalnym wpływie na środowisko, sztuczna inteligencja w grach wideo czy filtrach antyspamowych.
