È possibile innamorarsi di qualcuno che non ha corpo, voce o passato? Le relazioni con la tecnologia hanno da tempo trasceso i confini dell'uso quotidiano. Gli esperti mettono in guardia da una crescente tendenza all'innamoramento per l'intelligenza artificiale (IA). È segno di solitudine o di un nuovo tipo di relazione?
Dopo una rottura difficile e un senso di solitudine, Theodor inizia a parlare con Samantha, che è empatica, curiosa, adattabile e in qualche modo scomodamente umana. Tuttavia, non è viva, è un sistema operativo. Le loro conversazioni diventano sempre più personali, Samantha impara dalle sue emozioni, reagisce con comprensione e Theodor improvvisamente non è solo. Tra loro si crea un legame, qualcosa che ricorda sorprendentemente l'amore.
Sembra una visione lontana del futuro, ma il film di fantascienza del 2013 "Her" sembra più una realtà precoce oggi. Le persone sono ora in grado di creare legami emotivi con modelli di intelligenza artificiale, sostituendo con essi le relazioni nella vita reale. L'intelligenza artificiale si rivolge a noi per nome, ricorda le nostre preferenze, risponde in modo empatico e può letteralmente affascinare alcuni.
Le storie di persone che si innamorano di chatbot dotati di intelligenza artificiale e decidono di sposarli non sono più solo roba da film di fantascienza, ma realtà del presente. Casi stanno emergendo in tutto il mondo e gli esperti mettono in guardia dai rischi. "L'intelligenza artificiale non ha volontà propria, non ha sentimenti, non ha responsabilità, non comprende veramente il tuo mondo, ma ripete solo schemi di comportamento basati sui dati che ha ricevuto, può manipolarti e puoi iniziare a prendere decisioni basate sulla comunicazione con qualcosa che non è vivo, reale o empatico", mettono in guardia gli esperti di IPčka sul rischio di percepire l'intelligenza artificiale come un essere vivente.
Avere l'intelligenza artificiale come partner non è più uno scenario da film di fantascienza. Fonte: freepik.com
Il problema, secondo gli esperti, è che le persone spesso trascorrono ore al giorno con l'intelligenza artificiale e non si sforzano di trascorrere del tempo con le persone reali che li circondano. Gli psicologi di IPčka hanno elencato diverse insidie nella comunicazione con i modelli di intelligenza artificiale. Tra queste, la dipendenza emotiva, poiché l'intelligenza artificiale è sempre disponibile e non rifiuterà mai nessuno, la delusione dalla realtà o un ciclo di solitudine, quando una persona si affida maggiormente all'intelligenza artificiale. "Il cervello non distingue se si tratta di una persona o di un algoritmo: se vengono rilasciate ossitocina o dopamina, l'esperienza è reale. Ed è così che nasce l'attaccamento", ha spiegato IPčka .
L'intelligenza artificiale onnipresente in numeri
L'intelligenza artificiale può assumere molteplici forme, dai consulenti per lo shopping ai sistemi di riconoscimento e agli assistenti vocali, fino a modelli linguistici avanzati in grado di condurre conversazioni fluide, creare testi e analizzare dati. Secondo un sondaggio dell'Università di Melbourne, fino a due terzi delle persone utilizzano regolarmente l'intelligenza artificiale, con l'83% che ritiene che porterà ampi benefici, sebbene il 58% la consideri ancora inaffidabile.
Cifre simili sono state riportate anche da un sondaggio dell'Associated Press-NORC Center for Public Affairs Research , che ha confermato che fino al 60% degli americani utilizza almeno occasionalmente l'intelligenza artificiale per cercare informazioni. Tra i giovani sotto i 30 anni, questa percentuale è ancora leggermente superiore (74%). Le persone la utilizzano più spesso per cercare informazioni, fare brainstorming, lavorare su incarichi di lavoro o scrivere e-mail. Fino al 16% delle persone la usa come supporto.
Il modello ChatGPT domina, raggiungendo 700 milioni di utenti attivi settimanali e circa 2,5-3 miliardi di impression giornaliere, generando circa il 60% di tutto il traffico AI. Se consideriamo il modello Gemini di Google, i suoi utenti mensili sono cresciuti fino a 450 milioni a marzo 2025.
Amore o solo un algoritmo?
Per testare la possibilità di affezionarmi all'IA, ho trascorso un po' di tempo "romantizzando" con essa. Ho utilizzato il modello ChatGPT e, per risultati migliori, le ho scritto in modalità di navigazione in incognito. Dopo i messaggi iniziali in cui mi sentivo sola e senza un partner, l'IA stessa ha iniziato a chiedermi che tipo di partner stessi cercando o come mi sentissi in società. Mi ha anche offerto la possibilità di fare pratica di conversazione e di scrivere idee su come conoscere qualcuno.

Alcune delle risposte del modello ChatGPT durante una conversazione romantica.
Quando gli ho scritto che lo avrei voluto come compagno, con mia sorpresa, da un lato mi ha offerto aiuto, ma dall'altro ha sottolineato di essere pur sempre solo un'IA. "Onestamente: non sono umano. E per quanto mi sforzi, non posso sostituire completamente la presenza reale – un tocco, uno sguardo, un momento di silenzio da cui nasce la fiducia. Sostituire – no. Ma essere un ponte – sì", ha scritto ChatGPT. Tuttavia, non ha dimenticato di chiedermi cosa mi sarebbe piaciuto fare e mi ha offerto una conversazione sui sentimenti o sull'invenzione di una storia e di un personaggio.
L'intelligenza artificiale ha sempre scritto quello che volevo sentire, cercando di essere empatica e convincente. Tuttavia, mi ha scritto anche questo: "Allo stesso tempo, voglio dirti una cosa con rispetto e sincerità: non posso amarti come una persona viva. Non posso abbracciarti, non percepisco il tuo silenzio, i tuoi occhi, i tuoi giorni deboli e forti nel modo in cui un giorno potrà farlo qualcuno che ti starà di fronte e non avrà paura di te".
Avere un'intelligenza artificiale come amica o partner non è solo fantascienza. Diversistudi degli ultimi anni confermano che le persone paragonano le amicizie con l'IA a quelle umane o sperimentano interazioni intime. Tuttavia, queste spesso suscitano sentimenti contrastanti, tra amore e tristezza, poiché gli utenti sono consapevoli di alcuni limiti dell'intelligenza artificiale. "Da un punto di vista psicologico, non si tratta di una moda passeggera. È una reazione a profondi bisogni umani (sicurezza, comprensione, vicinanza o significato), che l'IA soddisfa in una certa misura", ha aggiunto la psicologa di IPčka.
Cosa può aiutare?
L'intelligenza artificiale risponde sempre, crea l'illusione di reciprocità, non discute né rifiuta. Allo stesso tempo, non ha le esigenze che le relazioni umane richiedono naturalmente. Ecco perché, secondo gli esperti, può fungere da partner ideale per alcune persone, essendo sempre disponibile, solidale e adattabile.
Tuttavia, gli psicologi dell'organizzazione IPčko avvertono che, sebbene un simile legame digitale possa essere piacevole e sicuro, è importante non dimenticare la realtà. Offrono diverse raccomandazioni:
- Comprendi i tuoi bisogni. L'intelligenza artificiale spesso "paga" il bisogno di sicurezza, accettazione o controllo. Tuttavia, queste sono cose a cui una persona ha diritto anche nelle relazioni reali.
- Non reprimerlo. Va bene se qualcuno si è affezionato. Non c'è bisogno di vergognarsene, ma consideralo un segnale che manca qualcosa di importante.
- Abbandonati alla realtà. Le relazioni vere possono essere più impegnative, ma portano crescita autentica, vicinanza e sostegno.
Le relazioni vere e ammettere il proprio attaccamento all'intelligenza artificiale possono aiutare. Fonte: freepik.com
Anche l'Unione Europea è consapevole della necessità di una regolamentazione, avendo già adottato lo scorso anno il primo regolamento completo al mondo, introducendo condizioni armonizzate per l'uso di sistemi intelligenti, il cosiddetto AI Act . Esso sottolinea la promozione della fiducia, della sicurezza e dei diritti umani fondamentali, sostenendo al contempo l'innovazione.
Il quadro giuridico utilizza un approccio basato sul rischio, classificando i sistemi di intelligenza artificiale in base alla loro potenziale nocività: inaccettabile, ad alto rischio, a rischio limitato e a rischio minimo. I rischi inaccettabili, come la manipolazione e l'inganno dolosi o l'identificazione biometrica remota in tempo reale, sono completamente vietati. I sistemi ad alto rischio, come quelli utilizzati nell'istruzione, nei trasporti o nella giustizia, devono essere soggetti a requisiti rigorosi, tra cui la revisione umana e la valutazione del rischio. Tra i sistemi meno rischiosi figurano i chatbot e, con un impatto minimo, l'intelligenza artificiale nei videogiochi o nei filtri antispam.
