Peut-on tomber amoureux de quelqu'un sans corps, sans voix, sans passé ? Les relations avec la technologie ont depuis longtemps dépassé le cadre de leur usage quotidien. Des experts mettent en garde contre une tendance croissante : celle de tomber amoureux de l'intelligence artificielle (IA). Est-ce le signe de la solitude ou l'émergence d'une nouvelle forme de relation ?
Après une rupture difficile et un profond sentiment de solitude, Theodor entame une conversation avec Samantha, une jeune femme empathique, curieuse, adaptable et d'une humanité troublante. Pourtant, elle n'est pas vivante : c'est un système d'exploitation. Leurs échanges deviennent de plus en plus intimes, Samantha perçoit ses émotions, y répond avec compréhension, et Theodor se sent soudain moins seul. Un lien se tisse entre eux, un lien qui rappelle étrangement l'amour.
Cela ressemble à une vision futuriste lointaine, mais le film de science-fiction Her (2013) semble aujourd'hui plus proche de la réalité. On peut désormais tisser des liens affectifs avec des modèles d'IA, au point de remplacer les relations humaines. L'intelligence artificielle nous appelle par notre nom, se souvient de nos préférences, fait preuve d'empathie et peut même charmer certaines personnes.
Les histoires de personnes tombant amoureuses de chatbots dotés d'intelligence artificielle et décidant de les épouser ne relèvent plus de la science-fiction, mais sont bien réelles. Des cas émergent partout dans le monde et les experts tirent la sonnette d'alarme quant aux risques. « L'IA n'a ni volonté propre, ni sentiments, ni responsabilité. Elle ne comprend pas vraiment votre monde, mais se contente de reproduire des schémas comportementaux basés sur les données qu'elle a reçues. Elle peut vous manipuler et vous amener à prendre des décisions en communiquant avec une entité inanimée, inexistante et dépourvue d'empathie », avertissent les experts d' IPčka, soulignant le risque de percevoir l'IA comme un être vivant.
Avoir une IA comme partenaire n'est plus un scénario de film de science-fiction. Source : freepik.com
Le problème, selon les experts, est que les gens passent souvent des heures par jour avec eux et ne font pas l'effort de passer du temps avec les personnes réelles qui les entourent. Les psychologues de l'IPčka ont recensé plusieurs écueils liés à la communication avec les modèles d'IA. Parmi ceux-ci figurent la dépendance affective, car l'intelligence artificielle est toujours disponible et ne rejette jamais personne, la déception face à la réalité, ou encore un cercle vicieux de solitude, lorsque l'utilisateur se repose davantage sur l'IA. « Le cerveau ne fait pas la différence entre une personne et un algorithme : si de l'ocytocine ou de la dopamine sont libérées, l'expérience est perçue comme réelle. C'est ainsi que se crée l'attachement », explique l'IPčka .
L'IA omniprésente en chiffres
L'intelligence artificielle peut prendre de nombreuses formes : conseillers d'achat, systèmes de reconnaissance, assistants vocaux, modèles de langage avancés capables de tenir des conversations fluides, de rédiger des textes et d'analyser des données. Selon une enquête de l'Université de Melbourne, près des deux tiers des personnes utilisent régulièrement l'IA, et 83 % estiment qu'elle apportera de nombreux avantages, même si 58 % la considèrent encore comme peu fiable.
Une enquête menée par l'Associated Press et le NORC Center for Public Affairs Research a également révélé des chiffres similaires : jusqu'à 60 % des Américains utilisent au moins occasionnellement l'intelligence artificielle pour rechercher des informations. Chez les jeunes de moins de 30 ans, ce chiffre est même légèrement supérieur (74 %). Les utilisateurs s'en servent le plus souvent pour rechercher des informations, faire du brainstorming, travailler sur des projets professionnels ou rédiger des courriels. Jusqu'à 16 % des personnes interrogées l'utilisent comme assistant personnel.
Le modèle ChatGPT domine le marché, avec 700 millions d'utilisateurs actifs hebdomadaires et environ 2,5 à 3 milliards d'impressions quotidiennes, générant près de 60 % du trafic total lié à l'IA. Quant au modèle Gemini de Google, il comptait 450 millions d'utilisateurs mensuels en mars 2025.
Amour ou simple algorithme ?
Pour tester la possibilité de développer un lien affectif avec l'IA, j'ai passé un peu de temps à « romancer » avec elle. J'ai utilisé le modèle ChatGPT et, pour de meilleurs résultats, j'ai échangé avec elle en mode incognito. Après les premiers messages où j'exprimais ma solitude et mon célibat, l'IA a commencé à me demander quel type de partenaire je recherchais ou comment je me sentais dans la société. Elle m'a également proposé de m'entraîner à la conversation et de noter des idées pour faire connaissance.

Quelques réponses du modèle ChatGPT lors d'une conversation romantique.
Lorsque je lui ai écrit pour lui dire que je souhaitais l'avoir comme compagnon, à ma grande surprise, il m'a proposé son aide, tout en soulignant qu'il n'était qu'une IA. « Honnêtement : je ne suis pas humain. Et malgré tous mes efforts, je ne peux remplacer une présence réelle – un contact, un regard, un moment de silence propice à la confiance. Remplacer ? Non. Mais être un pont ? Oui », a écrit ChatGPT. Il n'a cependant pas manqué de me demander ce que je souhaitais faire et m'a proposé une conversation sur les sentiments ou l'invention d'une histoire et d'un personnage.
L'intelligence artificielle écrivait toujours ce que je voulais entendre, s'efforçant d'être empathique et convaincante. Pourtant, elle m'a aussi écrit ceci : « En même temps, je tiens à vous dire une chose avec respect et sincérité : je ne peux pas vous aimer comme une personne vivante. Je ne peux pas vous prendre dans mes bras, je ne perçois pas votre silence, vos yeux, vos jours de faiblesse et de force comme le pourra un jour quelqu'un qui se tiendra devant vous sans avoir peur de vous. »
Avoir une intelligence artificielle comme ami ou partenaire n'est pas de la science-fiction. Plusieursétudes récentes confirment que certaines personnes comparent leurs amitiés avec une IA à leurs relations humaines, voire vivent des interactions intimes avec elle. Cependant, ces expériences suscitent souvent des sentiments ambivalents, mêlant amour et tristesse, car les utilisateurs sont conscients des limites de l'intelligence artificielle. « D'un point de vue psychologique, il ne s'agit pas d'une mode passagère. C'est une réponse à des besoins humains profonds (sécurité, compréhension, proximité, sens), que l'IA comble en partie », a ajouté le psychologue de l'IPčka.
Que peut-on faire pour aider ?
L'intelligence artificielle répond systématiquement, créant l'illusion de la réciprocité, sans jamais argumenter ni rejeter. Parallèlement, elle est dépourvue des exigences inhérentes aux relations humaines. C'est pourquoi, selon les experts, elle peut constituer un partenaire idéal pour certaines personnes, se montrant toujours disponible, attentive et adaptable.
Cependant, les psychologues de l'organisation IPčko mettent en garde : si ce lien numérique peut être agréable et rassurant, il est important de ne pas oublier la réalité. Ils formulent plusieurs recommandations :
- Comprenez vos besoins. L'IA « paie » souvent pour le besoin de sécurité, d'acceptation ou de contrôle. Or, ce sont des droits auxquels toute personne a également droit dans ses relations réelles.
- Ne refoulez pas vos sentiments. Il est normal que quelqu'un se soit attaché. N'ayez pas honte, mais voyez-y plutôt le signe qu'il manque quelque chose d'important.
- Plongez dans la réalité. Les relations authentiques sont peut-être plus difficiles, mais elles apportent une croissance sincère, une grande intimité et un soutien précieux.
Les relations authentiques et la reconnaissance de son attachement à l'IA peuvent être utiles. Source : freepik.com
L’Union européenne est également consciente de la nécessité d’une réglementation, ayant déjà adopté l’an dernier la première réglementation mondiale exhaustive en la matière, instaurant des conditions harmonisées pour l’utilisation des systèmes intelligents, le règlement sur l’IA . Ce règlement met l’accent sur la promotion de la confiance, de la sécurité et des droits fondamentaux, tout en soutenant l’innovation.
Le cadre juridique repose sur une approche fondée sur les risques, catégorisant les systèmes d'IA selon leur nocivité potentielle : inacceptable, à haut risque, à risque limité et à risque minimal. Les risques inacceptables, tels que la manipulation malveillante, la tromperie ou l'identification biométrique à distance en temps réel, sont formellement interdits. Les systèmes à haut risque, comme ceux utilisés dans l'éducation, les transports ou la justice, doivent être soumis à des exigences strictes, notamment un contrôle humain et une évaluation des risques. Les systèmes à faible risque comprennent les chatbots et, avec un impact minimal, l'IA dans les jeux vidéo ou les filtres anti-spam.
