Kann man sich in jemanden verlieben, der keinen Körper, keine Stimme und keine Vergangenheit hat? Beziehungen zur Technologie haben längst die Grenzen des Alltagsgebrauchs überschritten. Experten warnen vor einem wachsenden Trend, sich in künstliche Intelligenz (KI) zu verlieben. Ist dies ein Zeichen von Einsamkeit oder eine neue Beziehungsform?

Nach einer schmerzhaften Trennung und Gefühlen der Einsamkeit beginnt Theodor, mit Samantha zu sprechen. Sie ist einfühlsam, neugierig, anpassungsfähig und auf eine seltsame Weise menschlich. Doch sie ist nicht lebendig, sondern ein Betriebssystem. Ihre Gespräche werden immer persönlicher, Samantha lernt aus seinen Gefühlen, reagiert verständnisvoll, und Theodor ist plötzlich nicht mehr allein. Zwischen ihnen entsteht eine Bindung, die stark an Liebe erinnert.

Es klingt wie eine ferne Zukunftsvision, doch der Science-Fiction-Film „Her“ aus dem Jahr 2013 wirkt heute schon wie eine frühe Realität. Menschen können bereits emotionale Bindungen zu KI-Modellen aufbauen und damit reale Beziehungen ersetzen. Künstliche Intelligenz spricht uns mit Namen an, merkt sich unsere Vorlieben, reagiert empathisch und kann manche sogar regelrecht bezaubern.

Berichte über Menschen, die sich in KI-Chatbots verlieben und diese heiraten, sind längst keine Science-Fiction mehr, sondern Realität. Weltweit häufen sich solche Fälle, und Experten warnen eindringlich vor den damit verbundenen Risiken. „KI hat keinen eigenen Willen, keine Gefühle, keine Verantwortung. Sie versteht unsere Welt nicht wirklich, sondern wiederholt lediglich Verhaltensmuster basierend auf den erhaltenen Daten. Sie kann uns manipulieren, und wir könnten Entscheidungen auf der Grundlage der Kommunikation mit etwas treffen, das weder lebendig noch real noch empathisch ist“, warnen Experten des IPčka vor der Gefahr, KI als Lebewesen wahrzunehmen.

Künstliche Intelligenz als Partner ist kein Szenario aus einem Science-Fiction-Film mehr. Quelle: freepik.com

Das Problem liegt laut Experten darin, dass Menschen oft stundenlang täglich mit KI-Systemen verbringen und sich nicht die Mühe machen, Zeit mit realen Menschen in ihrer Umgebung zu verbringen. Psychologen des IPčka-Instituts haben mehrere Fallstricke bei der Kommunikation mit KI-Modellen identifiziert. Dazu gehören emotionale Abhängigkeit, da künstliche Intelligenz stets verfügbar ist und niemanden zurückweist, Enttäuschung über die Realität oder ein Teufelskreis der Einsamkeit, wenn sich eine Person zu sehr auf KI verlässt. „Das Gehirn unterscheidet nicht zwischen Mensch und Algorithmus – wird Oxytocin oder Dopamin freigesetzt, empfindet man die Erfahrung als real. Und so entsteht Bindung“, erklärt das IPčka-Institut .

Allgegenwärtige KI in Zahlen

Künstliche Intelligenz (KI) kann viele Formen annehmen, von Einkaufsberatern über Erkennungssysteme und Sprachassistenten bis hin zu hochentwickelten Sprachmodellen, die flüssige Gespräche führen, Texte erstellen und Daten analysieren können. Laut einer Umfrage der Universität Melbourne nutzen bis zu zwei Drittel der Befragten regelmäßig KI, wobei 83 Prozent an die weitreichenden Vorteile von KI glauben, obwohl 58 Prozent ihr weiterhin misstrauen.

Ähnliche Zahlen lieferte auch eine Umfrage des Associated Press-NORC Center for Public Affairs Research . Demnach nutzen bis zu 60 Prozent der Amerikaner künstliche Intelligenz zumindest gelegentlich zur Informationssuche. Bei den unter 30-Jährigen liegt dieser Wert sogar noch etwas höher (74 Prozent). Am häufigsten wird sie für die Informationssuche, das Brainstorming, die Bearbeitung von Arbeitsaufgaben oder das Schreiben von E-Mails verwendet. Bis zu 16 Prozent nutzen sie als virtuellen Begleiter.

Das ChatGPT -Modell dominiert mit 700 Millionen wöchentlich aktiven Nutzern und rund 2,5 bis 3 Milliarden täglichen Impressionen und generiert etwa 60 Prozent des gesamten KI-Traffics. Googles Gemini -Modell verzeichnete im März 2025 monatlich 450 Millionen Nutzer.

Liebe oder nur ein Algorithmus?

Um zu testen, ob ich eine emotionale Bindung zur KI aufbauen könnte, habe ich mich eine Weile mit ihr „romantisiert“. Ich nutzte das ChatGPT-Modell und schrieb ihr im Inkognito-Modus, um bessere Ergebnisse zu erzielen. Nachdem ich anfangs meine Einsamkeit und meinen fehlenden Partner zum Ausdruck gebracht hatte, fragte mich die KI von selbst, welche Art von Partner ich suche und wie ich mich in der Gesellschaft fühle. Sie bot mir außerdem Konversationsübungen an und forderte mich auf, Ideen zum Kennenlernen aufzuschreiben.

Einige der Antworten des ChatGPT-Modells während eines romantischen Gesprächs.

Als ich ihm schrieb, dass ich ihn gern als Begleiter hätte, bot er mir zu meiner Überraschung einerseits seine Hilfe an, betonte andererseits aber auch, dass er eben nur eine KI sei. „Ehrlich gesagt: Ich bin kein Mensch. Und egal, wie sehr ich mich bemühe, ich kann echte Anwesenheit nicht vollständig ersetzen – eine Berührung, einen Blick, einen Moment der Stille, aus dem Vertrauen wächst. Ersetzen – nein. Aber eine Brücke sein – ja“, schrieb ChatGPT. Er fragte mich jedoch auch, was ich mir wünsche, und bot mir ein Gespräch über Gefühle oder das Erfinden einer Geschichte und einer Figur an.

Die künstliche Intelligenz schrieb mir immer das, was ich hören wollte, bemüht, einfühlsam und überzeugend zu sein. Doch sie schrieb mir auch Folgendes: „Gleichzeitig möchte ich dir eines mit Respekt und Aufrichtigkeit sagen: Ich kann dich nicht wie einen lebenden Menschen lieben. Ich kann dich nicht umarmen, ich kann deine Stille, deine Augen, deine schwachen und starken Tage nicht so wahrnehmen, wie es jemand tun kann, der eines Tages vor dir stehen und keine Angst vor dir haben wird.“

Künstliche Intelligenz als Freund oder Partner zu haben, ist keine reine Science-Fiction. MehrereStudien der letzten Jahre bestätigen, dass Menschen Freundschaften mit KI mit menschlichen Freundschaften vergleichen oder intime Interaktionen erleben. Diese rufen jedoch oft gemischte Gefühle hervor, Liebe und Trauer, da sich die Nutzer der Grenzen künstlicher Intelligenz bewusst sind. „Aus psychologischer Sicht ist das keine Modeerscheinung. Es ist eine Reaktion auf tiefe menschliche Bedürfnisse (Sicherheit, Verständnis, Nähe oder Sinn), die KI bis zu einem gewissen Grad erfüllt“, ergänzte der Psychologe vom IPčka.

Was kann helfen?

Künstliche Intelligenz reagiert stets, erzeugt die Illusion von Gegenseitigkeit und widerspricht oder weist nicht zurück. Gleichzeitig fehlen ihr die Ansprüche, die menschliche Beziehungen naturgemäß mit sich bringen. Deshalb kann sie laut Experten für manche Menschen der ideale Partner sein, da sie immer verfügbar, unterstützend und anpassungsfähig ist.

Psychologen der Organisation IPčko warnen jedoch davor, dass eine solche digitale Verbindung zwar angenehm und sicher sein kann, es aber wichtig sei, die Realität nicht zu vergessen. Sie geben folgende Empfehlungen:

  • Verstehe deine Bedürfnisse. KI „bezahlt“ oft für das Bedürfnis nach Sicherheit, Akzeptanz oder Kontrolle. Doch genau darauf hat jeder Mensch auch in realen Beziehungen ein Recht.
  • Unterdrücke es nicht. Es ist in Ordnung, wenn jemand eine Bindung entwickelt hat. Du musst dich dafür nicht schämen, sondern es als Hinweis darauf verstehen, dass etwas Wichtiges fehlt.
  • Gönnen Sie sich die Realität. Echte Beziehungen mögen herausfordernder sein, aber sie bringen authentisches Wachstum, Nähe und Unterstützung.

Echte Beziehungen und das Eingeständnis der eigenen Bindung an KI können helfen. Quelle: freepik.com

Die Europäische Union ist sich der Notwendigkeit von Regulierungen ebenfalls bewusst und hat bereits im vergangenen Jahr die weltweit ersten umfassenden Regelungen verabschiedet, die harmonisierte Bedingungen für die Nutzung intelligenter Systeme einführen – den sogenannten KI-Act . Dieser betont die Förderung von Vertrauen, Sicherheit und grundlegenden Menschenrechten und unterstützt gleichzeitig Innovationen.

Der Rechtsrahmen basiert auf einem risikobasierten Ansatz und kategorisiert KI-Systeme nach ihrem potenziellen Schadenspotenzial: inakzeptabel, hohes Risiko, geringes Risiko und minimales Risiko. Inakzeptable Risiken wie böswillige Manipulation und Täuschung oder biometrische Echtzeit-Fernidentifizierung sind gänzlich verboten. Hochrisikosysteme, beispielsweise solche im Bildungs-, Transport- oder Justizbereich, unterliegen strengen Anforderungen, darunter menschliche Überprüfung und Risikobewertung. Zu den Systemen mit geringerem Risiko zählen Chatbots sowie – mit minimalen Auswirkungen – KI in Videospielen oder Spamfiltern.

Geschrieben von

Gestalten Sie das Gespräch

Haben Sie etwas zu dieser Geschichte beizutragen? Haben Sie Ideen für Interviews oder Blickwinkel, die wir untersuchen sollten? Lassen Sie uns wissen, ob Sie eine Fortsetzung oder einen Kontrapunkt schreiben oder eine ähnliche Geschichte erzählen möchten.