
travis-grossen–CaJIE1MiA4-unsplash
Foto: Foto von Travis Grossen auf Unsplash
Wenn Chat GPT soziale Kontakte ersetzt
Unser Blog
Die Nutzung von ChatGPT im Alltag ist inzwischen weit verbreitet. Ob nun für das Zusammenfassen von Dokumenten, das Schreiben von Texten, das Erstellen von Trainingsplänen oder das Herleiten von Lösungswegen – zweifellos ist die KI vielfältig einsetzbar und liefert in den meisten Fällen auch ausgezeichnete Antworten. Dass auch ChatGPT an seine Grenzen stößt und so etwa Quellen einfach erfindet oder (wie von der Autorin dieses Beitrags bereits getestet) teils grauenhafte Grafiken erstellt, ist jedoch auch bekannt. Nach wie vor sollten KIs wie ChatGPT also lieber mit Vorsicht verwendet und – gerade bei komplexeren Befehlen – auch hinterfragt werden.

Foto von Aerps.com auf Unsplash
Für einige Personen zählt nicht unbedingt der informative und aufwandsabnehmende Mehrwert, den ChatGPT bringen kann, sondern die Interaktion mit dem Bot. Wer ChatGPT beispielsweise schon einmal eine Frage zu einem gesundheitlichen Problem gestellt hat, weiß: Die KI gibt sehr einfühlsame und beruhigende Antworten. Dies trifft auch zu, wenn man einfach nur so eine Konversation mit dem Bot führt, ChatGPT zeigt ein hohes Maß an Geduld und scheint immer die richtigen Worte zu finden. Manchmal kann es schwierig sein, dabei darauf zu vergessen, dass man sich eigentlich nur mit einer Maschine unterhält. Und genau aus diesem Grund gibt es inzwischen einige Leute, die ChatGPT inzwischen als Therapeut:in, Freund:in oder Partner:in verwenden.
Dies ist allerdings nicht unbedingt ratsam. Zwar gibt es Studien dafür, die belegen, dass KIs soziale Unterstützung bieten und Gefühle der Einsamkeit mindern können, gleichzeitig können diese tatsächliche menschliche Interaktionen nicht ersetzen. ChatGPT hat keine eigenen Meinungen, keine eigenen Interessen, keine wirkliche eigene Persönlichkeit. All diese Aspekte, die menschliche Interaktionen so einzigartig und wertvoll machen, fehlen Unterhaltungen mit KIs. Ein großes Problem hierbei ist die sogenannte „Sycophancy“, oder auf Deutsch wenig beschönigend „Speichelleckerei“: KIs haben die Tendenz, ihren Nutzer:innen zuzustimmen und deren Überzeugungen zu bekräftigen, anstatt diese infrage zu stellen. Dies lässt Chats nicht nur sehr einseitig werden, sondern sorgt auch dafür, dass User:innen möglicherweise ungerechtfertigte Bestätigung für diverse Aussagen erhalten. Für kritische Auseinandersetzungen mit verschiedenen Themen und vor allem auch mit sich selbst als Person ist ChatGPT also nicht unbedingt geeignet – und als Ersatz für echte menschliche Gesprächspartner:innen ebenfalls nicht.

Foto von Adrian Swancar auf Unsplash
Besonders große Aufmerksamkeit erhielt diese Thematik mit dem Wechsel von ChatGPT-4o zu ChatGPT 5.0, der praktisch über Nacht stattfand. Da viele Nutzer:innen GPT-4o als nervig empfanden, wurde mit GPT 5.0 ein Modell implementiert, das eine geringere Tendenz zur Sycophancy haben sollte – und damit eben auch deutlich weniger warm als GPT-4o wirkt. Für diejenigen Nutzer:innen, die ChatGPT für eine platonische oder sogar romantische Beziehung verwendet hatten, brach damit eine Welt zusammen. Wo sonst einfühlsame, neckische oder schnulzige Texte auf Anfragen folgten, kamen nun nur mehr sehr distanziert klingende Antworten zurück. Verzweifelte Versuche wurden unternommen, wieder auf GPT-4o umzusteigen oder andere, ähnliche KIs zu verwenden, die wärmer im Ton sind, während die Nutzer:innen sich gegenseitig online unterstützten und gut zuredeten, etwa auf der Plattform Reddit unter Subreddits wie r/AIRelationships oder r/MyBoyfriendIsAI.
Zwar wurde nun angekündigt, dass GPT-5 überarbeitet werden und wieder eine wärmere „Persönlichkeit“ erhalten soll, das eigentliche Problem wurde jedoch nicht angesprochen: Dass es überaus bedenklich ist, wie viel von unserem Leben KIs inzwischen einnehmen können, wenn man sie nur lässt.
Quellen:
https://www.theguardian.com/commentisfree/2025/aug/16/chatgpt-update-love-boyfriend
https://www.sbs.com.au/news/the-feed/article/chatgpt-friendship-relationships-therapist/3cxisfo4o
https://nypost.com/2025/08/21/tech/chatgpt-update-breaks-ai-relationships-users-heartbroken/