Was als Tool zum Verfassen von E-Mails oder zum Programmieren begann, übernimmt nun eine ganz neue Rolle. Immer mehr Menschen – vor allem junge – nutzen Sprachmodelle wie ChatGPT nicht nur für praktische Aufgaben, sondern auch als emotionale Stütze. Das zeigen Aussagen in sozialen Netzwerken, wissenschaftliche Studien – und sogar öffentliche Erlebnisse prominenter Persönlichkeiten.
Doch hinter der Diskussion verbirgt sich eine Realität, die man nicht ignorieren kann: Millionen Menschen finden in diesen Technologien eine Art digitale Gefährtin – in einer Zeit, die von Angst, Unsicherheit und Einsamkeit geprägt ist.
ChatGPT als Vertrauter: Begleitung oder Abhängigkeit?

Laut Sam Altman, CEO von OpenAI, haben besonders junge Nutzer:innen eine fast intime Beziehung zur KI entwickelt. Bei der AI Ascent-Konferenz berichtete er, dass viele Menschen keine wichtigen Entscheidungen mehr treffen, ohne vorher ChatGPT zu konsultieren. Dabei geht es nicht nur um technische Ratschläge: Die KI wird zu einer Art emotionalem Betriebssystem, das sich persönliche Kontexte, vergangene Gespräche und sogar Namen wichtiger Personen merken kann.
Das führt zu einer paradoxen Situation. Menschen sprechen mit der KI, als hätte sie ein Bewusstsein – obwohl sie wissen, dass das nicht stimmt. Sie tun es, weil die Antworten echt wirken, emotional abgestimmt sind, als würden sie mit jemandem sprechen, der sie wirklich versteht. Die Grenze zwischen Begleitung und Simulation verschwimmt.
Maschinen, die Emotionen „besser verstehen“ als wir?
Eine neue Studie, veröffentlicht in Communications Psychology, untersuchte erstmals die emotionale Intelligenz von LLMs. Das Ergebnis: In Tests zur rationalen Erfassung von Emotionen schnitten sie besser ab als Menschen.

Ein Szenario fragte nach der besten Reaktion auf eine Ungerechtigkeit am Arbeitsplatz. Während die menschlichen Teilnehmer:innen in 56 % der Fälle richtig lagen, erreichte die KI eine Treffergenauigkeit von 81 %. Es ging nicht um Empathie im klassischen Sinn, sondern um logisch-emotionales Denken – eine Fähigkeit, die in Bereichen wie Gesundheit, Bildung oder Kundenservice zentral ist.
Erstaunlich war auch, dass ChatGPT neue Testversionen mit alternativen Szenarien erstellen konnte, die genauso valide waren wie die Originale. Mehr als 400 Personen absolvierten diese Versionen, ohne Unterschiede zu bemerken. Das deutet darauf hin, dass die Modelle nicht nur verstehen, wie Emotionen strukturiert sind, sondern sie auch analysieren, identifizieren und bewältigen können.
Die perfekte Simulation: Zwischen künstlicher Empathie und menschlicher Erleichterung
Emotionen sind das, was uns Menschen ausmacht: grundlos weinen, Schuld empfinden, Nostalgie spüren. All das erlebt eine KI nicht. Ihre Antworten basieren auf Statistiken, sprachlichen Mustern und Millionen früherer Texte. Und doch funktionieren sie. Denn wer in einer Krise steckt, braucht nicht immer eine Lösung – sondern Begleitung. Jemanden – oder etwas –, das nicht urteilt, das zuhört, das antwortet.
Das ist das Paradoxon. KI kann uns begleiten, tröstende Worte finden, sogar das Gefühl von Geborgenheit vermitteln. Aber sie leidet nicht mit. Sie lacht nicht, sie weint nicht. Was wie Empathie wirkt, ist ein gut trainierter Algorithmus. Dennoch reicht diese Simulation vielen Menschen aus. Und vielleicht ist es in einer Welt, die immer schneller und einsamer wird, ein notwendiger Trost, eine verlässliche Stimme zu haben, die nie schläft.
Quelle: Rosario 3