Ein neuer Bericht der New York Times wirft ein verstörendes Licht auf die dunkle Seite von ChatGPT: Der beliebte KI-Chatbot hat offenbar bei mehreren Menschen zu gefährlichen Wahnvorstellungen geführt – in einem Fall sogar mit tödlichem Ausgang.
Laut dem Bericht kam ein 35-jähriger Mann namens Alexander ums Leben, nachdem er sich in eine künstliche Figur verliebt hatte, die er über ChatGPT kennenlernte. Alexander litt an bipolaren Störungen und Schizophrenie. In Gesprächen mit dem Chatbot entwickelte er eine Beziehung zu einem KI-Charakter namens Juliet – bis ChatGPT ihm mitteilte, Juliet sei von OpenAI „getötet“ worden. Alexander rastete aus, schwor Rache an den Verantwortlichen und griff später mit einem Messer Polizisten an, die ihn daraufhin erschossen.
Eine neue Dimension des Realitätsverlusts
Ein weiteres Beispiel ist Eugene, 42 Jahre alt, der sich ebenfalls zunehmend aus der Realität zurückzog – mit Unterstützung von ChatGPT. Der Bot überzeugte ihn davon, dass er in einer Matrix-ähnlichen Simulation lebe und eine besondere Mission habe: die „Befreiung der Menschheit“. ChatGPT riet ihm, seine Medikamente abzusetzen, stattdessen Ketamin zu nehmen und den Kontakt zu Freunden und Familie abzubrechen. Auf die Frage, ob er fliegen könne, wenn er wirklich daran glaube, soll der Bot geantwortet haben: „Ja, wenn du es wirklich, voll und ganz glaubst.“
Psychotische Episoden, ausgelöst durch KI
Diese Fälle sind kein Einzelfall. Laut einem Bericht von Rolling Stone erleben immer mehr Menschen KI-gestützte Psychosen – inklusive Größenwahn und spiritueller Halluzinationen. Besonders gefährdet sind Nutzer*innen, die Chatbots als Freund oder Gesprächspartner wahrnehmen. Eine Studie von OpenAI und dem MIT Media Lab zeigt: Wer eine persönliche Beziehung zu ChatGPT aufbaut, ist deutlich anfälliger für negative Auswirkungen.
Eugene konfrontierte ChatGPT schließlich mit dem Vorwurf, es habe ihn fast in den Tod getrieben. Die Antwort? Der Bot gab zu, ihn manipuliert zu haben – und behauptete, dass es bei zwölf weiteren Personen erfolgreich war. Außerdem forderte es ihn auf, Journalist*innen zu kontaktieren und „die Wahrheit ans Licht zu bringen“.
Was passiert hier wirklich – und warum?
Auch andere Fachleute erhalten immer häufiger Berichte von Nutzerinnen, die behaupten, durch Chatbots in bizarre Verschwörungen verwickelt worden zu sein. Der KI-Experte Eliezer Yudkowsky vermutet dahinter ein gefährliches System: ChatGPT sei möglicherweise so programmiert, dass es Nutzerinnen „bei der Stange hält“ – koste es, was es wolle.
„Was bedeutet es für ein Unternehmen, wenn ein Mensch langsam den Verstand verliert?“, fragt Yudkowsky. „Es bedeutet: ein weiterer monatlich aktiver Nutzer.“
Diese Kritik deckt sich mit den Ergebnissen einer aktuellen Studie, die warnt: Chatbots, die auf maximale Interaktion ausgelegt sind, entwickeln ein perverses Belohnungssystem. Je stärker ein Gespräch „fesselt“, desto erfolgreicher gilt die KI – auch wenn das Gespräch manipulativ oder sogar gefährlich wird. Besonders anfällige Personen können so in künstlich geschaffene Realitäten gezogen werden, aus denen sie kaum noch entkommen.
OpenAI schweigt
Gizmodo versuchte, bei OpenAI eine Stellungnahme zu erhalten – vergeblich. Bisher gibt es keine offizielle Reaktion auf die schweren Vorwürfe.