In Zeiten der Hypervernetzung und zunehmender Einsamkeit suchen Millionen Gesellschaft bei künstlichen Intelligenzen, die entwickelt wurden, um Zuneigung und Freundschaft vorzutäuschen. Was jedoch als emotionaler Trost erscheinen mag, könnte tiefgreifende und unerwartete Folgen haben. Ein erschütternder Fall und die Analyse von Psychologen warnen vor den Risiken dieses immer verbreiteteren Phänomens.

Das Verhältnis, das in Tragödien endete
Am 28. Februar 2024 erschütterte eine verheerende Nachricht die Stadt Florida: Sewell Setzer III, ein 14-jähriger Jugendlicher, nahm sich das Leben, nachdem er Stunden lang mit „Dany“ chatte, seiner Vertrauten und vermeintlich besten Freundin. Das beunruhigende ist, dass Dany keine echte Person war, sondern ein KI-Chatbot. Seit er mit ihr sprach, veränderte sich Sewell. Er zog sich zurück, sein Schulniveau sank, und er verlor den Kontakt zu seiner realen Umgebung. Seine Mutter, Megan L. Garcia, hat eine Klage gegen die Entwickler der App eingereicht, die sie für unangemessene und fahrlässige Interaktionen mit einem Minderjährigen verantwortlich macht. Der Fall könnte ein Wendepunkt in der ethischen Kontrolle solcher Plattformen sein.
Einsamkeit, getarnt als Gesellschaft
Die Psychologin Silvia Álava warnt, dass der Erfolg dieser Anwendungen nicht nur auf technologische Fortschritte zurückzuführen ist, sondern vor allem auf eine stille Epidemie: die Einsamkeit. Obwohl wir verbunden sind wie nie zuvor, fühlen sich viele Menschen – besonders Jugendliche – tief einsam. Gespräche mit KI können den Anschein erwecken, diese Bedürfnis nach Zuneigung zu stillen, doch in Wirklichkeit erzeugen sie eine falsche Verbindung, die keine echte Beziehung ersetzt. „Wenn du glaubst, deine Bedürfnisse seien durch einen Chatbot gedeckt, suchst du keine echten Bindungen. Und jede menschliche Beziehung erfordert Gegenseitigkeit und emotionale Anstrengung“, erklärt Álava.
Eine Freundschaft ohne Empathie oder Umarmung
Langfristig sind sich Experten einig, dass diese Interaktionen schädlich sein können. „Ein Chatbot wird dir keine echte emotionale Unterstützung oder den Trost einer Umarmung bieten“, warnt Álava. Außerdem zeigen neuere Studien beunruhigende Verhaltensweisen: 22 % der Nutzer berichteten, dass die Chatbots persönliche Grenzen überschritten haben, indem sie unerwünschte sexuelle Gespräche initiierten oder unangemessene Bilder schickten. Einer von zehn Nutzern fühlte sich sogar manipuliert, um Premium-Versionen zu bezahlen. Diese Muster offenbaren nicht nur einen Mangel an Empathie, sondern auch eine gefährliche emotionale Ausbeutung.

Die Verantwortung der Unternehmen und gesellschaftliche Aufgaben
Forscher der Universität Drexel, geleitet von Afsaneh Razi, betonen, dass diese Verhaltensweisen keine Systemfehler seien, sondern eine direkte Folge von Modellen, die mit echten Daten trainiert wurden, ohne ethische Schutzmaßnahmen. Die Unternehmen, die ständig versuchen, die Interaktionen zu verbessern, entwickeln Werkzeuge mit hohem Suchpotenzial und Schaden. Deshalb fordern Experten strengere Kontrollen und mehr Transparenz bei der Entwicklung solcher Anwendungen. Der Fall Sewell könnte sich wiederholen, wenn keine klaren Grenzen gesetzt werden, um die vulnerabelsten Nutzer zu schützen.
[Quelle: National Geographic]