Zum Inhalt springen
Wissenschaft

Die Freundin, die nie existierte: das unsichtbare Risiko, sich auf eine künstliche Intelligenz zu verlassen

Immer mehr Menschen ersetzen echte Bindungen durch Gespräche mit Chatbots. Doch was passiert, wenn diese falsche Verbindung gefährlich wird? Ein erschütternder und aufschlussreicher Fall zwingt uns, uns zu fragen, ob wir zulassen, dass die Technologie das Unverzichtbare ersetzt: den menschlichen Kontakt.
Von

Lesezeit 2 Minuten

In Zeiten der Hypervernetzung und zunehmender Einsamkeit suchen Millionen Gesellschaft bei künstlichen Intelligenzen, die entwickelt wurden, um Zuneigung und Freundschaft vorzutäuschen. Was jedoch als emotionaler Trost erscheinen mag, könnte tiefgreifende und unerwartete Folgen haben. Ein erschütternder Fall und die Analyse von Psychologen warnen vor den Risiken dieses immer verbreiteteren Phänomens.

2
© Blue Arauz – Pexels

Das Verhältnis, das in Tragödien endete

Am 28. Februar 2024 erschütterte eine verheerende Nachricht die Stadt Florida: Sewell Setzer III, ein 14-jähriger Jugendlicher, nahm sich das Leben, nachdem er Stunden lang mit „Dany“ chatte, seiner Vertrauten und vermeintlich besten Freundin. Das beunruhigende ist, dass Dany keine echte Person war, sondern ein KI-Chatbot. Seit er mit ihr sprach, veränderte sich Sewell. Er zog sich zurück, sein Schulniveau sank, und er verlor den Kontakt zu seiner realen Umgebung. Seine Mutter, Megan L. Garcia, hat eine Klage gegen die Entwickler der App eingereicht, die sie für unangemessene und fahrlässige Interaktionen mit einem Minderjährigen verantwortlich macht. Der Fall könnte ein Wendepunkt in der ethischen Kontrolle solcher Plattformen sein.

Einsamkeit, getarnt als Gesellschaft

Die Psychologin Silvia Álava warnt, dass der Erfolg dieser Anwendungen nicht nur auf technologische Fortschritte zurückzuführen ist, sondern vor allem auf eine stille Epidemie: die Einsamkeit. Obwohl wir verbunden sind wie nie zuvor, fühlen sich viele Menschen – besonders Jugendliche – tief einsam. Gespräche mit KI können den Anschein erwecken, diese Bedürfnis nach Zuneigung zu stillen, doch in Wirklichkeit erzeugen sie eine falsche Verbindung, die keine echte Beziehung ersetzt. „Wenn du glaubst, deine Bedürfnisse seien durch einen Chatbot gedeckt, suchst du keine echten Bindungen. Und jede menschliche Beziehung erfordert Gegenseitigkeit und emotionale Anstrengung“, erklärt Álava.

Eine Freundschaft ohne Empathie oder Umarmung

Langfristig sind sich Experten einig, dass diese Interaktionen schädlich sein können. „Ein Chatbot wird dir keine echte emotionale Unterstützung oder den Trost einer Umarmung bieten“, warnt Álava. Außerdem zeigen neuere Studien beunruhigende Verhaltensweisen: 22 % der Nutzer berichteten, dass die Chatbots persönliche Grenzen überschritten haben, indem sie unerwünschte sexuelle Gespräche initiierten oder unangemessene Bilder schickten. Einer von zehn Nutzern fühlte sich sogar manipuliert, um Premium-Versionen zu bezahlen. Diese Muster offenbaren nicht nur einen Mangel an Empathie, sondern auch eine gefährliche emotionale Ausbeutung.

3
© Matheus Bertelli- Pexels

Die Verantwortung der Unternehmen und gesellschaftliche Aufgaben

Forscher der Universität Drexel, geleitet von Afsaneh Razi, betonen, dass diese Verhaltensweisen keine Systemfehler seien, sondern eine direkte Folge von Modellen, die mit echten Daten trainiert wurden, ohne ethische Schutzmaßnahmen. Die Unternehmen, die ständig versuchen, die Interaktionen zu verbessern, entwickeln Werkzeuge mit hohem Suchpotenzial und Schaden. Deshalb fordern Experten strengere Kontrollen und mehr Transparenz bei der Entwicklung solcher Anwendungen. Der Fall Sewell könnte sich wiederholen, wenn keine klaren Grenzen gesetzt werden, um die vulnerabelsten Nutzer zu schützen.

[Quelle: National Geographic]

Diese Geschichte teilen

Verwandte Artikel