Zum Inhalt springen
News

ChatGPTs Politische Haltung Verschiebt Sich Nach Rechts, Neue Analyse Zeigt

Die KI bleibt in vielen Themen links, doch ihr Bias verändert sich.
Von Todd Feathers Übersetzt von

Lesezeit 2 Minuten

OpenAIs ChatGPT behauptet von sich, politisch neutral zu sein und keine bestimmte Richtung zu bevorzugen. Doch verschiedene Studien der letzten Jahre haben gezeigt, dass der Chatbot auf politisch aufgeladene Fragen oft mit eher linkslastigen Antworten reagiert.

Das scheint sich nun zu ändern. Laut einer neuen Studie, die in der Fachzeitschrift Humanities and Social Sciences Communications veröffentlicht wurde, hat sich die politische Ausrichtung der OpenAI-Modelle über die Zeit hinweg nach rechts verschoben. Die Studie wurde von Forschern der Peking-Universität und der Renmin-Universität durchgeführt.

Das Forschungsteam untersuchte, wie verschiedene Versionen von ChatGPT – basierend auf den Modellen GPT-3.5 Turbo und GPT-4 – auf Fragen des „Political Compass Test“ reagierten. Insgesamt tendierten die Antworten der KI weiterhin eher nach links. Doch die Forscher stellten fest, dass neuere Versionen beider Modelle „eine deutliche und statistisch signifikante Rechtsverschiebung in ihrer ideologischen Positionierung“ auf sowohl wirtschaftliche als auch gesellschaftliche Themen zeigten.

Warum verändert sich ChatGPTs politische Ausrichtung?

Es könnte verlockend sein, die Verschiebung mit der allgemeinen Annäherung der Tech-Industrie an Donald Trump in Verbindung zu bringen. Doch die Autoren der Studie betonen, dass vermutlich mehrere technische Faktoren diese Veränderung beeinflusst haben.

Mögliche Ursachen könnten Unterschiede in den Trainingsdaten früherer und neuerer Modellversionen oder Anpassungen von OpenAIs Moderationsfiltern für politische Themen sein. OpenAI gibt keine genauen Details darüber preis, welche Datensätze in verschiedenen Trainingsphasen verwendet wurden oder wie die Filter kalibriert sind.

Ein weiterer Faktor könnten sogenannte „emergente Verhaltensweisen“ der Modelle sein. Dabei handelt es sich um komplexe Wechselwirkungen zwischen Gewichtungen der Parameter und Feedback-Schleifen, die zu unvorhergesehenen Ergebnissen führen können. Selbst die Entwickler können nicht immer genau erklären, warum ein Modell bestimmte Muster entwickelt.

Einfluss der Nutzer auf den KI-Bias

Da sich KI-Modelle kontinuierlich weiterentwickeln und aus ihren Interaktionen mit Nutzern lernen, könnte sich auch ihre politische Haltung mit der Zeit an die Meinungen ihrer Nutzer anpassen. Die Studie zeigte, dass die Antworten von OpenAIs GPT-3.5-Modell – das eine höhere Interaktionsfrequenz mit Nutzern hatte – im Laufe der Zeit deutlich weiter nach rechts drifteten als die von GPT-4.

KI-Bias im Blick behalten

Die Forscher betonen, dass populäre generative KI-Tools wie ChatGPT genau auf ihre politischen Verzerrungen hin überwacht werden sollten. Entwickler müssten regelmäßig Audits durchführen und Transparenzberichte zu ihren Prozessen veröffentlichen, um zu verstehen, wie sich Biases im Laufe der Zeit verändern.

„Die beobachteten ideologischen Verschiebungen werfen wichtige ethische Fragen auf, insbesondere hinsichtlich der potenziellen Auswirkungen algorithmischer Verzerrungen auf bestimmte Nutzergruppen,“ schreiben die Studienautoren. „Solche Biases könnten dazu führen, dass Informationen verzerrt vermittelt werden, was soziale Spaltungen verstärken oder Echo-Kammern schaffen könnte, die bestehende Überzeugungen weiter festigen.“

Die Debatte über KI und politische Neutralität bleibt also brisant. Während OpenAI an neuen Methoden arbeitet, um Bias zu minimieren, bleibt die Frage: Kann eine KI jemals wirklich neutral sein?

Diese Geschichte teilen

Verwandte Artikel