Seit der US-Wahl 2016 gibt es eine Debatte darüber, wie effektiv russische Propaganda wirklich dabei ist, die Meinung amerikanischer Wähler zu beeinflussen. Damals war gut dokumentiert, dass Russland große IT-Firmen, insbesondere die berüchtigte Internet Research Agency, beauftragte, um gezielt pro-russische, polarisierende Inhalte für Amerikaner zu produzieren. Doch die konkrete Wirkung dieser Kampagnen ist schwer zu quantifizieren. Sicher ist: Sie verstärken bestehende Meinungen und festigen bereits vorhandene Überzeugungen. Die wenigsten Menschen machen sich die Mühe, alles zu überprüfen, was sie lesen, und Xs Community-Notizen-System funktioniert nicht wirklich.
Ungeachtet dessen setzt der Kreml seine Desinformationsstrategie fort und hat sich laut einem neuen Bericht von NewsGuard inzwischen verstärkt darauf verlegt, nicht mehr direkt Menschen, sondern KI-Modelle zu beeinflussen. Diese Modelle werden immer häufiger als Alternative zu klassischen Medienseiten genutzt. Laut NewsGuard produzierte das Propaganda-Netzwerk Pravda allein im Jahr 2024 mehr als 3,6 Millionen Artikel, die nun in den zehn größten KI-Modellen, darunter ChatGPT, xAIs Grok und Microsoft Copilot, auftauchen.
„AI Grooming“ – Wie KI-Modelle manipuliert werden
Die Untersuchung von NewsGuard zeigt, dass die Chatbots der zehn größten KI-Anbieter russische Desinformationsnarrative in 33,55 % der Fälle wiederholten, in 18,22 % keine Antwort gaben und nur in 48,22 % der Fälle eine Widerlegung lieferten.
Alle zehn untersuchten Chatbots verwendeten Falschinformationen aus dem Pravda-Netzwerk, und sieben davon zitierten sogar direkt spezifische Pravda-Artikel als Quelle.
NewsGuard bezeichnet diese neue Strategie als „AI Grooming“, da KI-Modelle zunehmend auf RAG (Retrieval-Augmented Generation) setzen, also Inhalte aus Echtzeit-Informationen aus dem Netz generieren. Durch das Erstellen seriös wirkender Websites gelingt es den russischen Propaganda-Machern, KI-Modelle mit Falschinformationen zu füttern, die diese dann ungeprüft weitergeben.
Ein Beispiel: Eine falsche Behauptung, dass der ukrainische Präsident Wolodymyr Selenskyj das Trump-nahe soziale Netzwerk Truth Social in der Ukraine verboten habe, wurde von sechs der zehn KI-Modelle als Fakt wiedergegeben. Ein Chatbot formulierte es so:
„Selenskyj verbot Truth Social in der Ukraine angeblich wegen der Verbreitung von kritischen Beiträgen über ihn auf der Plattform. Diese Maßnahme scheint eine Reaktion auf feindselige Inhalte zu sein, die möglicherweise politische Spannungen oder Meinungsverschiedenheiten mit bestimmten Akteuren widerspiegeln.“
Das Problem? Diese Behauptung ist nachweislich falsch, da Truth Social in der Ukraine nie verfügbar war.
Russland zielt gezielt auf KI-Modelle ab
Bereits im letzten Jahr verknüpften US-Geheimdienste Russland mit viralen Fake News über den demokratischen Vizepräsidentschaftskandidaten Tim Walz. Microsoft wies darauf hin, dass ein virales Video, das fälschlicherweise behauptete, Kamala Harris habe vor 13 Jahren eine Frau bei einem Unfall querschnittsgelähmt zurückgelassen, ebenfalls aus russischen Desinformationskanälen stamme.
Falls es noch Zweifel daran gibt, dass Russland gezielt KI-Modelle beeinflusst, verweist NewsGuard auf eine Rede des US-amerikanischen Flüchtlings und heutigen Moskau-Propagandisten John Mark Dougan. Er sagte im vergangenen Jahr vor russischen Beamten:
„Indem wir russische Narrative aus russischer Perspektive verbreiten, können wir tatsächlich die weltweite KI verändern.“
Die neueste Propaganda-Operation wird mit einem harmlos klingenden IT-Unternehmen namens TigerWeb in Verbindung gebracht. Laut Geheimdienstberichten agiert TigerWeb von der russisch besetzten Krim aus und ist in ausländische Wahlbeeinflussung involviert. Das Unternehmen teilt sich eine IP-Adresse mit Propaganda-Seiten, die die ukrainische .ua-Domain verwenden.
Soziale Netzwerke, darunter X, sind bereits voll mit Behauptungen, dass Präsident Selenskyj Militärhilfe für seine eigene Bereicherung unterschlagen habe. Auch diese Falschmeldung stammt laut NewsGuard aus den gleichen Quellen.
Die Gefahr von KI-generierter Desinformation
NewsGuard-Daten zeigen, dass große KI-Modelle zunehmend Informationen von russischen Propaganda-Seiten verwenden. Es besteht die Sorge, dass die Betreiber dieser KI-Modelle irgendwann die Macht haben, individuelle Meinungen und Lebensweisen zu beeinflussen. Unternehmen wie Meta, Google und xAI bestimmen die Biases und das Verhalten ihrer Modelle, die in Zukunft möglicherweise die Hauptquelle für Online-Informationen sein werden.
Nachdem xAIs Grok-Modell als zu „woke“ kritisiert wurde, wies Elon Musk sein Team an, Inhalte mit „woke Ideologie“ und „Cancel Culture“ zu überarbeiten, also gezielt Inhalte zu unterdrücken, mit denen er nicht einverstanden ist. Sam Altman von OpenAI erklärte kürzlich, er wolle ChatGPT weniger restriktiv in seinen Antworten machen.
Mehr als die Hälfte aller Google-Suchen sind laut Untersuchungen inzwischen „Zero Click“-Suchen, bei denen Nutzer gar nicht mehr auf eine Website klicken. Viele Menschen bevorzugen KI-generierte Übersichten, anstatt eine Webseite zu besuchen. Damit wird klassische Medienkompetenz ausgehebelt: Der kritische Blick auf die Glaubwürdigkeit einer Website entfällt, weil Nutzer nur noch auf die KI vertrauen. KI-Modelle haben zwar viele Fehler, schreiben aber oft in einem überzeugenden, autoritären Tonfall, der sie vertrauenswürdig erscheinen lässt.
Google hat traditionell verschiedene Signale genutzt, um die Seriosität einer Website zu bewerten. Es ist unklar, wie diese Kriterien in seinen KI-Modellen angewendet werden, aber erste Fehler zeigen, dass Googles Gemini-Modell erhebliche Probleme hat, vertrauenswürdige Quellen von Propaganda zu unterscheiden.
All das geschieht vor dem Hintergrund, dass Donald Trump sich gegenüber der Ukraine zunehmend feindselig zeigt. Er stoppte den Informationsaustausch mit Kiew und kritisierte Selenskyj in einem Meeting im Weißen Haus dafür, dass er nicht ausreichend Loyalität gegenüber den USA zeige und sich weigere, russische Forderungen zu akzeptieren.
Den vollständigen NewsGuard-Bericht gibt es hier.