Zum Inhalt springen
News

Ein von KI geschaffenes alternatives Universum, in dem die MAGA immer gewinnen, erobert YouTube

Eine ideologische Fiktionsblase mit Millionen von Aufrufen, leichtgläubigen Kommentaren und sogar Monetarisierung.
Von Lucas Handley Übersetzt von

Lesezeit 2 Minuten

Ein Netzwerk von Videos, die von künstlicher Intelligenz erstellt wurden und in denen MAGA-Figuren und fiktive Situationen die Hauptrolle spielen, hat YouTube erobert, Einnahmen generiert und Tausende Nutzer getäuscht.

In der digitalen Ära wird die Grenze zwischen Fiktion und Realität immer verschwommener.

Ein neuer Bericht enthüllt eine sehr spezielle Ecke von YouTube, in der vollständig mit künstlicher Intelligenz erstellte pro-MAGA alternative Universen emotional manipulativen und lukrativen Inhalt bieten. Mit Figuren wie Donald Trump, Barron Trump oder Karoline Leavitt als Helden ziehen diese erfundenen Geschichten die Aufmerksamkeit – und das Geld – von Tausenden Nutzern auf sich, insbesondere bei älteren Generationen.

Gefälschte Videos mit emotionaler Ästhetik: das Erfolgsrezept

Der Bericht von Mother Jones zeigt auf, wie Kanäle wie Elite Stories und Mr. Robe Stories darauf spezialisiert sind, Videos zu produzieren, in denen die MAGA-Protagonisten immer ihre Gegner in völlig fiktiven Szenarien „besiegen“. Diese Produktionen, erzählt von KI-generierten Stimmen und begleitet von synthetischen Bildern, dauern in der Regel zwischen 10 und 40 Minuten – genug Zeit, um mehrere Anzeigen einzufügen und jede Geschichte zu monetarisieren. Einige dieser Videos wurden trotz ihrer irreführenden Natur sogar offiziell monetarisiert.

Ein virales Beispiel war: „Ein Mädchen fragt Trump nach Gott – seine Antwort bringt sie zum Weinen“. In anderen Stücken tauchen Figuren wie Generalstaatsanwältin Pam Bondi oder Clint Eastwood auf, ohne klaren Kontext, aber immer mit einer symbolischen Rolle zur Stärkung des konservativen Narrativs.

YouTube ergriff anscheinend Maßnahmen nach der Veröffentlichung des Artikels, und Elite Stories ist nicht mehr verfügbar. Eine zwischengespeicherte Version zeigt jedoch, dass der Kanal über 160.000 Abonnenten hatte. In der Zwischenzeit wurde Mr. Robe Stories, ein weiterer ähnlicher Kanal, ebenfalls gelöscht, hatte jedoch mehr als 41.000 Abonnenten mit Titeln, die kaum zu glauben sind, wie „Karoline Leavitt antwortet kraftvoll nach Michelle Obamas Spott“ oder „Barron Trump konfrontiert einen Lehrer, der Melania lächerlich macht – seine Antwort überrascht alle“.

Die Macht der Fiktion und das Problem der rentablen Desinformation

Obwohl die Videos mit einem Hinweis beginnen, der erklärt, dass sie fiktiv sind, hindert das viele Zuschauer nicht daran, sie als echte Berichte zu betrachten. In den Kommentaren liest man Aussagen wie: „Barron ist so ein respektvoller junger Mann, seine Eltern müssen stolz auf ihn sein“ oder „Mein Respekt für Lehrer ist weiter gesunken“. Die Wahrheit ist nebensächlich, wenn das Publikum glauben will.

Noch beunruhigender ist die Art der Werbung, die in diesen Inhalten eingebettet ist. Beim Ansehen einiger dieser Videos im Inkognito-Modus wurde dem Journalisten zweifelhafte Wissenschaftswerbung über Alzheimer gezeigt, etwa dass die Krankheit durch das Trinken von Wasser bei falscher Temperatur verursacht werde.

Diese Situation stellt die Effektivität der Inhaltsmoderationssysteme von YouTube in Frage. Obwohl die Plattform kürzlich eine Erklärung zur Unterstützung des Gesetzes NO FAKES von 2025 – vorgeschlagen zum Schutz des Bildes und der Stimme von Personen, die von KI repliziert werden – abgegeben hat, zeigt die Realität, dass noch viel getan werden muss, um die verantwortungslose Nutzung dieser Technologie zu kontrollieren.

Gizmodo kontaktierte YouTube für eine Stellungnahme. Derzeit fließen von KI generierte Inhalte weiterhin, um parallele Universen zu nähren, die darauf ausgelegt sind, zu emotionalisieren, zu polarisieren und zu monetarisieren.

Diese Geschichte teilen

Verwandte Artikel