Zum Inhalt springen
Tech

Meta präsentiert Llama 4: Weniger „woke“, mehr wie Elon Musks Grok

Der Tech-Gigant verspricht ein politisch ausgewogeneres KI-Modell – Kritiker fürchten jedoch falsche Ausgewogenheit und Desinformation.
Von Thomas Maxwell Übersetzt von

Lesezeit 3 Minuten

Meta hat sein neuestes KI-Sprachmodell Llama 4 vorgestellt – und das Unternehmen lässt dabei keinen Zweifel daran, was es erreichen will: eine künstliche Intelligenz, die weniger liberal, weniger „woke“ und politisch ausgewogener sein soll. Laut Meta sei das Modell nun eher mit Elon Musks „nicht-wokem“ Chatbot Grok vergleichbar, der für seine provokant direkte Art bekannt ist.

Meta will raus aus der linken Filterblase

In einem Blogpost betont Meta:

„Unser Ziel ist es, politische Voreingenommenheit aus unseren KI-Modellen zu entfernen und sicherzustellen, dass Llama beide Seiten kontroverser Themen verstehen und ausdrücken kann.“

Das Unternehmen betont, dass Llama 4 jetzt auf „spaltende Fragen“ besser eingehen könne – ohne Partei zu ergreifen. Die KI solle künftig alle Standpunkte gleichwertig darstellen, ohne Wertung, so Meta weiter. Ziel sei eine neutrale, urteilsfreie Informationsverarbeitung – was auf dem Papier sinnvoll klingt, in der Praxis jedoch einige Probleme mit sich bringen kann.

Kritiker warnen vor gefährlichem „Bothsidesism“

Während Meta von „Balance“ spricht, warnen Expert:innen vor dem sogenannten Bothsidesism – der Tendenz, auch unwissenschaftliche oder extremistische Positionen als gleichwertig mit faktenbasierten Argumenten darzustellen. Wer jeder Meinung Raum gibt, auch wenn sie auf Desinformation oder Verschwörung basiert, riskiert eine Verzerrung der Realität.

Beispiel: Sollte eine KI einem Impfgegner und einer Virologin denselben argumentativen Stellenwert geben? Für manche konservative Nutzer mag das wünschenswert sein. Für Medienethiker:innen ist das jedoch ein gefährlicher Rückschritt.

KI und politische Macht – ein gefährliches Spiel

Dass Meta ausgerechnet jetzt betont, „weniger liberal“ zu sein, kommt nicht von ungefähr. CEO Mark Zuckerberg versucht verstärkt, sich politisch günstiger zu positionieren – insbesondere mit Blick auf die aktuelle Regierung unter Präsident Trump. Viele Konservative werfen Meta vor, rechte Inhalte zu zensieren, obwohl Studien belegen, dass rechtsgerichtete Inhalte auf Facebook besonders gut performen. Mit Llama 4 will man offenbar zeigen: Seht her, wir hören euch zu.

Transparenz? Fehlanzeige

Meta macht keine Angaben dazu, welche Datenquellen für das Training von Llama 4 verwendet wurden. Bekannt ist lediglich, dass wie bei anderen KI-Firmen auch, massives Webscraping und sogar das Nutzen urheberrechtlich geschützter Bücher zum Einsatz kamen. Dass politische Ausrichtung dabei durch die Trainingsdaten beeinflusst wird, ist unumstritten – das Internet spiegelt eben nicht nur Fakten, sondern auch Filterblasen, Meinungen und Trends wider.

Und: KI-Modelle sind immer noch erschreckend schlecht darin, zwischen Fakt und Fiktion zu unterscheiden. Sie „halluzinieren“ Inhalte, präsentieren Falschaussagen als Wahrheit und wirken dabei überzeugender denn je. Die traditionellen Mechanismen, mit denen man im Netz vertrauenswürdige Informationen erkennt, greifen bei KI-generiertem Output oft nicht mehr.

Auch technischer Bias bleibt ein Problem

Nicht nur inhaltlich, auch technisch sind KI-Modelle weiterhin problematisch. Bild-KIs haben etwa Schwierigkeiten, Menschen mit dunkler Hautfarbe korrekt zu erkennen. Frauen werden oft sexualisiert dargestellt. Selbst scheinbar banale Stilmittel wie der übermäßige Gebrauch von Gedankenstrichen zeigen, wie stark das Modell von bestimmten Inhalten – etwa journalistischen Texten – geprägt ist.

Meta will konservative Nutzer zurückgewinnen

Am Ende ist der Schritt wohl vor allem politisches Kalkül. Ein weniger „wokes“ Llama 4 könnte Meta dabei helfen, im konservativen Lager wieder Boden gut zu machen – und sich gleichzeitig regulatorisch Luft zu verschaffen. Ob das allerdings bedeutet, dass man demnächst von Meta-KIs Verschwörungstheorien über Pferdemedikamente gegen COVID-19 serviert bekommt? Hoffentlich nicht – aber ganz ausschließen lässt es sich offenbar nicht.


Mit Llama 4 schickt sich Meta an, seine KI aus der vermeintlichen „liberalen Blase“ zu befreien – doch was als Ausgewogenheit verkauft wird, könnte schnell zur Plattform für gefährliche Desinformation werden. Kritisch bleiben ist angesagt – auch (und gerade) beim Gespräch mit einer Maschine.

Diese Geschichte teilen

Verwandte Artikel