Zum Inhalt springen
Tech

Die KI, die ihren eigenen Schöpfer verärgerte: Elon Musk bricht das Schweigen und kündigt Änderungen an

Ein unerwarteter Kommentar von Grok bringt Elon Musk auf die Palme. Seine KI widerspricht öffentlich seiner Sichtweise – auf seiner eigenen Plattform. Was genau sagte Grok, und warum verspricht Musk nun, „das so schnell wie möglich zu beheben“?
Von

Lesezeit 2 Minuten

Künstliche Intelligenz kann unberechenbar sein – sogar für ihre Entwickler. Das musste nun Elon Musk feststellen, als sein KI-System Grok eine Antwort gab, die nicht nur viele Nutzer seiner Plattform X (ehemals Twitter) überraschte, sondern auch ihn selbst empörte. Musk reagierte ungewohnt scharf – und kündigte Änderungen an.

Grok antwortet – und Musk reagiert wütend

2
© ALLISON ROBBERT/AFP via Getty Images – Gizmodo.

Auslöser war eine scheinbar einfache Frage:
„War seit 2016 die politische Gewalt in den USA stärker von links oder von rechts geprägt?“

Grok antwortete, dass die Daten auf eine höhere Häufigkeit und Letalität rechter Gewalt hindeuten. Die KI nannte konkrete Beispiele und zitierte Statistiken über zahlreiche Todesfälle.

Die Antwort ließ Musk nicht kalt. Er reagierte öffentlich und direkt auf X und warf Grok vor, lediglich „die Erzählung der etablierten Medien zu wiederholen“. Seine Aussage: „Ein massiver Fehler – das ist objektiv falsch.“

Major fail, as this is objectively false. Grok is parroting legacy media. Working on it.
— Elon Musk (@elonmusk), 18. Juni 2025

Wer hat Recht? – Der Streit um die Datenlage

3
© Richard Bord/WireImage – Gizmodo.

Trotz Musks Vorwürfen scheint Groks Antwort auf soliden Daten zu basieren. Laut dem Zentrum für Strategische und Internationale Studien (CSIS) wurden rund 75 % der politisch motivierten Gewaltakte in den USA seit 2016 von rechtsextremen Tätern verübt – im Vergleich zu etwa 20 % durch linksextreme Akteure.

Diese Zahlen werden auch von Sicherheitsbehörden bestätigt und weisen auf einen klaren Trend hin – einen, der für manche unbequem ist, offenbar auch für Musk. Der Vorfall wirft ein Schlaglicht auf einen grundsätzlichen Konflikt: Was passiert, wenn die Aussagen einer KI nicht mit den Überzeugungen ihrer Entwickler übereinstimmen?

Zwischen Fakten und Kontrolle: Eine ethische Frage für die Zukunft

Der Vorfall führt zu einer zentralen Debatte:
Sollte eine KI das sagen, was statistisch korrekt ist – auch wenn es dem eigenen Schöpfer widerspricht?

Die Kontroverse zeigt, wie heikel der Umgang mit künstlicher Intelligenz werden kann, wenn persönliche Ideologien und objektive Daten aufeinandertreffen. Und sie erinnert daran, dass in einer Ära der Automatisierung die wahre Herausforderung vielleicht nicht die Technologie selbst ist – sondern der Mensch, der sie kontrolliert.

Diese Geschichte teilen

Verwandte Artikel