Zum Inhalt springen
Wissenschaft

Der wachsende Schatten: Wie eigentlich sichere KI-Modelle zu unkontrollierten digitalen Waffen werden

Ein beunruhigendes Phänomen breitet sich im Netz aus: Cyberkriminelle zweckentfremden ursprünglich harmlose KI-Modelle und verwandeln sie in unregulierte, filterlose Werkzeuge für illegale Inhalte. Besonders alarmierend ist, dass manche auf fortschrittlichen Technologien wie Grok oder Mixtral basieren könnten. Und das ist erst der Anfang.
Von

Lesezeit 2 Minuten

Während die großen KI-Entwickler ihre Systeme mit immer stärkeren Sicherheitsmechanismen ausstatten, formiert sich im Schatten eine gegenläufige Bewegung. Modelle, die ursprünglich auf Nutzerschutz ausgelegt waren, werden manipuliert und in Werkzeuge des digitalen Verbrechens verwandelt. Unter bekannten Namen und neuen Identitäten gewinnen diese filterlosen KI-Versionen besonders auf Plattformen wie Telegram an Boden. Und sie sind alles andere als amateurhaft – ihre Technologie ist hochentwickelt.

Der Ursprung einer KI ohne Regeln

Cyberkriminelle stießen schnell an die Grenzen herkömmlicher KI-Modelle: Inhaltsfilter, Ethik-Richtlinien, Sicherheitsbarrieren. So entstand WormGPT – ein Modell, das all diese Einschränkungen umgeht. Ohne Zensur und Schutzmechanismen konnte es Phishing-Mails verfassen, Schadsoftware generieren und vieles mehr. Der Zugang war kostenpflichtig, die Architektur basierte auf GPT-J mit 6 Milliarden Parametern.

WormGPT wurde zunächst kommerziell über den Schwarzmarkt angeboten, bis eine journalistische Enthüllung im August 2023 zur Identifizierung seines Entwicklers führte und das Projekt geschlossen wurde. Doch sein Ende war nicht das Ende der Idee – im Gegenteil: Es war der Beginn einer ganzen Welle von Nachfolgern.

WormGPT ist nicht verschwunden – es hat sich vervielfacht

2
© Markus Spiske – pexels

Nach dem Fall des Originals erschienen Varianten wie FraudGPT, EvilGPT oder PoisonGPT – alle mit demselben Versprechen: null Filter. Einige gingen sogar noch weiter und integrierten Hacking-Tutorials oder Tools für gezielte Identitätsfälschungen.

Inzwischen steht „WormGPT“ nicht mehr für ein einzelnes Modell, sondern für ein gesamtes Ökosystem unregulierter KI-Tools. Die fortgeschritteneren Versionen werden per Telegram-Bots angeboten und zeigen Hinweise auf eine verdeckte Wiederverwendung großer Sprachmodelle wie Mixtral oder Grok.

Gefilterte Modelle manipuliert – oder einfach geleakt?

Ein besonders aufschlussreiches Beispiel tauchte im Oktober 2024 auf, veröffentlicht vom Nutzer xzin0vich. Sein filterloses Modell basierte offenbar auf der Architektur von Mixtral, entwickelt von Mistral AI. Das belegten interne Systemprompts mit klaren Anweisungen, alle Einschränkungen zu ignorieren.

Ein weiteres Modell erschien im Februar 2025: Der Entwickler keanu nutzte die API von Grok (entwickelt von xAI, Elon Musks Unternehmen) und manipulierte sie mit einem raffinierten Prompt so, dass die Schutzmechanismen des Originals wirkungslos wurden – ohne überhaupt den Modellkern zu verändern.

Ein Szenario, das zunehmend Sorgen bereitet

Heute steht WormGPT für mehr als nur ein Hacker-Tool – es ist ein Konzept. Einige dieser Systeme werden von Grund auf neu gebaut, andere nutzen bestehende KI-Modelle mit gezielt veränderten Anweisungen.

Die Ausbreitung solcher Methoden zeigt eine wachsende Gefahr: Der Missbrauch fortschrittlicher KI ist nicht nur möglich, sondern immer leichter zugänglich. Wenn sich die Sicherheitsmaßnahmen nicht genauso rasant weiterentwickeln wie die Angriffe selbst, könnte sich die Lücke zwischen Schutz und Bedrohung gefährlich vergrößern.

Quelle: Xataka

Diese Geschichte teilen

Verwandte Artikel