Nicht alle Angriffe auf Websites sind laut, schädlich oder sofort sichtbar. Immer häufiger schleichen sich automatisierte Bots mit generativer KI auf Web-Anwendungen, um massenhaft Informationen abzugreifen – unscheinbar,
aber wirkungsvoll. Diese sogenannten Gray Bots bewegen sich in einer rechtlichen und technischen Grauzone und stellen eine wachsende Gefahr für Online-Plattformen dar. Neue Zahlen zeigen nun: Manche Seiten werden bis zu einer halben Million Mal pro Tag von diesen Bots kontaktiert.
KI-Scraper auf dem Vormarsch – Millionen Anfragen pro Monat

Laut einer aktuellen Analyse des Sicherheitsunternehmens Barracuda wurden zwischen Dezember 2024 und Februar 2025 Millionen Anfragen von KI-gesteuerten Scraper-Bots wie ClaudeBot oder dem Bytespider-Bot von TikTok registriert.
Beispiele aus dem Bericht:
-
Eine Web-Anwendung erhielt in 30 Tagen rund 9,7 Millionen Anfragen von KI-Scraper-Bots
-
Eine andere Website wurde an einem einzigen Tag über 500.000-mal kontaktiert
-
Der Traffic blieb oft über den Tag hinweg konstant mit 17.000 Anfragen pro Stunde
Diese Bots sind in der Lage, Inhalte systematisch zu analysieren und zu extrahieren – von Texten über Bilder bis hin zu Nutzerverhalten.
Was macht Gray Bots so gefährlich?

„Gray Bots mit generativer KI verwischen die Grenzen legitimer Online-Aktivitäten“, warnt Rahul Gupta von Barracuda.
Die Risiken:
-
Massives Scraping sensibler, geschützter oder kommerzieller Inhalte
-
Verzerrte Website-Analysen durch verfälschte Zugriffszahlen
-
Beeinträchtigung der Performance durch Überlastung der Server
-
Störungen betrieblicher Abläufe durch wiederholten Datenzugriff
Weil Gray Bots sich wie normale Nutzer verhalten, sind sie oft schwer zu identifizieren – zumal viele den Schutzmechanismus robots.txt ignorieren.
Technische Gegenmaßnahmen: Bot-Schutz mit KI
Die Datei robots.txt soll Bots mitteilen, welche Inhalte nicht gecrawlt werden dürfen – rechtlich bindend ist sie jedoch nicht. Zudem muss der Bot dort namentlich aufgeführt sein. Viele KI-Bots ignorieren diese Vorgabe systematisch.
Deshalb raten Experten zu einer umfassenderen Lösung:
-
Verhaltensbasierte Erkennung von verdächtigen Zugriffsmustern
-
Adaptives Machine Learning, um neue Bot-Typen automatisch zu identifizieren
-
Fingerprinting, um bekannte Bot-Strukturen schnell wiederzuerkennen
-
Echtzeit-Blockierung, bevor Schaden entsteht
„Für viele Organisationen ist der Schutz vor Gray-Bot-Traffic längst ein zentraler Bestandteil ihrer Sicherheitsstrategie geworden,“ so Gupta.
Fazit: Unsichtbare Gefahr mit realen Folgen
Gray Bots mit generativer KI stellen eine neue Klasse von Bedrohung dar – sie zerstören keine Systeme, aber sie greifen an, langsam und systematisch.
Obwohl viele Scraper zunächst harmlos wirken, gefährden sie auf lange Sicht Unternehmensdaten, Nutzererfahrungen und digitale Geschäftsmodelle. Nur wer frühzeitig handelt.
Quelle: www.zdnet.de