Zum Inhalt springen
Tech

Kann KI damit durchkommen? Das Urteil, das alles verändern könnte (oder auch nicht)

Ein bedeutendes Unternehmen im Bereich der Künstlichen Intelligenz hat gerade einen wichtigen juristischen Sieg im Streit um Urheberrechte errungen. Doch anstatt den Fall zu schließen, öffnet dieser Erfolg die Tür zu milliardenschweren Prozessen in der Zukunft. Was wie ein endgültiger Triumph aussieht, könnte sich als gefährliche Bedrohung für die gesamte Branche erweisen.
Von

Lesezeit 2 Minuten

Im Zentrum der KI-Revolution steht eine unbequeme Frage: Ist es legal, urheberrechtlich geschützte Werke zum Training dieser Modelle zu verwenden? Ein aktuelles Urteil zugunsten von Anthropic bringt etwas Klarheit – aber auch neue Unsicherheiten. Obwohl der Richter das Fair-Use-Prinzip beim Training bestätigte, steht die Debatte erst am Anfang. Und das Ergebnis könnte globale Folgen und milliardenschwere Strafen mit sich bringen.

Ein juristischer Sieg, der das Problem nicht löst

Die Firma Anthropic hat ein günstiges Urteil erhalten, nachdem sie beschuldigt wurde, beim Training ihrer KI-Modelle urheberrechtlich geschützte Bücher genutzt zu haben. Richter William Alsup bestätigte das zentrale Argument: Die Nutzung dieser Werke sei „Fair Use“, also eine faire Verwendung – ein rechtlicher Grundsatz, der unter bestimmten Bedingungen die Nutzung geschützter Inhalte erlaubt, insbesondere wenn diese transformativ erfolgt.

2
© Nataliya Vaitkevich – Pexels

Laut Alsup gehört das Training von KI-Modellen zu den transformativsten Anwendungen unserer Zeit. Diese Begründung stützt die Strategie vieler Technologieunternehmen: Werke zu nutzen, ohne direkte Zustimmung der Urheber, solange daraus etwas Neues entsteht.

In ihrer Verteidigung führte Anthropic an, Millionen in den Kauf physischer Bücher investiert zu haben – sogar in gebrauchte Ausgaben –, um sie dann einzuscannen und zu digitalisieren. Es wurde jedoch auch nachgewiesen, dass das Unternehmen Datenbanken wie Books3 oder LibGen heruntergeladen hat, die Millionen raubkopierter Bücher enthalten.

Die versteckten Kosten eines scheinbaren Sieges

Trotz der gerichtlichen Unterstützung des Fair-Use-Prinzips kommt Anthropic nicht ungeschoren davon. Der Richter erlaubte den Autoren, mit einer parallelen Klage fortzufahren, weil das Unternehmen über sieben Millionen Bücher ohne Bezahlung massenhaft heruntergeladen hatte. Selbst wenn viele davon letztlich nicht im Training verwendet wurden, wurden sie gespeichert – und genau das wirft neue rechtliche Fragen auf.

Für Anthropic birgt das ein enormes finanzielles Risiko: Sollte das Gericht einen Urheberrechtsverstoß feststellen, beträgt die Mindeststrafe 750 US-Dollar pro Buch. Bei Millionen betroffener Werke drohen dem Unternehmen Bußgelder in Milliardenhöhe.

Und Anthropic ist nicht allein: Auch Unternehmen wie Meta oder Google haben ihre Modelle mit ähnlichem Material trainiert und könnten in vergleichbare Prozesse verwickelt werden. Meta beispielsweise lud über 80 Terabyte urheberrechtlich geschützter Bücher via BitTorrent herunter.

3
© KATRIN BOLOVTSOVA – Pexels

Eine ungewisse Zukunft für die Künstliche Intelligenz

Dieses Urteil markiert einen Wendepunkt. Während Richter in anderen Fällen – wie im Streit zwischen Ross Intelligence und Thomson Reuters – Fair Use ablehnten, geht der Fall Anthropic in die entgegengesetzte Richtung, zumindest wenn die Texte legal erworben wurden.

Doch die juristische Auseinandersetzung ist nicht vorbei. Jeder Sieg ist nur ein Teilerfolg, jeder Fortschritt bringt neue Konflikte mit sich. Die KI-Branche muss sich nun entscheiden: Wird sie für jedes verwendete Buch bezahlen – oder das Risiko teurer Prozesse in Kauf nehmen? Die Antwort darauf wird die Zukunft der technologischen Entwicklung entscheidend prägen.

Quelle: Xataka

Diese Geschichte teilen

Verwandte Artikel