Diese Woche hat ein US-Bundesrichter der KI-Branche einen echten Joker in die Hand gespielt: Demnach dürfen Firmen künftig urheberrechtlich geschützte Werke zumindest teilweise verwenden, um ihre riesigen Sprachmodelle zu trainieren.
Konkret geht es um den Fall Anthropic — das KI-Unternehmen, das von Amazon unterstützt wird. Seit letztem Sommer streitet sich Anthropic mit einer Gruppe von Schriftstellern und Journalisten, die dem Konzern vorwerfen, ihre Texte ohne Genehmigung für die Entwicklung des Chatbots Claude genutzt zu haben.
Schon länger steht die Frage im Raum, ob es überhaupt legal ist, massenhaft geschützte Inhalte aus dem Netz abzusaugen und sie Algorithmen zu verfüttern, um daraus „eigene“ KI-generierte Texte zu basteln. Anthropic verteidigt sich mit der Argumentation, das Ganze falle unter die US-Klausel des „Fair Use“ – also der zulässigen, schöpferischen Weiterverwendung.
Jetzt hat der zuständige Richter William Alsup dieser Sicht teilweise zugestimmt.
„KI-Texte sind keine Kopien“
In seinem Urteil stellte Alsup klar: Allein das Training des Sprachmodells mit fremden Texten verletze das Urheberrecht nicht — denn die daraus generierten Inhalte seien originell. Wörtlich schrieb er:
„Die Algorithmen von Claude geben der Öffentlichkeit weder die kreativen Elemente eines bestimmten Werks noch den erkennbaren Stil eines einzelnen Autors wieder… Ja, Claude produziert Grammatik, Stil und Komposition, die das Modell aus tausenden Werken destilliert hat. Aber: Wenn jemand alle literarischen Klassiker liest, sie verinnerlicht und daraus eine eigene, gemischte Schreibe entwickelt — wäre das ein Verstoß gegen das Urheberrecht? Natürlich nicht.“
Damit widerspricht Alsup klar den Klägern, die Anthropic beschuldigen, menschliche Kreativität gezielt auszubeuten, um daraus Profit zu schlagen. Zwar handelt es sich erst mal nur um die Einschätzung eines Richters — doch viele Beobachter befürchten, dass das Urteil Schule machen und die rechtliche Lage in den USA grundlegend verschieben könnte. Schon jetzt laufen dutzende ähnliche Klagen von Kreativen gegen KI-Firmen.
Piraterie bleibt strafbar
Allerdings: Für Anthropic ist das Urteil kein glatter Sieg. Denn Alsup stellte auch fest, dass der konkrete Weg, wie sich das Unternehmen so manchen Trainingsstoff beschafft hat — nämlich durch das Herunterladen von mehr als sieben Millionen Raubkopien von Büchern — sehr wohl illegal sein könnte.
„Wir werden einen separaten Prozess zu den Raubkopien und den daraus entstandenen Schäden führen“, so Alsup. Und weiter: „Dass Anthropic später einige der zuvor illegal beschafften Bücher offiziell gekauft hat, entbindet sie nicht von der Haftung wegen Diebstahls. Es könnte sich höchstens mindernd auf die Strafzahlungen auswirken.“
Auf Nachfrage von Gizmodo ließ Anthropic über ein Statement verlauten:
„Wir freuen uns, dass das Gericht anerkannt hat, dass das Training von Sprachmodellen mit urheberrechtlich geschützten Werken transformativ ist — und zwar in spektakulärer Weise. Im Geiste des Copyrights, das Kreativität und wissenschaftlichen Fortschritt fördern soll, zielt unser Einsatz der Werke nicht darauf ab, diese zu kopieren oder zu verdrängen — sondern darauf, daraus etwas Neues zu schaffen.“
Kein unbeschriebenes Blatt
Richter Alsup ist kein Unbekannter, wenn es um große Verfahren mit Tech-Giganten geht: In der Vergangenheit hat er bereits wegweisende Urteile gegen Unternehmen wie Uber, DoorDash oder Waymo gefällt. Zuletzt sorgte er für Schlagzeilen, als er die Trump-Regierung anwies, tausende zu Unrecht entlassene Staatsbedienstete — die unter Elon Musks DOGE-Initiative aussortiert worden waren — wieder einzustellen.