Anthropic erringt bahnbrechenden Sieg im KI-Urheberrecht – muss sich aber wegen Piraterievorwürfen vor Gericht verantworten

Anthropic hat in einem laufenden Rechtsstreit um Modelle künstlicher Intelligenz und Urheberrecht einen wichtigen Sieg errungen . Dieser Sieg könnte sich auch auf Dutzende anderer Urheberrechtsklagen im Zusammenhang mit KI auswirken, die derzeit in den USA laufen. Ein Gericht hat entschieden, dass es für Anthropic legal war, seine KI-Tools an urheberrechtlich geschützten Werken zu trainieren. Das Gericht argumentierte, dass dieses Verhalten durch die „Fair Use“-Doktrin geschützt sei, die unter bestimmten Bedingungen die unbefugte Nutzung urheberrechtlich geschützter Materialien erlaubt.
„Die Nutzung zu Schulungszwecken war eine faire Nutzung“, schrieb der leitende Bezirksrichter William Alsup in einem summarischen Urteil, das am späten Montagabend veröffentlicht wurde. Im Urheberrecht prüfen Gerichte unter anderem anhand der Frage, ob die unerlaubte Nutzung urheberrechtlich geschützter Werke eine faire Nutzung darstellt, ob die Nutzung „transformativ“ war, also nicht das Originalwerk ersetzt, sondern etwas Neues darstellt. „Die fragliche Technologie gehörte zu den transformativsten, die viele von uns in ihrem Leben erleben werden“, schrieb Alsup.
„Dies ist das erste wichtige Urteil in einem Urheberrechtsfall im Bereich generativer KI, das sich detailliert mit dem Fair Use befasst“, sagt Chris Mammen, geschäftsführender Partner bei Womble Bond Dickinson, der sich auf geistiges Eigentumsrecht spezialisiert hat. „Richter Alsup stellte fest, dass die Ausbildung eines LLM eine transformative Nutzung darstellt – selbst wenn dabei ein hoher Anteil auswendig gelernt wird. Er wies insbesondere das Argument zurück, dass sich das menschliche Verhalten beim Lesen und Auswendiglernen grundlegend von dem unterscheidet, was Computer beim LLM-Training tun.“
Der Fall, eine Sammelklage von Buchautoren, die behaupteten, Anthropic habe durch die unbefugte Verwendung ihrer Werke ihr Urheberrecht verletzt, wurde erstmals im August 2024 beim US-Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht.
Anthropic ist das erste Unternehmen für künstliche Intelligenz, das diesen Kampf gewonnen hat. Allerdings ist dieser Sieg mit einem großen Haken verbunden. Alsup befand zwar, dass Anthropics Training faire Nutzung darstellte, entschied aber, dass die Autoren Anthropic wegen Raubkopien ihrer Werke vor Gericht bringen könnten.
Obwohl Anthropic schließlich dazu überging, gekaufte Bücher zu trainieren, hatte das Unternehmen zuvor eine riesige Bibliothek mit Raubkopien angelegt und gepflegt. „Anthropic lud über sieben Millionen Raubkopien herunter, bezahlte nichts und behielt diese Raubkopien in seiner Bibliothek, selbst nachdem es beschlossen hatte, sie nicht (überhaupt oder nie wieder) zum Trainieren seiner KI zu verwenden. Die Autoren argumentieren, Anthropic hätte für diese Raubkopien bezahlen müssen. Diese Anordnung stimmt dem zu“, schreibt Alsup.
„Wir werden einen Prozess über die Raubkopien führen, die zur Erstellung der zentralen Bibliothek von Anthropic verwendet wurden, und über die daraus resultierenden Schäden“, heißt es in der Anordnung abschließend.
Anthropic-Sprecherin Jennifer Martinez erklärte gegenüber WIRED, das Unternehmen sei mit dem Urteil zufrieden, da es „mit dem Zweck des Urheberrechts, Kreativität zu ermöglichen und wissenschaftlichen Fortschritt zu fördern, im Einklang steht“. Die Anwälte der Kläger lehnten eine Stellungnahme ab.
Die Klage Bartz gegen Anthropic wurde erstmals vor weniger als einem Jahr eingereicht; Anthropic beantragte im Februar ein summarisches Urteil zur Fair-Use-Frage. Bemerkenswert ist, dass Alsup weitaus mehr Erfahrung mit Fair-Use-Fragen hat als der durchschnittliche Bundesrichter, da er den Vorsitz im ersten Verfahren Google gegen Oracle führte, einem wegweisenden Fall über Technologie und Urheberrecht, der schließlich vor den Obersten Gerichtshof kam.
Zuvor hatte es nur eine summarische Entscheidung in einem KI-Urheberrechtsfall gegeben. Im Fall Thomson Reuters v. Ross befand ein Richter, dass die Schulung des KI-Startups Ross mit Materialien der zu Thomson Reuters gehörenden Rechtsforschungsfirma Westlaw kein „Fair Use“ darstellte . Dieser Fall ist jedoch bereits vor einem Berufungsgericht verhandelt worden. In fast allen laufenden Urheberrechtsklagen versuchen die beklagten KI-Unternehmen, „Fair Use“-Argumente vorzubringen. Daher wird Alsups Entscheidung mit ziemlicher Sicherheit eine große Rolle bei der zukünftigen Argumentation dieser Fälle spielen, insbesondere in Fällen, in denen Piraterie keine Rolle spielt. Befürworter des „Fair Use“ feiern dies bereits als Erfolg.
„Richter Alsups Urteil sollte Vorbild für andere Gerichte sein, die beurteilen, ob Gen-AI-Training mit urheberrechtlich geschütztem Material als faire Nutzung gilt“, sagt Adam Eisgrau, Senior Director für KI, Kreativität und Urheberrechtspolitik bei der Technologiehandelsgruppe Chamber of Progress. „Er befand, es sei eindeutig richtungsweisend und bekräftigte, dass der Zweck des Urheberrechts darin bestehe, Wettbewerb und Kreativität zu fördern und nicht monopolistische Einnahmequellen zu schützen.“
Dennoch handelt es sich in vielerlei Hinsicht um ein gespaltenes Urteil, da Alsup im summarischen Urteil nachdrücklich betonte, dass Piraterie rechtlich nicht entschuldbar sei. „Die heruntergeladenen Raubkopien, die zum Aufbau einer zentralen Bibliothek verwendet wurden, waren nicht durch Fair Use gerechtfertigt“, schreibt er. „Alles spricht gegen Fair Use.“
Im Rahmen des Beweisaufnahmeverfahrens erfuhr Richter Alsup, dass Anthropic teilweise auf das Herunterladen riesiger Mengen an Material aus Raubkopiendatenbanken wie Books3 angewiesen war, um Bücher für das Training von KI-Tools wie Claude zu sammeln. Im summarischen Urteil geht er detailliert auf den Vorgang ein und weist darauf hin, dass Anthropic-Mitbegründer Ben Mann Books3 bereits im Winter 2021 vollständig heruntergeladen hatte und damit nicht aufgehört hatte: „Anthropics nächste Raubkopien umfassten das Herunterladen verteilter, weiterverbreiteter Kopien anderer Raubkopienbibliotheken. Im Juni 2021 lud Mann auf diese Weise mindestens fünf Millionen Exemplare von Büchern aus Library Genesis (LibGen) herunter, von denen er wusste, dass sie raubkopiert waren. Und im Juli 2022 lud Anthropic ebenfalls mindestens zwei Millionen Exemplare von Büchern aus Pirate Library Mirror (PiLiMi) herunter, von denen Anthropic wusste, dass sie raubkopiert waren“, schreibt Alsup.
Anthropic ist nicht das einzige KI-Unternehmen, dem in Urheberrechtsklagen wegen KI-Piraterie vorgeworfen wird. Auch im Fall Kadrey v. Meta , einem weiteren heiß umkämpften Urheberrechtsstreit von Autoren, argumentierten die Anwälte der Kläger nachdrücklich, dass Metas Erwerb von Büchern aus Pirateriebibliotheken wie LibGen weder legal noch durch die Fair-Use-Doktrin geschützt sei.
Der niedrigste gesetzliche Schadensersatz für diese Art von Urheberrechtsverletzung beträgt 750 US-Dollar pro Buch. Alsup weist darauf hin, dass die Piratenbibliothek von Anthropic mindestens sieben Millionen Bücher umfasste. Anthropic drohen daher möglicherweise Strafen in Milliardenhöhe. Ein Prozesstermin steht noch nicht fest.
Update 24.06.25, 19:50 Uhr ET: Diese Geschichte wurde mit einem Kommentar von Anthropic aktualisiert.
wired