
Das Aufkommen generativer KI-Technologien hat eine heftige Debatte über die Unterscheidung zwischen Original- und Reproduktionsinhalten ausgelöst, insbesondere hinsichtlich der wirtschaftlichen Auswirkungen für Kreativschaffende. Diese Diskussion ist besonders relevant, wenn man die Trainingsmethoden von KI-Modellen wie ChatGPT und Claude betrachtet, die für das Lernen und die Ausgabe umfangreiche Datensätze nutzen. Ein prominentes Beispiel hierfür ist Anthropic, das wegen des Vorwurfs, urheberrechtlich geschütztes Material für das Training seiner Claude-KI-Modelle zu verwenden, in die Kritik geraten ist. Jüngste Gerichtsentscheidungen deuten jedoch auf ein positives Ergebnis für Anthropic hin, insbesondere im Hinblick auf die Fair-Use-Regelung nach US-Urheberrecht.
Rechtssieg für Anthropic im Urheberrechtsstreit um KI
Anthropic war in Rechtsstreitigkeiten verwickelt, die sich vor allem um den Vorwurf drehten, urheberrechtlich geschützte Bücher für das Training seines Claude-Modells verwendet zu haben. Dennoch fällte der US-Bezirksrichter William Alsup, der den Vorsitz im Northern District of California führt, am 24. Juni 2025 ein wichtiges Urteil zugunsten von Anthropic. Darin stellte der Richter fest, dass die Verwendung legal erworbener und digitalisierter Bücher für das Training von KI-Modellen gemäß US-Urheberrecht als „Fair Use“ gilt. Richter Alsup betonte, dass die Umwandlung von Text in KI-erworbenes Wissen, anstatt direktes Kopieren oder Weiterverbreiten, den Kriterien für „Fair Use“ entspricht.
Der Richter bestätigte zwar, dass die Verwendung legal erworbener urheberrechtlich geschützter Materialien zur Entwicklung generativer KI-Modelle keine Urheberrechtsverletzung darstellt, ließ jedoch gegenüber Anthropic hinsichtlich der Verwendung von Raubkopien von Websites wie Book3 und LibGen keine Nachsicht walten. Das Urteil zog eine klare Grenze zwischen rechtmäßiger Datennutzung und illegaler Datenbeschaffung und wies darauf hin, dass selbst transformative Absichten Piraterie nicht rechtfertigen können.
Darüber hinaus wies der Richter darauf hin, dass Anthropic in einem separaten Verfahren wegen der Verwendung von Raubkopien und der daraus resultierenden Schäden angeklagt werde. Richter Alsup begründete seine Haltung mit folgendem Kommentar:
Diese Anordnung bezweifelt, dass ein beschuldigter Rechtsverletzer jemals seiner Pflicht nachkommen könnte, zu erklären, warum das Herunterladen von Quellkopien von Piratenseiten, die er hätte kaufen oder auf die er auf andere Weise rechtmäßig hätte zugreifen können, für eine spätere faire Verwendung vernünftigerweise notwendig war.
Diese Aufspaltung des Falls ermöglicht es Autoren, unabhängig rechtliche Schritte gegen Anthropic wegen Piraterie einzuleiten. Dies markiert einen entscheidenden Moment für die Regulierung zukünftiger KI-Trainingspraktiken. Durch die Unterscheidung zwischen rechtmäßigem Training mit gekauften Materialien und dem unrechtmäßigen Erwerb urheberrechtlich geschützter Texte schafft das Urteil einen wichtigen Präzedenzfall für Technologieunternehmen, die künftig im Bereich der generativen KI konkurrieren.
Schreibe einen Kommentar