Anthropic stimmt Einigung mit Autor*innen über 1,5 Milliarden Dollar zu
Graham Lovelace berichtet, dass Anthropic einer »historischen Einigung« mit Autor*innen zugestimmt hat, von denen es des »Urheberrechtsdiebstahls« beschuldigt wurde. Das KI-Unternehmen hatte mit Raubkopien von Büchern seine KI trainiert. Ein US-Bezirksrichter fällte ein wegweisendes Urteil, in dem er feststellte, dass die unbefugte Verwendung gekaufter Bücher durch Anthropic zum Trainieren seiner generativen Modelle nicht gegen das US-Urheberrecht verstößt, da er zu dem Schluss kam, dass diese Technologie »zu den transformativsten gehört, die viele von uns in ihrem Leben sehen werden«. Er entschied jedoch auch, dass die Speicherung von über sieben Millionen Kopien raubkopierter Bücher aus Datensätzen wie Books3 und LibGen sowie der Pirate Library Mirror (PiLiMi) durch Anthropic nicht gerechtfertigt sei, und erklärte, dass ein Gerichtsverfahren über die daraus resultierenden Schadensersatzansprüche entscheiden werde. Mit legal gekauften Büchern darf also trainiert werden, mit Raubkopien nicht. Ich würde das nicht mal als halben Sieg bezeichnen. Allerdings schreibt Lovelace: »Hätte dieser Prozess stattgefunden, hätte der Schadensersatz für jeden Fall vorsätzlicher Urheberrechtsverletzung bis zu 150.000 US-Dollar betragen können – wodurch Anthropic mit Forderungen in Höhe von insgesamt Hunderten von Milliarden Dollar konfrontiert gewesen wäre.« (Graham Lovelace, 27.08.2025):
|