Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter # 23 – April 2026

Liebe Leserinnen und Leser, liebe Kolleginnen und Kollegen, liebe FREELENS-Mitglieder,

es werden immer mehr Meldungen, die ich hier verlinken möchte, was immerhin dafür spricht, dass die Frage von Urheberrechten und GenKI zunehmend ernster genommen wird – von der Politik ebenso wie von den Medien. Bislang wurde uns in allen Debatten seitens der KI-Industrie und der Politik immer signalisiert, dass wir bestenfalls mit einer kollektiven Lizenzierung unserer Bilder für KI-Training rechnen könnten. In einigen Überlegungen war gar nicht vorgesehen, dass Urheber*innen sich dem verweigern können, in anderen (so auch im AI Act) gab es die Möglichkeit, ein Opt-Out zu wählen. Das wäre jedoch aufwendig, kaum zu kontrollieren, und die Beweislast läge bei den Fotograf*innen.

Jetzt zeigt sich jedoch in Großbritannien, dass man über ein Opt-In-Modell nachdenkt. Und richtig: Das ist die einzige Möglichkeit, europäische Kreativität vor rücksichtsloser Verwertung durch US-amerikanische und chinesische Konzerne zu schützen. Außerdem hört man immer öfter, dass Firmen aktiv Werke für KI-Training lizenzieren wollen. Bei einem Workshop der VG Bild-Kunst haben wir darüber nachgedacht, welche Alternativen es zu einer kollektiven Lizenz geben kann. Es ist also keineswegs unmöglich, den Urheber*innen die Verfügungsgewalt über ihre Werke zu lassen.

Den konservativen Parteien möchte ich sagen: Lassen Sie das doch den Markt regeln. Den sozialdemokratischen und linken Parteien sage ich: Schützen Sie uns Kreative vor den Big-Tech-Konzernen, indem Sie für unsere Rechte einstehen. Allen möchte ich zurufen: Wie würde eine Welt aussehen, in der das Monopol für professionelle Kreativität bei einigen wenigen Big-Tech Unternehmen liegt – keins davon übrigens in Europa ansässig?

Wenn unser »Rohstoff« von der KI-Industrie dringend benötigt wird, dann sollte das bedeuten, dass sein Wert steigt und nicht, dass man uns einfach enteignet oder mit ein bisschen Kleingeld abspeist. 

Wir haben den April-Newsletter aufgrund des Umfangs geteilt, hier kommt erstmal der Teil »Politik“« der aktuellere Teil von »Recht« und einem Terminhinweis. Der Rest mit »Wahrheit oder Lüge«, »Markt« und »Technik« kommt Ende nächster Woche.  

Viel Spaß beim Lesen und ein paar neue Erkenntnisse wünscht

Marco

P.S.: Feedback gerne an marco.urban@freelens.com

Politik

2. Entwurf Code of Practice – Transparency

In der AG Fortschritt des Fotorates haben wir das nächste »dicke Ding« abgearbeitet. Der zweite Entwurf des Code of Practice zu den Transparenzregelungen lag uns vor, und wir sollten dazu Stellung nehmen. Jürgen Scriba hat außerdem in mehreren Zoom-Runden — manche größer, einige sehr klein — die Positionen diskutiert und abgestimmt.

Der Fotorat vertritt eine stärker auf Funktionsfähigkeit ausgerichtete Position als der zweite Entwurf des Code of Practice. Während der Second Draft auf Flexibilität, »Best-Efforts«-Formulierungen und politische Anschlussfähigkeit setzt, sieht der Fotorat darin ein strukturelles Risiko: Ein System zur Kennzeichnung und Erkennung von KI-Inhalten kann nur dann zuverlässig funktionieren, wenn seine zentralen Elemente verbindlich sind und nicht optional bleiben.

Der Entwurf beschreibt eine Reihe von Maßnahmen, die zusammenwirken sollen, während wir eine Infrastruktur fordern, in der Kennzeichnung, Erkennung und insbesondere eine verpflichtende Provenienz der Inhalte eng miteinander verknüpft sind. Ohne eine solche Herkunftsinfrastruktur bleiben einzelne Maßnahmen aus unserer Sicht unvollständig und letztlich wirkungsschwach.

Zudem argumentieren wir stärker aus der Praxis realer Verbreitungsprozesse, in denen Metadaten häufig verloren gehen und Inhalte verändert werden. Daraus leiten wir die Notwendigkeit redundanter, nicht optionaler Mechanismen ab. Auch rein sichtbare Kennzeichnungen (»Labels«) werden kritisch gesehen, da sie ohne Kontext wenig aussagekräftig sind und ungekennzeichnete Inhalte leicht als authentisch missverstanden werden.

Fazit: Der Second Draft formuliert einen politisch vermittelbaren Rahmen mit Spielräumen, während der Fotorat die Bedingungen beschreibt, unter denen dieser Rahmen technisch belastbar und in der Praxis wirksam wäre.

Immerhin waren die Vorsitzenden der Workgroup sehr an unseren Ansätzen interessiert. Wir sind gespannt, ob wir Einfluss auf den endgültigen Code of Practice nehmen konnten.

VG Bild-Kunst und KI

Am 16. April fand in Hamburg die Berufsgruppenversammlung der VG Bild-Kunst statt – nach Redaktionsschluss dieses Newsletters. Die FREELENS-Vertreter*innen in der BG II (Fotografie, Illustration, Design), Roland Geisheimer als Vorsitzender der BG und Heike Ollertz, waren vor Ort.

Ein zentraler und für uns sehr wichtiger Punkt war die Positionierung der VG Bild-Kunst im Umgang mit generativer Künstlicher Intelligenz.

Grundlage ist ein Workshop vom 2. März 2026, an dem Roland Geisheimer und ich für FREELENS teilgenommen haben. Im Kern besteht Einigkeit darüber, dass generative KI in großem Umfang auf urheberrechtlich geschützten Werken basiert. Daraus folgt die klare Forderung, dass die Nutzung dieser Werke im KI-Kontext nur auf Basis von Lizenzen erfolgen darf. Ziel ist es, Kontrolle über die Nutzung zu sichern und neue Vergütungsmodelle für Urheber*innen zu schaffen.

Zu den diskutierten Maßnahmen gehören unter anderem eine Umkehr der Beweislast, eine klare Verantwortlichkeit der KI-Anbieter für ihre Trainingsdaten sowie eine grundsätzliche Lizenzpflicht entlang der gesamten Nutzungskette.

Ergänzend wird ein gesetzlicher Vergütungsanspruch für KI-generierte Inhalte vorgeschlagen, etwa nach dem Vorbild der Privatkopievergütung. So sollen Urheber*innen auch dann beteiligt werden, wenn sich einzelne Werke im Output nicht mehr konkret nachvollziehen lassen.

Ein weiterer Vorschlag ist der Aufbau einer zentralen Datenbank mit lizenzierbaren Werken, um die Verhandlungsposition gegenüber KI-Unternehmen zu stärken und neue Lizenzmodelle zu ermöglichen.

Die Ergebnisse des Workshops sollen nun weiter ausgearbeitet und in die politische Arbeit eingebracht werden. Bei den anstehenden Themen, insbesondere bei den Verteilungssystemen und beim Umgang mit Künstlicher Intelligenz, geht es um zentrale Fragen unserer beruflichen Zukunft.

Mehr dazu in den Erläuterungen zur Tagesordnung der BG-Versammlung auf den Seiten 16 bis 20: https://freelens.com/media/pages/neues/news/vg-bildkunst-bg-versammlung-2026/a4f122980d-1775132972/2026_04_02_eto-bgv-2026_final.pdf

Digitalminister »Heer der Überflüssigen durch KI«

Karsten Wildberger, ehemaliger Chef bei der Media-Saturn-Holding und inzwischen Bundesminister für Digitales und Innovation, wurde in einem Interview der Neuen Osnabrücker Zeitung danach gefragt, ob wir durch die KI-Innovationen auf »ein Heer an Menschen« zusteuern, die nicht gebraucht werden. Wildberger streitet das nicht ab. Er antwortet, dass überproportionales Wachstum die Grundvoraussetzung sei, um diesen Wandel überhaupt gestalten zu können. »Wenn die KI den Informatikern, Mathematikern und vielen anderen ihre Jobs wegnimmt, dann brauchen diese Menschen eine andere sinnvolle Betätigung.« Aber er hält es für möglich, dass sehr hohe Gewinne erzielt werden können und dass ein bedingungsloses Grundeinkommen ein Teil der Lösung werden kann.

Das scheint mir eine nur sehr vage Aussicht auf ein nur sehr geringes Einkommen für viele. Und Arbeit ist ja nicht nur Einkommen. Arbeit bedeutet auch, Teil einer Gesellschaft zu sein; Arbeit ist sinnstiftend. Wie wird unsere Gesellschaft mit so einem Szenario umgehen?

Eine Antwort auf diese Frage könnte der Strukturwandel in Ostdeutschland nach der Wende und das nach Meinung vieler daraus resultierende Wahlverhalten geben. Was wird passieren, wenn wir durch KI-Innovationen eine Arbeitslosenquote von 10–15 % bekommen?

(NOZ, 21.03.2026): https://www.noz.de/deutschland-welt/politik/artikel/digitalminister-wildberger-zu-tiktok-und-kuenstlicher-intelligenz-50158968

 

Der »AI Digital Omnibus«

In Brüssel und auch in hiesigen interessierten Kreisen wird viel über den »AI Digital Omnibus« gesprochen. Dahinter verbirgt sich der Versuch, zentrale Digitalgesetze der EU – insbesondere den AI Act, aber auch angrenzende Regelwerke wie den Digital Services Act – nachzujustieren und besser aufeinander abzustimmen: Unklare Begriffe, Überschneidungen und praktische Umsetzungsprobleme sollen bereinigt werden. Gerade beim AI Act zeigt sich, dass viele Fragen erst in der Anwendung sichtbar werden – etwa bei den Transparenzpflichten für generative KI, hier ganz besonders der Begriff »Deepfake«.

Politische Prioritäten spielen eine große Rolle: Während einige Akteure auf Entlastung und Innovationsförderung drängen, pochen andere auf eine konsequente Durchsetzung von Grundrechten, Transparenz und Urheberrechtsschutz. Diese Spannungen prägen die aktuellen Beratungen.

Es besteht die Gefahr, dass mit anderen begrenzenden Regelungen auch der Urheberschutz aufgeschoben wird.

Verschiedene Ausschüsse des Europäischen Parlaments bringen sich mit Stellungnahmen ein (siehe auch das Voss-Papier im letzten Newsletter), und im Rat wird an einer gemeinsamen Linie gearbeitet. Konkrete Vorschläge stehen zwar noch am Anfang, aber die Richtung ist klar – die bestehenden Digitalgesetze sollen praxisnäher und anschlussfähiger gemacht werden. In erster Linie läuft das auf Vereinfachungen für die KI-Unternehmen hinaus, möglicherweise zulasten der Urheber*innen.

Was uns direkt betrifft, sind die Vorschriften zur Kennzeichnung von KI-erzeugten Audio-, Bild-, Video- oder Textinhalten mit einem Wasserzeichen zur Angabe ihrer Herkunft – also das, was der Transparenz-Teil des Code of Practice behandelt siehe oben. Es ist davon auszugehen, dass diese Pflicht, die eigentlich für den August vorgesehen war, bis November 2026 aufgeschoben wird.

Nicht nur die AG Fortschritt des Fotorates und die Initiative Urheberrecht beobachten das Geschehen mit Argusaugen, sondern auch Amnesty International.

In einem äußerst lesenswerten Beitrag zeichnet die Menschenrechtsorganisation ein sehr kritisches Bild der geplanten »Vereinfachung« von EU-Digitalgesetzen. Aus Sicht der Organisation handelt es sich dabei weniger um technische Entlastung als vielmehr um eine politische Deregulierung, die zentrale Schutzmechanismen für Grundrechte schwächen könnte. Amnesty spricht sogar von einem »unprecedented rollback of rights online« und warnt davor, dass unter dem Vorwand der Wettbewerbsfähigkeit bestehende Standards etwa aus der DSGVO oder dem AI Act ausgehöhlt werden.

Im Zentrum der Kritik steht die Annahme, Regulierung stehe im Widerspruch zu Innovation – eine Argumentationslinie, die laut Amnesty vor allem von großen Technologiekonzernen vorangetrieben wird. Diese Gegenüberstellung sei jedoch irreführend (»false dichotomy between regulation and innovation«), da gerade Regulierung notwendig sei, um Bürgerinnen und Bürger vor Machtmissbrauch durch Unternehmen und Staaten zu schützen. Entsprechend bewertet Amnesty den Prozess klar als wirtschaftsgetrieben: Die Vorschläge seien »likely to benefit business interests« und könnten insbesondere den Zugang zu Daten für KI-Training erleichtern sowie Anforderungen an Hochrisiko-KI senken.

In der Gesamtschau ordnet Amnesty die Entwicklungen als Teil eines breiteren politischen Kurswechsels ein. Die EU drohe, ihre bisherige Rolle als globaler Vorreiter für grundrechtsbasierte Digitalregulierung zugunsten industriepolitischer Ziele aufzugeben. Damit, so die Warnung, stünden nicht nur Datenschutz, sondern auch der Schutz vor Diskriminierung und Überwachung durch KI auf dem Spiel.

(Europäisches Parlament, 26.03.2026): https://www.europarl.europa.eu/news/en/press-room/20260323IPR38829/artificial-intelligence-act-delayed-application-ban-on-nudifier-apps

(Amnesty International, 02.04.2026): https://www.amnesty.org/en/latest/campaigns/2026/04/eu-simplification-laws/

(Datenrecht.at, 23.03.2026): https://www.datenrecht.at/index.php/2026/03/23/rat-und-ep-ausschusse-zum-„ai-digital-omnibus“/

UK Regierung spricht sich gegen Opt-Out-Lösung aus

Die britische Regierung hat ihren Plan aufgegeben, KI-Unternehmen die Nutzung urheberrechtlich geschützter Werke für das Training ihrer Modelle per Opt-Out-Regelung zu erlauben. Die Technologieministerin bestätigte in einem am 18. März veröffentlichten Bericht, dass die Regierung diese Option fallen lässt, die Frage aber neu angehen wolle.

Nicht klar ist, wie ein Opt-Out ersetzt werden sollte. Eine Ausnahme des Urheberrechts wird nicht ausgeschlossen und so wäre es auch möglich, dass die KI-Modelle ohne jede Zustimmung der Urheber*innen trainiert werden können.

Baroness Kidron, eine bekannte Führsprecherin der Urheber*innen, sagte auf einer Konferenz von britischen Urheberverbänden, dass die Erklärung der Regierung gezeigt habe, dass die Minister sich »zwar nicht gegen Kreative aussprechen« würden, aber »auch nicht helfen« würden. Sie forderte: »Die Minister müssen sich verantworten. Durch ihre Politik schränken sie die Menschenrechte der Kreativen ein – sie müssen zur Rechenschaft gezogen werden.«

Market Sceener berichtet: »Technologieministerin Liz Kendall betonte die Notwendigkeit, das richtige Gleichgewicht zwischen dem Schutz der Kreativwirtschaft und der Innovationsfähigkeit des KI-Sektors zu finden. In einer Erklärung sagte sie, die Regierung werde sich die nötige Zeit nehmen, um »dies richtig umzusetzen«.

Die nächste Phase der Regierungsarbeit zu Urheberrecht und KI werde sich zudem mit den Gefahren durch nicht autorisierte digitale Repliken befassen. Zudem gehe es um Möglichkeiten für Urheber, ihre Werke online zu kontrollieren, sowie um die Unterstützung unabhängiger Kreativorganisationen, so Kendall.«

(MarketScreener, 18.03.2026): https://ch.marketscreener.com/boerse-nachrichten/grossbritannien-prueft-kennzeichnungspflicht-fuer-ki-inhalte-im-zuge-umfassender-urheberrechtsreformen-ce7e5ed9d889f223

(Musikwoche, 19.03.2026): https://www.musikwoche.de/recorded-publishing/uk-kehrt-ki-urheberrechtsplan-den-ruecken-0dc9436a6d941eba25e43a7b2104b2fb

(Charting GEN AI, 01.04.2026): https://grahamlovelace.substack.com/p/creator-groups-remain-clear-on-ai

 

Frankreich: Gesetzentwurf verschiebt Beweislast bei KI-Training

Graham Lovelace berichtet auf Substack von einem Gesetzentwurf im französischen Senat, der die Regeln im Umgang mit urheberrechtlich geschützten Trainingsdaten grundlegend verändern könnte. Initiiert von Laure Darcos sieht er vor, die Beweislast zwischen Rechteinhaber*innen und KI-Unternehmen neu auszubalancieren: Künftig soll nicht mehr der Urheber nachweisen müssen, dass seine Werke genutzt wurden, sondern die Anbieter von KI-Systemen belegen, dass sie keine geschützten Inhalte verwendet haben (»Vermutung der Nutzung«). Das ist eine Forderung, die Fotorat, Initiative Urheberrecht und die VG Bild-Kunst auch vertreten.

Diese Forderung zielt auf ein zentrales Problem: Rechteinhaber*innen haben bislang keinen Einblick in Trainingsdaten, sollen aber dennoch Rechtsverletzungen nachweisen. Ziel ist es laut Darcos, KI-Anbieter stärker zu Verhandlungen über Lizenzmodelle zu bewegen – nicht, neue Klagewellen auszulösen.

Der Gesetzentwurf geht nun in die Nationalversammlung. Politisch steht er exemplarisch für einen möglichen Kurswechsel: weg von weitgehend unreguliertem KI-Training, hin zu mehr Transparenz, Verhandlungsdruck und klareren Regeln zugunsten von Urheber*innen – ohne dabei Innovation grundsätzlich auszubremsen.

(Charting Gen AI, 10.04.2026): https://grahamlovelace.substack.com/p/attempt-to-flip-the-script-on-ai

USA: Regierung fordert einheitliches Bundesgesetz für KI

In den USA fordert die Regierung einen einheitlichen nationalen KI-Gesetzesrahmen anstelle der Gesetze der einzelnen Bundesstaaten. Innovation soll so gefördert und die globale Vormachtstellung gesichert werden. Für die Urheberrechte wäre das nicht gut, denn die Regierung hält weiterhin daran fest, dass KI-Training unter die »Fair Use«-Regelung fällt. Das bedeutet, dass Werke für das Training genutzt werden können, ohne Zustimmung und ohne Honorierung.

(Ad hoc News, 22.03.2026): https://www.ad-hoc-news.de/boerse/news/ueberblick/us-regierung-setzt-auf-bundesgesetz-fuer-ki-fuehrerschaft/68954232

»Die Lizenzierungs-Illusion«

Paul Melcher ordnet in seinem Artikel in »Kaptur« die unterschiedlichen Ideen zur Lizenzierung von Werken für KI-Training ein: Die Regierung in UK hat, siehe oben, zwar Opt-Out abgelehnt, aber auch keine Alternative angeboten. Der politische Wille, die institutionelle Tradition und der regulatorische Ehrgeiz sind vorhanden, aber man kann sich bei visuellen Inhalten zu keiner Regelung durchringen. Das Europäische Parlament, siehe letzter Newsletter, verfolgt einen starken Schutzansatz, insbesondere über das Urheberrecht und Regelungen wie Text- und Data-Mining-Ausnahmen, aber nur über ein Opt-out, und es diskutiert über kollektive Vergütungsmodelle als mögliche Lösung. In den USA dominiert weiterhin der markt- und prozessgetriebene Ansatz. Die entscheidende Frage wird hier über Gerichte und das Konzept des »Fair Use« verhandelt. Parallel entstehen private Lizenzdeals zwischen Plattformen und großen Rechtehaltern.

Den US-Ansatz bewertet Melcher als fragmentiert: Große Player können profitieren, während individuelle Kreative kaum Verhandlungsmacht haben. Kollektive Modelle spielen hier bislang nur eine untergeordnete Rolle.

Auch bei den Überlegungen der EU ist er skeptisch: Die Modelle könnten vor allem administrativ komplex sein und am Kernproblem vorbeigehen – nämlich der massenhaften Nutzung und der schwierigen Zuordnung von Wertschöpfung.

Für eine Lizenzierung sieht Melcher drei Voraussetzungen:

Der Inhalt muss identifizierbar sein,

der Urheber muss erreichbar sein,

und die Zahlung muss mehr wert sein als die Kosten für ihre Abwicklung.

Provenienztechnologie (C2PA-Manifeste, steganografische Wasserzeichen) und weitere Techniken könnten das Identifizierungsproblem in Zukunft lösen, aber Melcher vermutet, dass Zahlungen, die abzuwickeln sind, aufgeteilt auf Milliarden von Bildern nur Bruchteile eines Cents ausmachen.

Fazit des Autors: Kollektive Lizenzmodelle werden politisch als Kompromiss gehandelt, ohne dass klar ist, ob sie ökonomisch tragfähig oder gerecht umsetzbar sind. Unterschiede bestehen eher im »Wie« der Regulierung – nicht im grundlegenden Dilemma.

(Kaptur, 19.03.2026): https://kaptur.co/the-licensing-mirage-why-collective-models-wont-save-the-visual-industry-from-ai/

Weitere Studie des EP zu KI und Urheberrecht

Der Kluwer Copyright Blog berichtet über eine Studie des Europäischen Parlaments »The economics of copyright and AI – Empirical evidence and optimal policy« aus dem Dezember 2025. Sie untersucht die ökonomischen Grundlagen des Urheberrechts im Kontext generativer KI. Die Autoren stellen dabei einen Konflikt in den Mittelpunkt: Einerseits schafft das Urheberrecht Anreize für kreative Leistungen und Investitionen, andererseits begrenzt es den Zugang zu Wissen und kann damit Innovation hemmen. Der Konflikt würde durch den Einsatz von KI verschärft, da moderne Modelle auf die massenhafte Nutzung bestehender Inhalte als Trainingsdaten angewiesen wären, die häufig urheberrechtlich geschützt seien. Ich würde dem hier entgegnen, dass jedes Modell eines Marktes den Zugang zu irgendetwas begrenzt und dass jedes Austarieren von Angebot und Nachfrage bei dieser Betrachtung als Konflikt gesehen werden müsste. Nehmen wir zum Beispiel Rohstoffe. Niemand käme auf die Idee, dass Länder mit Rohstoffen diese freigeben müssen und die Entwicklung anderer Länder nicht zu behindern. Meines Wissens ist der Zugang zu NVIDIA-Prozessoren begrenzt und niemand findet das ungewöhnlich. Warum wird bei urheberrechtlichem Eigentum mit anderem Maß gemessen?

Immerhin stellt die Studie fest, dass unklar ist, in welchem Umfang bestehende Schrankenregelungen wie Text- und Data-Mining-Ausnahmen greifen und wie die von KI erzeugten Outputs urheberrechtlich zu bewerten sind, und sie weist darauf hin, dass GenKI in bestimmten Bereichen kreative Leistungen substituieren kann und dadurch potenziell zu sinkenden Einnahmen für Urheberinnen und Urheber führt.

Zur Bewertung möglicher regulatorischer Antworten vergleicht die Studie verschiedene Politikmodelle. Ein Ansatz besteht in einer weitgehenden Freistellung der Nutzung geschützter Werke für KI-Zwecke, was innovationsfreundlich ist, jedoch keine Vergütung für Rechteinhaber vorsieht. Ein zweites Modell, das in der Europäischen Union bereits angelegt ist, basiert auf einem Opt-out-System, bei dem die Nutzung grundsätzlich erlaubt ist, solange Rechteinhaber nicht widersprechen. Richtig erkannt, stößt dieses Modell in der Praxis auf erhebliche Umsetzungsprobleme, insbesondere hinsichtlich der tatsächlichen Kontroll- und Durchsetzungsmöglichkeiten. In der Praxis ist ja weder das eine noch das andere gegeben.

Demgegenüber stehen lizenzbasierte Ansätze, bei denen die Nutzung nur mit Zustimmung der Rechteinhaber erfolgt. Dem Autor der Studie zufolge sichern diese zwar eine Vergütung, sind aber mit hohen Transaktionskosten verbunden und schwer skalierbar. Als vierte Option diskutiert die Studie gesetzliche Vergütungsmodelle, bei denen die Nutzung erlaubt ist, jedoch mit einer pauschalen, kollektiv organisierten Vergütung einhergeht.

Die Studie argumentiert daher, dass eine ausgewogene Lösung erforderlich ist, die sowohl den Zugang zu Daten als auch eine angemessene Vergütung sicherstellt. Besonders hervorgehoben wird dabei der ökonomische Wert von Daten als zentralem Input für KI-Systeme sowie das Risiko eines Marktversagens, wenn kreative Leistungen nicht ausreichend entlohnt werden.

Ich würde sagen, ein Marktversagen setzt einen Markt voraus. Und Lizenzierungen mit einer Opt-In-Lösung schaffen überhaupt erst einen Markt. Das liefe natürlich darauf hinaus, dass eine Vergütung gezahlt wird, die dem Wert der Werke, dem zentralen Input, dem Rohstoff entspricht.

In ihren politischen Schlussfolgerungen spricht sich die Studie für einen hybriden Regulierungsansatz aus. Dazu gehört eine Weiterentwicklung des bestehenden Opt-out-Systems, insbesondere durch bessere technische und rechtliche Durchsetzbarkeit, etwa über standardisierte Kennzeichnungen oder maschinenlesbare Rechteinformationen. Ergänzend wird der Aufbau kollektiver Lizenzmodelle empfohlen, die Transaktionskosten senken und eine breitere Beteiligung der Rechteinhaber ermöglichen. Darüber hinaus wird die Einführung oder Prüfung gesetzlicher Vergütungsmechanismen angeregt, die eine Nutzung von Daten erlauben, ohne individuelle Lizenzverhandlungen vorauszusetzen. Flankierend betont die Studie die Notwendigkeit von Transparenzpflichten für KI-Anbieter, um die Nutzung von Trainingsdaten nachvollziehbarer zu machen.

Aus Sicht der Urheber*innen müssen wir natürlich darauf beharren, dass die Urheber*innen und Rechteinhaber*innen über die Nutzung ihrer Werke bestimmen.

Dieses Recht wird beschnitten, wenn Kreative selbst dafür sorgen müssen, dass ihre Werke nicht für KI-Training verwendet werden. So eine Opt-Out-Regelung ist eine Rechtsumkehrung, und eine Vergütung darf keine Zustimmung ersetzen.

Wer Werke nutzen möchte, muss die Rechte dafür erwerben, nicht umgekehrt.

Lizenzbasierte Ansätze sind sehr wohl möglich und werden von den KI-Unternehmen ja auch schon verfolgt, siehe die Beiträge »Werde KI-Trainer!« in diesem Newsletter.

Die KI-Industrie wird als die lukrativste Innovation aller Zeiten gehandelt.

Ich würde sagen: Lassen wir das doch den Markt regeln – mit einer Opt-In-Regelung, bei der KI-Unternehmen Lizenzen aktiv erwerben müssen. Eine faire Honorierung kann nur sichergestellt werden, wenn die Rechteinhaber auch »Nein« sagen können.

(Kluwer Copyright Blog, 19.03.2026): https://legalblogs.wolterskluwer.com/copyright-blog/european-parliament-study-recommends-statutory-licensing-as-the-optimal-copyright-framework-for-ai-training/

https://www.europarl.europa.eu/RegData/etudes/STUD/2025/778859/IUST_STU(2025)778859_EN.pdf

Whitepaper »KI-Resilienz im Journalismus«

Dr. Leif Kramp, Medien- und Journalismusforscher sowie Forschungskoordinator des Zentrums für Medien-, Kommunikations- und

Dr. Leif Kramp, Medien- und Journalismusforscher sowie Forschungskoordinator des Zentrums für Medien-, Kommunikations- und Informationsforschung (ZeMKI) an der Universität Bremen, und Dr. Stephan Weichert, Medien- und Kommunikationswissenschaftler und Leiter des unabhängigen VOCER-Instituts für Digitale Resilienz, haben ein Whitepaper mit Handlungsempfehlungen für die Nutzung von KI im Journalismus erstellt. »Der Journalist« stellt das Papier vor.

Ehrlich gesagt habe ich mir das nicht durchgelesen; es geht dabei offenbar mehr um Text und nur am Rande um Bild und Foto. Ich will das hier aber natürlich trotzdem verlinken. Immerhin geht es offenbar weniger darum, wie man am besten durch den Einsatz von KI ein paar Stellen einspart, sondern darum, wie man KI verantwortungsvoll einsetzt. Sollte sich das jemand durchlesen, freue ich mich über Feedback.

(Der Journalist): https://www.journalist.de/ki-resilienz-im-journalismus/

Recht & Unrecht

KI-Training und der 3-Stufen-Test - eine Analyse

Der 3-Stufen-Test ist ein völkerrechtlicher Maßstab – verankert u. a. in der Berner Konvention – und legt fest, wann Ausnahmen vom Urheberrecht zulässig sind: nur in bestimmten Sonderfällen, ohne Konflikt mit der normalen Verwertung und ohne unzumutbare Beeinträchtigung der Rechteinhaber.

Die Urheberrechts-Experten Nicola Lucchi, Tim W. Dornis und Pascal T. Sierek analysieren in einem Artikel des Kluwer Copyright Blog, inwieweit der Test auf KI-Training anzuwenden ist.

Der Artikel macht geltend, dass genau dieser Test bei der Nutzung urheberrechtlich geschützter Werke als Trainingsdaten für generative KI bislang zu wenig beachtet wird. Stattdessen konzentriere sich die Diskussion stark auf technische Fragen oder auf neue Schrankenregelungen wie Text- und Data-Mining. Das greife zu kurz.

Im Zentrum steht die These einer möglichen »market dilution«. Generative KI-Systeme könnten bestehende Märkte für kreative Werke untergraben, indem sie Inhalte erzeugen, die als Substitute fungieren. Dadurch werde die »normale Verwertung« von Werken beeinträchtigt – ein klarer Konflikt mit dem Three-Step-Test. Entscheidend sei also nicht nur, ob Werke für das Training genutzt werden dürfen, sondern auch, welche wirtschaftlichen Folgen daraus entstehen.

Die drei Experten bezeichnen diese Marktfrage als den »elephant in the room« der aktuellen Regulierung: Solange nicht geklärt sei, wie sich KI-generierte Inhalte auf bestehende Märkte auswirken, lasse sich auch die urheberrechtliche Zulässigkeit vieler Trainingspraktiken nicht sauber beurteilen.

Fazit: Die rechtliche Bewertung von KI-Training darf sich nicht auf den Zugang zu Daten oder formale Schranken konzentrieren, sondern muss systematisch prüfen, ob generative KI die wirtschaftliche Grundlage kreativer Märkte untergräbt – denn genau daran entscheidet sich letztlich die Vereinbarkeit mit dem Three-Step-Test.

(Kluwer Copyright Blog, 31.03.2026): https://legalblogs.wolterskluwer.com/copyright-blog/training-data-market-dilution-and-the-elephant-in-the-room-why-the-three-step-test-matters-for-generative-ai/

Robert Kneschke gegen LAION e.V. geht in die nächste Runde

In Sachen Kneschke gegen LAION e.V. ist der Termin zur mündlichen Verhandlung vor dem I. Zivilsenat des Bundesgerichtshofs in Karlsruhe auf Donnerstag, den 3. September 2026, um 9:00 Uhr bestimmt.

Über den Streit zwischen unserem Kollegen Robert Kneschke und dem in Hamburg ansässigen Verein habe ich in diesem Newsletter ja bereits mehrfach berichtet. Im Kern geht es um die Frage, ob und unter welchen Bedingungen urheberrechtlich geschützte Fotos für das Training von KI-Systemen genutzt werden dürfen.

Robert Kneschke sieht seine Rechte verletzt, weil seine Bilder offenbar ohne Zustimmung und ohne Vergütung in Trainingsdatensätzen verwendet wurden. Er argumentiert, dass dies eine unzulässige Nutzung seiner Werke darstellt. Die Gegenseite beruft sich hingegen auf bestehende Ausnahmen im Urheberrecht, insbesondere auf Regelungen zum sogenannten Text- und Data-Mining, die unter bestimmten Umständen eine solche Nutzung erlauben.

Der Fall gilt als grundlegend, weil er zentrale offene Fragen im Umgang mit generativer KI und Urheberrecht berührt: etwa die Frage, ob das massenhafte Auswerten von Bildern für Trainingszwecke überhaupt eine urheberrechtlich relevante Nutzung darstellt und ob Kreative ein Recht auf Vergütung oder zumindest auf Zustimmung haben.

Das Hamburger Oberlandesgericht hatte die Klage abgewiesen; das Urteil war ein Rückschlag für alle Bemühungen, Urheberrechte gegenüber KI-Unternehmen zu wahren.

Sollte der Bundesgerichtshof zugunsten des Fotografen entscheiden, könnte das weitreichende Folgen für die Praxis vieler KI-Unternehmen haben – etwa in Form strengerer Lizenzpflichten oder neuer Vergütungsmodelle. Umgekehrt würde ein Urteil zugunsten der KI-Anbieter die bestehende Praxis weitgehend bestätigen.

(Photografix, 18.01.2026): https://www.photografix-magazin.de/ki-training-fotograf-zieht-vor-den-bundesgerichtshof

»Metall auf Metall« oder »Was ist ein Pastiche?«

Achtung, hier kommt ein kleiner Exkurs. Es geht um einen Rechtsstreit, der schon deutlich älter ist als die Apps für generative KI. Musikproduzent Moses Pelham verwendete 1997 ein 2-Sekunden-Sample aus dem Stück »Metall auf Metall« von Kraftwerk für den Song »Nur mir« von Sabrina Setlur – verlangsamt und als Loop wiederholt, allerdings ohne Zustimmung von Kraftwerk.

Daraus ergab sich ein Rechtsstreit durch alle Instanzen. Interessant ist dabei, dass im Rahmen dessen nun auch vom Europäischen Gerichtshof geklärt wurde, was ein »Pastiche« ist. Manche kennen den Begriff vielleicht aus der Frage der Beschränkung der Urheberrechte für Zitate, Karikaturen, Parodien und eben das Pastiche. Bei Nutzungen in diesem Rahmen haben Urheber bzw. Rechteinhaber keine Ansprüche. Mir fiel der Begriff das erste Mal vor die Füße, als es um das Urheberdiensteanbietergesetz ging und sich die Frage stellte, wann Werke in sozialen Medien ohne Erlaubnis der Urheber*innen genutzt werden dürfen.

Was also ist dieses Pastiche, das den Schutz für Eure Werke aufhebt?

Es geht um eine »künstlerische Übernahme«, also es wird nicht unbedingt das betreffende Werk selbst verwendet, wie zum Beispiel bei einem Zitat.

Nach Auffassung des EuGH ist ein Pastiche ein Werk, das »an ein oder mehrere bestehende Werke erinnern, gleichzeitig aber wahrnehmbare Unterschiede zu diesen aufweisen und, einschließlich im Wege des »Sampling«, einige ihrer urheberrechtlich geschützten Elemente nutzen, um mit diesen Werken einen als solchen erkennbaren künstlerischen oder kreativen Dialog zu führen, der verschiedene Formen annehmen kann, darunter die einer offenen Nachahmung des Stils dieser Werke, einer Hommage an sie oder einer humoristischen oder kritischen Auseinandersetzung mit ihnen.«

Und hier könnte sich jetzt natürlich schon eine Anwendung von generativer KI ergeben, die dann als Pastiche gewertet wird. Aber es braucht einen »erkennbaren künstlerischen oder kreativen Dialog« mit dem Ursprungswerk.

(Legal Tribüne Online, 14.04.2026): https://www.lto.de/recht/hintergruende/h/eugh-c59023-metall-auf-metall-kraftwerk-pelham-pastiche-dialog

Das Urteil selbst kann hier nachgelesen werden: https://infocuria.curia.europa.eu/tabs/document/C/2023/C-0590-23-00000000RP-01-P-01/ARRET/319188-DE-1-html

Termin

German Creative Economy Summit, Kampnagel, Hamburg, 

Der German Creative Economy Summit (GCES) ist der bundesweite Leitkongress der deutschen Kreativwirtschaft. Einmal jährlich bringt er rund 1.100 Akteur*innen aus Politik, Verwaltung, Wirtschaft und allen 11 Teilmärkten der Kreativwirtschaft (Musik, Film, Buch, Presse, Architektur, Rundfunk, Darstellende Kunst, Design, Software/Games, Kunst, Werbung) in Hamburg zusammen – auf Einladung der Hamburg Kreativ Gesellschaft, Deutschlands größter öffentlicher Einrichtung zur Förderung der Kreativwirtschaft.

Es gibt eine Menge z. T. parallel stattfindender Veranstaltungen, und es geht fast immer um Kreativität und KI.

Auf Stage K2 geht es am 29.04. nach einem Impuls von Matthias Hornschuh (Initiative Urheberrecht) um das Thema, um das sich auch dieser Newsletter hauptsächlich dreht: »KI, Urheberrecht, Business«. Die Frage lautet: »Wem gehört Kreativität im neuen KI-Zeitalter?«

Es sprechen RA Dr. Sebastian Rengshausen (Kanzlei Unverzagt), gemeinsam mit Michael Duderstädt (GEMA) und Anne Kaiser (PAGE). Moderiert wird das Panel von Katharina Uppenbrink (Initiative Urheberrecht)

Datum: 28./29.04.2026 - Ort: Kampnagel, Jarrestraße 20, 22303 Hamburg

Mehr Infos: https://german-creative-economy-summit.de

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com