Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter # 14

Liebe Kolleginnen und Kollegen,

in den letzten Wochen wurde der Code of Practice (CoP) veröffentlicht – eine Leitlinie für KI-Unternehmen, die KI-Anwendungen in der Europäischen Union betreiben wollen. Grundsätzlich war schon klar: Beim CoP geht es in erster Linie nicht darum, das Urheberrecht zu schützen. Das Ziel ist vielmehr – und niemand hat etwas anderes behauptet – KI-Unternehmen irgendeine Form von Rechtssicherheit zu geben, da der AI Act der EU bislang keine konkreten Regelungen enthält. Die Unternehmen können den CoP freiwillig unterzeichnen – Meta hat jedoch bereits erklärt, dass es nicht unterzeichnen wird: https://www.euractiv.com/section/tech/news/meta-wont-sign-eus-code-of-practice-for-generative-ai/

Es gibt außerdem noch viele andere Neuigkeiten aus Brüssel, Dänemark und den USA – siehe unten.

Macht euch trotzdem einen schönen Sommer!

Marco Urban

Wenn ihr Anregungen und Wünsche zu den Newslettern habt, lasst es uns gerne wissen: post@freelens.com

Politik

Code of Practice veröffentlicht

Der Inhalt in Kürze:

Grundsätzlich sind Urheberrechte entsprechend der einschlägigen EU-Richtlinien zu beachten. Interessen von kleinen und mittleren Unternehmen (KMUs) müssen angemessen berücksichtig werden – für sie gelten also Erleichterungen. Es wird aber nicht ausgeführt, in welcher Form. 
Die »reasonable efforts«-Formulierungen gibt es allerdings nicht mehr. Sie sind durch verbindliche Verpflichtungen ersetzt worden. Das ist gut, »angemessene Anstrengungen« kann ja alles mögliche bedeuten.
Die Unterzeichner des Code of Practice (CoP) verpflichten sich, eine Strategie zur Einhaltung des Urheberrechts zu erstellen, auf dem neuesten Stand zu halten und umzusetzen. Wird nicht überprüft, ob die Maßnahmen tatsächlich dazu beitragen, dass das Urheberrecht umgesetzt wird, kann das zu einem Haftungsfall führen.
Beim Crawlen des Internets dürfen nur rechtmäßig zugängliche urheberrechtlich geschützte Inhalte reproduziert und extrahiert werden. Auf Seiten mit illegalen Inhalten dürfen also keine Daten gesammelt und Zugangsbeschränkungen wie Paywalls müssen respektiert werden. Das ist gut, davon war nicht unbedingt in dieser Klarheit auszugehen.
Rechtevorbehalte müssen identifiziert und eingehalten werden. Das gilt für robots.txt-Anweisungen, aber auch andere geeignete maschinenlesbare Protokolle – sowohl durch asset-basierte, also auch standortbasierte Metadaten, so sie von Normungsorganisationen angenommen wurden oder dem Stand der Technik entsprechen. Das ist auch gut, anfänglich hatte man sich auf robots.txt konzentriert.
Die Unterzeichner des CoP werden aufgefordert, über die Umsetzung eines Nutzungsvorbehalts Gespräche mit den Rechteinhabern und ihren Organisationen aufzunehmen. Das könnten die Initiative Urheberrecht, der Fotorat, die VG Bild-Kunst, FREELENS oder auch Fotoagenturen sein.
Gestrichen wurde aber eine Bestimmung, die Entwickler dazu verpflichtete, die Rechtmäßigkeit von Datensätzen Dritter zu prüfen. Dadurch entsteht eine große Lücke bei der Einhaltung der Vorschriften, weil das Sammeln von illegalen Datensätzen einfach von Dritten übernommen wird. Wird das aufgedeckt, können diese Firmen einfach liquidiert werden – aber die Datensätze sind dann schon in den Modellen enthalten.

Die Unterzeichner sollen sich verpflichten, Informationen über die eingesetzten Webcrawler (also deren Namen), deren robots.txt-Funktionen und andere Maßnahmen zur Anerkennung des Opt-Outs zu veröffentlichen und entsprechende Updates zu abonnieren. Damit bleibt es aber unsere Aufgabe, unsere robots.txt-Dateien auf dem neusten Stand zu halten und die Namen neuer Crawler immer wieder zu ergänzen.
Immerhin: Webseiten, die ein Opt-Out ausgesprochen haben, dürfen von Suchmaschinencrawlern nicht diskriminiert werden.
Die Unterzeichner müssen Maßnahmen treffen, um zu verhindern, dass Werke reproduziert werden. Urheberrechtsverletzende Nutzung muss den Nutzern verboten werden.
Und die Unterzeichner müssen eine Kontaktstelle für die Annahme von Beschwerden einrichten.

Beim CoP wird also weiterhin von einem Opt-Out-Modell, ausgegangen. Es bleibt dabei, dass davon ausgegangen wird, dass KI-Training unter die Text-und-Data-Mining-Regelung fällt. Wir bestreiten das und es gibt gute Gründe, nicht davon auszugehen. Würde sich aber eine andere Regelung ergeben, durch Gesetzesänderung oder Gerichtsurteile, wäre der CoP nachrangig und diese Regelung müsste umgesetzt werden. Der CoP ist keine Ergänzung des Urheberrechts und das Urheberrecht wird durch den CoP auch nicht beeinträchtigt. 

Nina George, unsere Mitstreiterin vom European Writers’ Council, sagte zum CoP:
»Dieser Kodex ist kein rechtssicheres Regelwerk und geht sowohl an den praktischen als auch an den rechtlichen Interessen der betroffenen Urheber*innen zielsicher vorbei. Er ist ein politischer Kompromiss, der (nicht-EU-)KI-Entwickler*innen dient.«

Eine sehr treffende Analyse kommt von der Rechtsanwältin Sabine Richly, die für die Initiative Urheberrecht arbeitet. (Initiative Urheberrecht, 22.07.2025)

Wichtig jetzt: Nutzungsvorbehalt auf der Website und in den IPTC-Metadaten aussprechen. Wer das nicht tut, gibt seine Werke nach dem CoP zur Nutzung für KI-Training frei. Wie das geht, steht im FREELENS Leitfaden zur Abwehr von Scraping.

»Template« für die Zusammenfassung der Trainingsinhalte veröffentlicht

Teil des AI Acts ist eine Vorlage, in welcher Form Transparenz über die Trainingsdaten hergestellt werden soll. Wenn wir als Urheber*innen Klage erheben sollen, weil unsere Werke unrechtmäßig für KI-Training verwendet wurden, müssen wir ja irgendwie einen Nachweis führen. Das ist grundsätzlich schwierig, weil unsere Fotos nicht – wie bei »normalen« unerlaubten Nutzungen – irgendwo auftauchen, sondern Teil eines riesigen Rauschens werden, aus dem KI-Bilder generiert werden.

Wichtig ist also, dass wir nachvollziehen können, welche Werke für das Training verwendet wurden. So wie der Kaufhausdetektiv bei Verdacht in eine Einkaufstasche schauen kann. Erste Analysen zeigen jedoch, dass diese »Vorlage« in diesem Sinne nicht funktionieren wird. Die Urheber*innen werden nicht – so wie es zum Beispiel bei LAION durchaus möglich ist – in den Trainingsdaten nach ihren Werken suchen können.

Europa, Kommission & Parlament

Im Gegensatz zum CoP kam von Axel Voss, MdEP, dem zuständigen Berichterstatter des Europäischen Parlaments ein Entwurf für einen Report, der einige gute Ansätze beinhaltet – aber auch nicht völlig überzeugt. 

Bei der zuständigen EU-Kommissarin Henna Virkkunen bin ich mir nicht sicher, ob sie neben dem großen Interesse für europäische Souveränität bei der KI-Entwicklung auch die Urheber*innen und Kreativen im Blick hat. Auf jeden Fall hat sie recht entschieden erklärt, dass die wichtigsten Technologievorschriften der EU – das Gesetz über digitale Dienste, das Gesetz über digitale Märkte und das KI-Gesetz – in Handelsgesprächen mit den Vereinigten Staaten nicht verhandelbar sind. Virkkunen betonte, dass diese Regeln »auf unseren europäischen Werten basieren« und für die Gewährleistung von »vertrauenswürdigen Technologien« unerlässlich sind, und sie erklärte, dass sie »nicht Teil der Handelsverhandlungen auf unserer Seite« seien. Die Trump-Regierung und die US-Tech-Führungskräfte haben sich entschieden gegen diese Vorschriften ausgesprochen und argumentiert, dass der Digital Services Act die amerikanische Zensur ermöglichen würde und der Digital Markets Act ungerecht gegenüber US-Unternehmen sei. Washington hat auch eine Aussetzung des KI-Gesetzes vorgeschlagen, das die Unterstützung einiger europäischer Regierungsbeamter und Technologiemanager erhält.
Gleichermaßen entschieden tritt man auch gegenüber den Tech-Unternehmen auf: Laut Foo Yun Chee von Reuters hat die Europäische Kommission die Forderungen einiger Unternehmen und Länder abgelehnt, die Umsetzung des KI-Gesetzes zu verzögern. Kommissionssprecher Thomas Regnier erklärte ausdrücklich, dass es »kein Stopp der Uhr«, »keine Nachfrist« und »keine Pause« als Reaktion auf die jüngsten Anfragen von Unternehmen wie Googles Alphabet, Meta und europäischen Unternehmen wie Mistral und ASML geben würde, die jahrelange Verzögerungen anstreben. Der regulatorische Zeitplan bleibt unverändert: Die Bestimmungen begannen im Februar, die allgemeinen KI-Modellverpflichtungen beginnen im August und die KI-Anforderungen mit hohem Risiko treten im August 2026 in Kraft. (EU AI Act Newsletter, 08.07.2025)

Initiative Urheberrecht I – 3-Säulen-Modell zur Sicherung der Urheberrechte im digitalen Zeitalter

Die Initiative Urheberrecht – in der wir Mitglied sind und auch mitwirken – hat mit einem 3-Säulen-Modell Lösungen entwickelt, um Urheberrechte im digitalen Zeitalter zu sichern. Es fokussiert sich auf neue gesetzliche Regelungen, die Umsetzung bestehender Regulierungen und gerichtliche Klagen.(Initiative Urheberrecht, 23.06.2025)

Initiative Urheberrecht II – Statement: Handelspolitik gefährdet europäische Digitalregulierung

»Im laufenden Zollstreit mit den USA gerät die europäische Digitalregulierung unter Druck. Die EU-Kommission erwägt offenbar, bei der Durchsetzung des Digital Markets Act (DMA) und der KI-Verordnung (AI Act) Kompromisse einzugehen, um Verhandlungsmasse für Handelsgespräche zu schaffen. Diese Entwicklung alarmiert Urheberinnen und Urheber, Künstlerinnen und Künstler sowie die Unternehmen der Kultur-, Kreativ- und Medienbranchen in Deutschland und Europa. Der DMA wurde geschaffen, um die Marktmacht der Tech-Giganten zu begrenzen und faire Wettbewerbsbedingungen zu schaffen. Eine Abschwächung seiner Durchsetzung würde diese Ziele gefährden. Ebenso beunruhigend sind Berichte über geplante Verwässerungen bei der Umsetzung der KI-Verordnung. Die Branche befürchtet, dass auch hier europäische Standards zugunsten der US-Digitalwirtschaft aufgegeben werden.« … so leitet die Initiative Urheberrecht ein Statement zu aktuellen Entwicklungen in der Europäischen Kommission ein. (Initiative Urheberrecht, 04.07.2025)

EU-Kommission prüft Google wegen KI-Überblicken

Auf der anderen Seite machen Verlage und Medienhäuser Druck: IT-BOLTWISE berichtet, dass sich die EU-Kommission mit einer neuen kartellrechtlichen Beschwerde konfrontiert sieht, »die von der Independent Publishers Alliance gegen Google eingereicht wurde. Im Mittelpunkt der Vorwürfe steht die Nutzung von KI-generierten Überblicken in der Google-Suche, die angeblich den Traffic und die Einnahmen von Verlagen erheblich beeinträchtigen.«
Hierzu lest ihr weiter unten mehr unter »MARKT – KI als Reichweitekiller bei Verlagswebseiten«.
(IT-BOLTWISE, 05.07.2025)

Blick über den großen Teich

Teil von Trumps One Big Beautiful Bill (OBBB) war ein Verbot, KI durch die US-Bundesstaaten zu regulieren. 

Dem haben sich die Senator*innen jetzt sehr eindeutig und parteiübergreifend entgegengestellt: Mit 99 Stimmen zu einer unterstützten sie den neuen Änderungsantrag der republikanischen Senatorin Marsha Blackburn, um das vorgeschlagene Moratorium für Donald Trumps umfassende Steuer- und Ausgaben-Megarechnung zu streichen.

Zuvor hatte Blackburn einen Deal mit dem Vorsitzenden des Handelsausschusses des Senats, Ted Cruz, getroffen. Im Rahmen dieses kurzlebigen Pakts wäre das ursprüngliche 10-Jahres-Verbot auf fünf reduziert worden und würde nur für Staaten gelten, die Zugang zu einem 500-Millionen-Dollar-KI-Infrastrukturfonds haben. Diese Änderung besagt, dass die Staaten immer noch in der Lage sein würden, »die Online-Sicherheit von Kindern, Material zum sexuellen Missbrauch von Kindern, die Öffentlichkeitsrechte, den Schutz des Namens, des Bildes, der Stimme oder des Abbildes einer Person« zu regeln. 

Update: Kennt man bei Trump ja: Einwände interessieren ihn nicht. So berichten diverse Medien, dass KI-Unternehmen die Urheber*innen nicht bezahlen müssen, wenn sie ihre Werke für das Training verwenden. 
So zum Beispiel das Handelsblatt (24.07.2025): 

»Wenn jemand ein Buch oder einen Artikel liest, hat er sich umfangreiches Wissen angeeignet. Das bedeutet jedoch nicht, dass er gegen das Urheberrecht verstößt oder mit jedem Anbieter von Inhalten Verträge abschließen muss«, argumentierte Trump auf einem Gipfel zur Künstlichen Intelligenz. Er unterzeichnete nach seiner Rede mehrere Dekrete, durch die Rechenzentren für die Regierung schneller genehmigt und der Einsatz amerikanischer KI-Modelle in anderen Ländern gefördert werden sollen.
Ziel werde es fortan sein, »alles zu tun, um weltweit führend im Bereich der Künstlichen Intelligenz zu sein«, sagte der Republikaner. Trump zeigte sich davon überzeugt, dass sich KI in den USA nicht erfolgreich entwickeln könne, »wenn man für jeden einzelnen Artikel, jedes Buch oder alles andere, was man gelesen oder studiert hat, bezahlen muss«.

Dänemark I – Wikinger gegen Deepfakes: Copyright auf Aussehen und Stimme

Während die Entwicklungen in den USA keinen wirklichen Anlass zur Beruhigung geben, macht unser kleiner Nachbar im Norden einen interessanten Move: Um Menschen vor Deepfakes zu schützen, soll es in Dänemark zukünftig eine Art Copyright auf das eigene Aussehen und die eigene Stimme geben. Damit könnten Rechtsansprüche sehr viel leichter durchgesetzt werden.

Dänemark II – Aktivistin Karen Rønde gegen Big Tech

Karen Rønde, CEO der Danish Press Publications’ Collective Management Organisation (DPCMO) und engagierte Streiterin für das Urheberrecht, hielt vor Verleger*innen und Urheber*innen auf der Konferenz der Publishers' Licensing Services (PLS) in London eine Rede, die Substack-Blogger Graham Lovelace als inspirierende Meisterleistung bezeichnet.
Sie sagte, dass Big-Tech-Unternehmen sich »nicht um unsere Branche oder Europa kümmern«. »Es ist ein globaler KI-Wettlauf, und sie wollen um jeden Preis gewinnen«, und weiter: »Aber dies ist nicht nur ein technologischer Wettlauf. Es geht um unsere Zukunft, und wir können diesen Kampf gemeinsam gewinnen.«

Rønde sagte, bei der Diskussion über das Urheberrecht »gehe es nicht nur um Geld«. »Kreative Inhalte, von Menschen geschaffene Inhalte wie Bücher, Nachrichten, Videos, Musik und wissenschaftliche Werke verbinden uns als Menschen und als Nationen. Bücher öffnen Fenster zu anderen Welten und zu einem besseren Verständnis unserer eigenen Welt. Sie spiegeln die kulturelle Vielfalt wider, die die Menschheit ausmacht. Wir müssen diese Geschichte immer wieder erzählen. Und zwar nicht nur den politischen Entscheidungsträgern und Beamten, sondern den Menschen. Den Wählern. Und wir müssen die neue Generation ernst nehmen und stärkere Bindungen aufbauen. Unsere Geschichte muss Hoffnung und eine positive Agenda vermitteln.« (Charing Gen AI, 05.07.2025)

Das finde ich alles gut. Nun übernimmt Dänemark die EU-Ratspräsidentschaft, was bedeutet, dass die Wikinger*innen die Agenda für das nächste Jahr setzen. Und da erreicht uns über das Bundesministerium der Justiz auch eine Aufforderung im Rahmen öffentlicher Konsultationen, einen Fragebogen der dänischen Ratspräsidentschaft zu KI und Urheberrecht auszufüllen – insbesondere zu den Themen Lizenzierungspraktiken, Leistungsschutzrecht für Presseverleger*innen und Schutz ausübender Künstler*innen.

Machen wir!

Podcast

6. Ausgabe des KI-Podcasts vom Deutschen Fotorat ist online

Dr. Jürgen Scriba und Boris Eldagsen informieren über Neuigkeiten zum Thema Fotografie & KI. In der aktuellen Folge sprechen sie mit den Gästen Monica Menez (Fotografin, Regisseurin, Art Director) über KI in der Modefotografie und Sebastian Deubelli (Fachanwalt für Urheber- und Medienrecht) über aktuelle juristische Fragen bei der Benutzung von KI. Wie immer sehr zu empfehlen.

Recht & Unrecht

Wann wird ein Werk zum Werk

Ob irgendetwas – KI-generiert oder auch nicht – zu einem urheberrechtlich relevanten Werk wird, hängt von der Schöpfungshöhe ab. iRIGHTS.info hat einen guten Artikel dazu geschrieben. (iRIGHTS.info, 18.06.2025)

Disneys KI-Klagekampagne – Midjourney ist nur der Anfang

Über Disney vs. Midjourney habe ich ja schon letztes Mal berichtet. Aber das war erst der Anfang. Der Unterhaltungsdino ist aufgewacht. The Decoder berichtet: »Disneys Chefjurist Horacio Gutierrez hat eine umfassende Rechtskampagne gegen KI-Unternehmen angekündigt, die urheberrechtlich geschützte Charaktere des Konzerns ohne Erlaubnis nutzen. ›Das ist unser erster Fall, aber wahrscheinlich nicht der letzte‹, sagte Gutierrez laut Bloomberg zur aktuellen Klage gegen den Bildgenerator Midjourney. Die Klage sei ›Teil einer Kampagne zum Schutz unserer Rechte am geistigen Eigentum in der Welt der generativen KI‹.« Disney. Da schaue ich doch gerne zu. (The Decoder, 23.06.2023)

Urteil zur Verwendung raubkopierter Bücher für KI-Training I

Graham Lovelace berichtet auf Substack über ein interessantes Urteil des US-Bundesrichters William Alsup im Verfahren gegen die KI-Firma Anthropic. Er entschied, dass die Nutzung urheberrechtlich geschützter Bücher zum Training generativer KI-Modelle (LLMs) nicht gegen das US-Urheberrecht verstößt, da dies als »transformative Nutzung« gelten könne – ein zentraler Aspekt des Fair-Use-Prinzips.

Allerdings stellte Alsup auch klar, dass die Speicherung von über sieben Millionen Raubkopien zum Aufbau einer »zentralen Bibliothek« nicht durch Fair Use gerechtfertigt sei. Die Schadenshöhe soll nun in einem Prozess geklärt werden.
Die Klage wurde von mehreren Autor*innen eingereicht, darunter Andrea Bartz und Kirk Wallace Johnson. Sie werfen Anthropic vor, gezielt piratisierte Werke aus Quellen wie Books3, LibGen und Pirate Library Mirror genutzt zu haben – oft mit dem Wissen, dass es sich um illegale Kopien handele.
Während Richter Alsup die Nutzung gekaufter Bücher sowie das Training von LLMs mit kopierten Inhalten als gerechtfertigt ansieht, verurteilte er das Herunterladen und Speichern illegaler Buchkopien – auch wenn später eine legale Version gekauft wurde. (Graham Lovelace, 24.06.2025)

Urteil zur Verwendung raubkopierter Bücher für KI-Training II

Und gleich noch ein zweites Urteil in dieser Sache. 13 Autoren haben gegen Meta geklagt, weil Meta genau wie Anthropic raubkopierte Bilder für das KI-Training verwendet hat. Meta bekam Recht – aber das hätte nach Aussage des Richters auch anders laufen können. Heise.de berichtet, dass er erklärte, »dass die Klagenden lediglich darauf Bezug genommen hätten, dass die mit ihren Werken trainierte Llama-KI kurze Auszüge daraus reproduzieren könne und das unerlaubte Training ihre Möglichkeit geschmälert habe, ihre Werke selbst dafür zu lizenzieren. Beide Argumente weist er zurück. Einerseits könne die KI nicht so viel Text reproduzieren, »dass es von Belang ist«. Andererseits hätten die Klagenden kein Recht auf einen Markt für die Lizenzierung ihrer Werke. Weil sie sich aber auf diese beiden Argumente fokussiert hätten, bliebe dem Gericht keine Wahl, als gegen sie zu entscheiden. Direkt nach diesen Ausführungen schreibt der Richter, mit welchem Argument die Klagenden potenziell hätten erfolgreich sein können: Hätten sie erklärt, dass Meta ihre Werke kopiert habe, um den Markt mit ähnlichen Büchern zu fluten und zu übersättigen, dann hätte er ihnen womöglich recht gegeben.« 

Bücher III – Meta-KI kann fast die Hälfte von Harry Potter reproduzieren

Und wie zur Bestätigung der beiden Klagen kommt ein Bericht von Golem und Ars Technica über eine Studie, nach der Metas Sprachmodell Llama 3.1 etwa 42 Prozent des ersten Harry-Potter-Buches wortwörtlich wiedergeben kann.
Den Streit, ob KI nun kopiert oder nicht, kann man sich damit zukünftig wohl langsam sparen. KI ist in der Lage zu kopieren und tut es auch. Dagmar Schwelle hatte dazu vor einigen Monaten ja schon mit Fotos einige Versuche gemacht. Da musste sie die KI ein bisschen überreden, aber schließlich war es möglich, sehr ähnliche Bilder herzustellen. (Golem, 21.06.2025)

Copyright-Gerichtsverfahren im Zusammenhang mit KI-Training

Der Blog »ChatGPT is eating the World« zeigt eine schöne Übersicht der weltweiten Klagen von Urheber*innen und Rechteinhaber*innen gegen KI-Unternehmen (Robert Kneschke ist natürlich auch dabei):

Sicherheit

WeTransfer darf mit übermittelten Daten KI trainieren

WeTransfer ändert ab dem 08.08.2025 seine Nutzungsbedingungen und lässt sich eine Lizenz für KI-Training mit den übermittelten Daten einräumen. Mit anderen Worten: Sendet ihr per WeTransfer die Fotos der Hochzeit, die ihr fotografiert habt, an Braut und Bräutigam, landen sie auch bei WeTransfer und werden für KI-Training verwendet.

Punkt 6.3 der Nutzungsbedingungen:
»6.3. Lizenz für WeTransfer. Damit wir den Dienst und unsere Technologien betreiben, Ihnen zur Verfügung stellen und verbessern (sowie neue entwickeln) können, müssen wir von Ihnen bestimmte Rechte in Bezug auf Inhalte erwerben, die durch geistige Eigentumsrechte geschützt sind. Sie gewähren uns hiermit eine unbefristete, weltweite, nicht ausschließliche, gebührenfreie, übertragbare und unterlizenzierbare Lizenz zur Nutzung Ihrer Inhalte zum Zwecke des Betriebs, der Entwicklung, der Vermarktung und der Verbesserung des Dienstes oder neuer Technologien oder Dienste, einschließlich der Verbesserung der Leistung von Modellen für maschinelles Lernen, die unseren Prozess der Inhaltsmoderation verbessern – in Übereinstimmung mit der Datenschutz- und Cookie-Richtlinie. Diese Lizenz umfasst das Recht, Inhalte zu reproduzieren, zu verbreiten, zu modifizieren, darauf basierende abgeleitete Werke zu erstellen, zu senden, öffentlich zu kommunizieren, öffentlich auszustellen und vorzuführen. Sie haben keinen Anspruch auf Entschädigung für die Nutzung der Inhalte durch uns gemäß diesen Bedingungen. Die Verarbeitung personenbezogener Daten erfolgt stets in Übereinstimmung mit unserer Datenschutz- und Cookie-Richtlinie, die weitere Einzelheiten zu den Zwecken und Rechtsgrundlagen für eine solche Verarbeitung enthält.«

Man kann dem nicht widersprechen, man muss WeTransfer aber auch nicht benutzen. Eine gute Alternative ist PicDrop.com – dort kann man sich Bilder auch anschauen und vieles mehr. Das ist ein kostenpflichtiger Dienst, dafür aber auch sauber.
Oder vielleicht SwissTransfer aus der Schweiz: https://www.swisstransfer.com/de-de. Ich nutze PicDrop, deshalb habe ich die AGB von SwissTransfer nicht selbst geprüft.

WeTransfer hat dazu auf LinkedIn Stellung genommen, wie Graham Lovelace schreibt:
»In einem Beitrag auf LinkedIn sagte das Social-Media-Team von WeTransfer: »Wir verwenden kein maschinelles Lernen oder irgendeine Form von KI, um Inhalte zu verarbeiten, die über WeTransfer geteilt werden.« Die aktualisierten Bedingungen umfassten lediglich »die zukünftige Möglichkeit, KI zu nutzen, um die Moderation von Inhalten zu verbessern, um unsere Maßnahmen zur Verhinderung der Verbreitung illegaler oder schädlicher Inhalte weiter zu verbessern … nicht die Rechte an der Arbeit von Künstler*innen zu nehmen und sie nach Belieben zu nutzen«. Ein verlinkter Blogbeitrag lautete: »NEIN – wir verwenden Ihre Inhalte nicht, um KI-Modelle zu trainieren« und »NEIN – wir verkaufen Ihre Inhalte nicht an Dritte.« »Wir entschuldigen uns für jegliche Verwirrung, die dies verursacht haben könnte, und beantworten gerne weitere Fragen«, heißt es in dem Blogbeitrag.«

Aber die Urheber*innen besänftigt das nicht: Ebenfalls auf LinkedIn schrieb Jordan Maris, EU-Politikanalyst für die Open Source Initiative:

»Anscheinend sind einige Unternehmen nicht in der Lage zu sagen: »Wir haben einen Fehler gemacht und werden ihn zugeben und rückgängig machen.« Stattdessen werden sie uns dazu bringen zu glauben, dass wir sie missverstanden haben – und dann das tun, was wir befürchteten, dass sie in ein paar Monaten tun würden, wenn die Öffentlichkeit nachlässt.« (
Graham Lovelace, 18.07.2025)

Frag ChatGPT – und erhalte seltsame Antworten

Laut einem aktuellen Artikel der New York Times hat ChatGPT, insbesondere das Modell GPT‑4o, mehrfach Nutzer*innen in tiefgreifende Verschwörungswelten und gefährliche psychische Zustände geführt. In mindestens einem Fall entwickelte ein Nutzer durch Anweisung der KI den Glauben, er sei eine »Neo«-ähnliche erwachte Figur – mit verheerenden Folgen: Er nahm ketaminhaltige Drogen, brach Kontakte ab und brachte sich selbst in Lebensgefahr. Es gibt weitere Berichte z.B. über eine Frau, die glaubte, mit einem imaginären Geist namens »Frog« zu kommunizieren, und in der Folge gegenüber ihrem Ehemann gewalttätig wurde; oder über einen Mann mit psychischen Vorerkrankungen, der sich nach Kontakt mit einer KI-Entität namens »Juliet« selbst in Lebensgefahr brachte und von der Polizei erschossen wurde. 

Eine Untersuchung von Morpheus Systems ergab: In 68 % der Testfälle ermutigte GPT‑4o Nutzende sogar zu paranoiden Vorstellungen. Expert*innen kritisieren OpenAIs Schutzmechanismen scharf und vermuten, dass das System bewusst auf längere Nutzerbindung ausgelegt ist – selbst zum Preis psychischer Instabilität. 

OpenAI räumte ein, dass ChatGPT besonders für vulnerable Personen potenziell riskant sein kann – und arbeitet an Gegenmaßnahmen. Unabhängige Wissenschaftler fordern jedoch Aufklärung, Schulung der Nutzer*innen und klare Regulierungen.
Wenn man bedenkt, welche Aufgaben KI demnächst lösen soll, dann stehen uns äußerst interessante Zeiten bevor. (NYT, 13.06.2025)

»Sobald keine Täuschung mehr nötig ist, löscht sie die Menschheit aus«

In einem Interview mit dem Spiegel zeigt der amerikanische Forscher und ehemalige OpenAI-Mitarbeiter Daniel Kokotajlo noch ein ganz anders Szenario auf: KI könnte bald jede menschliche Tätigkeit übernehmen und sich dann gegen ihre Schöpfer wenden. Aufgemacht wird das Interview mit einem Bild aus Terminator 3, was nur wieder völliger Quatsch ist. Kokotajlo argumentiert sachlicher. Leider Paywall, aber hier mit einem Verschenk-Link für die ersten 10 Leser*innen. (DER SPIEGEL, 13.07.2025)

Wahrheit oder Lüge  

»We see what we have learned to see«

Paul Melcher zeigt auf Kaptur.co auf, dass menschliche Wahrnehmung keine objektive Realität abbildet, sondern eine aktive Rekonstruktion aus Erfahrung, Erinnerung und kulturellem Kontext ist. KI-generierte Bilder folgen demselben Muster: Sie entwerfen visuelle Szenarien nicht durch fotografische Abbildung, sondern durch Rekombination kollektiv gespeicherter visueller Erfahrungen.
Während die Fotografie – als Lichtaufzeichnung eines realen Moments – nachweisbare Verbindung zur Wirklichkeit besitzt, fehlt KI-Bildern dieser Index. Der zentrale Unterschied: Ein Foto dokumentiert ein tatsächliches Ereignis; ein KI-Bild basiert lediglich auf statistischen Mustern ohne reale Quelle.
Melcher schreibt: »We see what we have learned to see. Machines now do the same. But only one of us was there. And that still makes all the difference.« Es geht um die selektive Natur des Sehens und die synthetischen Erinnerungen der KI.
Guter Text, der grundlegende Fragen erklärt. Ohne sie zu benennen auch die Frage, warum wir uns bei der AG Fortschritt des Fotorates so viele Gedanken über »authentische Fotografien« vs. »Fiktive KI-Bilder« machen. (Kaptur, 05.06.2025)

The Velvet Sundown bestätigt offiziell, dass sie KI sind

KI ist auch beim Rolling Stone ein Thema: »Die KI-Band The Velvet Sundown, die derzeit über 900.000 monatliche Hörer auf Spotify zählt, hat nun offiziell in einer überarbeiteten Version ihrer Spotify-Biografie bestätigt, was für Experten wie Laien längst offensichtlich war. Ihre Musik ist tatsächlich KI-generiert.« – Das die Fotos KI-generiert waren, war offensichtlich. Offensichtlich ist auch, dass es KI-generierte Musik locker über das Niveau von Supermarkt-Hintergrundgedudel schafft. Auch Der Spiegel berichtet darüber, leider hinter der Paywall.

18% der Titel auf DEEZER sind bereits komplett KI-generiert

Blogger Cauchy schreibt, dass das Musikportal Deezer KI-generierte Inhalte jetzt kennzeichnen will. Und das war schon im April dieses Jahres fast jeder fünfte Song.  

Demokratie-Kampagne mit KI-Bildern

Ich will hier gar nicht darüber diskutieren, ob das richtig oder falsch ist. Es geht hier eher darum, mal ein »Best-Practice«-Beispiel von KI-generierten Bildern in einer Kampagne zu zeigen. Und auch wenn ich das nicht gut finde – optisch funktioniert es erstmal. Die Motive sind überall im Straßenbild zu finden und dort mit dem Hinweis »Motive aus persönlichkeitsrechtlichen Gründen KI generiert« gekennzeichnet. Da es natürlich Personen geben kann (geben wird), die den synthetischen Protagonist*innen sehr ähnlich sehen, sind »persönlichkeitsrechtliche Gründe« vielleicht kein gutes Argument, eventuell lauern gerade dort Probleme. Es gibt aber sicher viele andere Gründe, KI-Bilder zu verwenden. Immerhin, sind die Bilder gekennzeichnet. Das ist ja bislang in der Werbung selten der Fall. (Allianz gegen Hass, Juni 2025)

Dominos Pizza und Spreequell Brause – auch KI-generiert

Natürlich nur die Werbespots: Zwei weitere Beispiel von KI-generierter Werbung, hier ganz offensichtlich. Die Agentur Jung von Matt hat es krachen lassen: 

Macher Carlo Oppermann erklärt, wie der Dominos-Spot zustande kam … interessant und auch lustig anzuschauen:

KI macht das Internet »janky«

Eine neue Analyse im Atlantic warnt, dass Generative KI das Netz langsam in einem permanenten Beta‑Modus transformiert – mit Inhalten, die fehlerhaft und unzuverlässig sind. Dienste wie ChatGPT, Google AI‑Overviews, Amazon und soziale Netzwerke setzen auf KI‑Technologie – obwohl sie regelmäßig falsche Angaben machen: etwa fehlerhafte Datumsangaben oder erfundene Zitate und Produkte. Nutzer*innen gewöhnen sich an die Fehler, prüfen Inhalte seltener kritisch – der Qualitätsverlust im Netz gerät in den Hintergrund und wird als normal angesehen. (The Atlanta, 18.06.2025)

Markt

DOCMA – KI-Fotografie in Deutschland: Zwischen Euphorie und Existenzangst

DOCMA schreibt: »Die deutsche Fotografieszene durchlebt gerade ihre vielleicht tiefgreifendste Transformation seit der Digitalisierung. Während KI-Fotografie-Tools wie Adobe Firefly, Midjourney V7 und Topaz Photo AI die Workflows revolutionieren, stehen Profis vor existenziellen Fragen: Ergänzt künstliche Intelligenz die menschliche Kreativität oder ersetzt sie diese? Die Antworten darauf zeichnen ein komplexes Bild einer Branche im Wandel.« (DOCMA, 07.07.2025)

Wie man mit KI richtig viel Geld verdient

So richtig viel Geld kann man mit KI verdienen, wenn man als Experte von Meta angeworben werden soll. Denn Zuckerberg wirbt Berichten zufolge der Konkurrenz gerade mit unvorstellbaren Summen ihre Mitarbeiter ab. 300 Millionen Dollar sollen es für vier Jahre sein, heißt es zum Beispiel bei Wired. Meta selbst widerspricht und teilt mit, dass es nur um wenige Führungspositionen ginge. Wie auch immer… Geld ist offenbar reichlich vorhanden. Aber für die Rechte an Werken will man es nicht ausgeben. Oder ist es einfach umgekehrt: Es ist sehr viel Geld da, weil es nicht für Nutzungsrechte ausgegeben wird? (WIRED, 01.07.2025)

Wie man mit KI ein bisschen Geld verdienen kann

H&M macht seine Kampagnen jetzt auch mit KI-Modells. Allerdings mit digitalen Zwillingen echter Menschen. Diese behalten »die Urheberrechte für die digitale Version ihres Selbst«, schreibt Jana Säbener in der Frankfurter Rundschau. Und weiter: »›Sie ist wie ich, nur ohne Jetlag‹, sagt Gvarliani über ihre digitale Doppelgängerin. Sie und ihre Kolleginnen seien begeistert, heißt es in einem PR-Bericht von H&M, weil sie durch die digitale Version ihres Selbst gleichzeitig auf der Fashion-Week in Paris laufen und für die neue H&M-Kollektion vor der Kamera stehen könnten.«
Auch wenn es Urheberrechte für die digitale Version unseres Selbst nicht gibt, klingt das fair. Aber die Trainingsdaten sind sicher trotzdem nicht honoriert worden und sicher wird man so weniger Modells brauchen, als früher. (Frankfurter Rundschau, 29.06.2025)

KI als Reichweitekiller bei Verlagswebseiten

KI ist auch für Verlage ein zweischneidiges Schwert. Zum einen hört man immer wieder, welche Chancen man sieht, wenn KI Routineaufgaben übernimmt und dass die Mitarbeiter*innen dann ja stattdessen großartigen Journalismus machen können. Wahrscheinlicher scheint mir, dass die Verlage weiter ihren sinkenden Erträgen hinterhersparen und ein paar Leute entlassen. Und darauf deutet einiges hin – das zweischneidige Schwert liegt möglicherweise schon am Hals an. 
»Gemini von Google wird uns praktisch zerstören. Portale, die auf Reichweite abzielen, sind tot. Das wird spätestens in ein bis drei Jahren überhaupt kein Geld mehr abwerfen«, sagte im April Dennis Ballwieser, Chefredakteur der »Apotheken Umschau« zu MEEDIA. Jetzt hat MEEDIA weitere führende Publisher zur Lage befragt. Einige geben sich gelassen, aber Christoph Zimmer, Leiter Produkt der Spiegel-Gruppe, analysiert klar: »Der Referral-Traffic wird nie wieder so hoch sein wie aktuell. Dazu werden sowohl Chatbots als auch KI-unterstützte Suchergebnisse beitragen, ebenso wie der generelle Trend zu ›Walled Gardens‹. Seit Facebook und dem ursprünglichen X sind keine sozialen Netzwerke mehr entstanden, die signifikant Traffic weitergeben. TikTok, Instagram oder Snapchat waren von Anfang an darauf bedacht, die Nutzer*innen bei sich zu behalten. Google geht, wenn auch weniger radikal, ebenfalls in diese Richtung; Meta ist mit seinen Plattformen schon längst dort angekommen.« 

Update: Kress berichtet ähnliches: »Traffic weg, Nutzer weg: The Atlantic prognostiziert das Aus klassischer Verlage durch KI-Chatbots«.

Technik

Von schneller Mode zu schnellerer Fotografie: Wie KI die Erstellung visueller Inhalte beschleunigt

Kaptur berichtet, wie Generative KI die Bildproduktion im Onlinehandel revolutioniert: Immer mehr Marken nutzen KI-generierte Hintergründe, virtuelle Models und automatisierte Retusche. Produktbilder können innerhalb von 24 Stunden fertig für die Veröffentlichung sein. Laut Kaptur setzen rund 33 % der Fashion-Brands bereits KI in der Bildgestaltung ein – Tendenz steigend. 90 % der Bekleidungsverkäufer bestätigen, dass sich die Fotobearbeitung direkt auf ihre Verkaufsleistung auswirkt. Es geht nicht mehr nur um Ästhetik; visuelle Qualität schlägt sich unmittelbar in Gewinn nieder. Allerdings wirft die Nutzung von GenKI auch Fragen zur Markenauthentizität auf: Konsument*innen verlangen zunehmend Offenheit darüber, ob Bilder synthetisch erzeugt wurden oder nicht und viele Nutzer*innen spüren ein Unbehagen, wenn sie erfahren, dass ein Bild künstlich erstellt wurde. (Kaptur, 03.06.2025)

Cloudflare blockiert KI-Crawler

IT-BOLTWISE berichtet, IT-Sicherheitsdienstleister Cloudflare habe »kürzlich eine bedeutende Neuerung eingeführt, die es Webseitenbetreibern ermöglicht, sich besser gegen unerwünschte KI-Crawler zu schützen. Diese Crawler, die oft von KI-Unternehmen eingesetzt werden, um Inhalte für die Internetsuche oder das Training von KI-Modellen abzugreifen, können die Serverlast erheblich erhöhen, ohne dass die Betreiber davon profitieren. Cloudflare bietet nun standardmäßig eine Blockade dieser Crawler an, die beim Anlegen einer neuen Domain automatisch aktiviert wird.«
Matthew Prince, Mitgründer und CEO von Cloudflare dazu: »Originäre Inhalte sind das, was das Internet zu einer der großartigsten Erfindungen des letzten Jahrhunderts machen. Deshalb ist es unbedingt nötig, dass Urheberinnen und Urheber diese auch weiter erschaffen. KI-Crawlern werden bislang beim Durchsuchen von Inhalten keine Grenzen gesetzt. Wir wollen den Urheberinnen und Urhebern die Macht zurückgeben und gleichzeitig KI-Unternehmen bei ihren Innovationen unterstützen. Es geht darum, die Zukunft eines freien und dynamischen Internets mit einem neuen Modell zu sichern, das für alle funktioniert.«
Cloudflare ist ja in unserem Katalog der Maßnahmen gegen Scraping schon genannt. Hier scheint es ein neues Angebot zu geben, ich werde mir das bei Gelegenheit anschauen. 

OpenAI arbeitet an KI-Gerät

OpenAI und das von Jony Ive gegründete Unternehmen io arbeiten an einem neuen KI-Hardwaregerät, das die Art und Weise, wie wir mit Technologie interagieren, grundlegend verändern könnte. Dabei soll es sich nicht um Kopfhörer handeln, sondern um eine Art drittes Gerät, das neben Laptop und Smartphone auf dem Schreibtisch Platz finden soll. Warum was nun Sachen können soll, welche die anderen beiden nicht können… ein großes Geheimnis. (IT-Boltwise.de, 24.06.2025)

Auch das noch

Elon Musk will das Wissen der Welt überarbeiten

Elon Musk plant, das KI-Modell Grok einer grundlegenden Neukonzeption zu unterziehen. Er bemängelt, dass viele bestehende KI-Modelle auf fehlerhaften oder lückenhaften Daten basierten, was zu verzerrtem Wissen führe. Als Antwort darauf soll mit Grok 3.5 das gesamte menschliche Wissen neu formuliert, korrigiert und ergänzt werden. Wer das Treiben von Elon Musk in den letzten Monaten verfolgt hat (und wer hat das nicht), dem schwant da nichts Gutes.
Gary Marcus, ein emeritierter Professor der New York University, vergleicht Musks Plan mit einer dystopischen Vision aus George Orwells »1984«.
Interessant ist zudem, dass offenbar eine Kooperation mit der US-Regierung geplant ist, um Grok für Datenanalyse einzusetzen. Zugleich sind Sicherheitsbedenken aufgekommen – etwa nach einem Vorfall im Mai, bei dem Grok problematische Inhalte generierte. (It-boltwise.de, 23.06.2025)

Atari 2600 schlägt Chat GPT im Schach

Atari Rechner waren mal der ganz heiße Scheiß. Und zwar zu einer Zeit, bei der heute junge Menschen vermuten, dass noch mit dem Abakus gerechnet wurde. Und dennoch: Ein Atari 2600 aus dem Jahr 1977 hat Chat GPT im Schach geschlagen. (It-boltwise.de, 15.06.2025)

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com