Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter # 16

Liebe Kolleginnen und Kollegen,
 
hier ist der neue KI-Newsletter von FREELENS. Politisch gab es dank der parlamentarischen Sommerpausen auch für uns eine Verschnaufpause. Wir haben die Zeit aber gut genutzt: Mit Dr. Jürgen Scriba (Leiter der AG Fortschritt des Deutschen Fotorates), Julia Laatsch (Vorsitzende des Fotorates und FREELENS Beirätin) und Alexandra Lechner (bff) haben Dagmar Schwelle (FREELENS Vorständin) und ich eine neue Stellungnahme des Fotorates zu Fotografie, Urheberecht und generativer KI geschrieben.
Es war nicht ganz einfach, die vielen Ideen zu konzentrieren, aber am Ende ist es ein sehr gutes Papier geworden. Es bringt unsere erste Stellungnahme aus dem Jahr 2023 auf den neusten Stand und bezieht sich auch auf aktuelle Entwicklungen in Brüssel. Die Stellungnahme ging direkt an die politischen Entscheidungsträger in Berlin und Brüssel. 
 
https://freelens.com/neues/news/stellungnahme-des-deutschen-fotorats
 
Jürgen Scriba und Boris Eldagsen berichten darüber im Podcast des Fotorates, siehe Meldung weiter unten.
 
Auch die Kolleg*innen vom CEPIC und der IPTC waren fleißig. (Siehe erster Beitrag)


Für Rückfragen und Anmerkungen zum Newsletter: mail@marco-urban.de

Beste Grüße,

Marco

Politik

CEPIC: 12 Regeln für Bildersteller*innen und Bildagenturen

CEPIC, der Internationale Verband der Bildagenturen, hat 12 Richtlinien für Ersteller*innen visueller Inhalte und Lizenzgeber entwickelt, um Zuverlässigkeit, Transparenz und Einhaltung gesetzlicher Vorschriften zu gewährleisten und sicherzustellen, dass sowohl von Menschenhand erstellte als auch KI-gestützte Inhalte die gleichen hohen Standards erfüllen. (CEPIC Beitrag auf Linked-In, 27.08.2025):

IPTC veröffentlicht Best-Practice-Leitfaden zum GenKI-Opt-Out für Publisher

Das IPTC hat eine Reihe von Richtlinien veröffentlicht, die bewährte Verfahren enthalten, die Publisher befolgen können, um die Tatsache zum Ausdruck zu bringen, dass sie sich die Rechte auf Data-Mining für ihre urheberrechtlich geschützten Inhalte vorbehalten. (CEPIC, 14.08.2025):

Geoffrey Hinton fordert: KI braucht Mutterinstinkt, um Menschheit zu retten

Ein neuer, radikaler Vorschlag zur Kontrolle von Superintelligenz spaltet die wichtigsten Vordenker*innen. Dabei geht es nach Hinton um nichts Geringeres als die Zukunft der Menschheit.

Wahrheit oder Lüge

Unendlicher Spaß und das Schlamm-Inferno

Was passiert eigentlich, wenn die KI das Internet überrennt? Dann landen wir im dunklen Wald der Bot-Armeen. Klingt spooky – ist es auch. Nach Erfahrung vieler Social-Media-Nutzer*innen sind wir schon mitten in dieser Entwicklung.
»Täglich lädt eine Horde digital befeuerter Kreativer möglichst viele KI-generierte Bildchen auf Facebook hoch in der Hoffnung, dass irgendeine dieser Schöpfungen viral geht und dem Hochlader über Facebooks ›Creator Bonus Program‹ ein bisschen Geld in die digitale Reuse spült. (…) Es ist eine obskure, komplett auf Zufallstreffer ausgerichtete Ökonomie zur Dauerbefüllung der sozialen Medien mit KI-generierter Massenproduktion entstanden.« Schreibt Die Zeit.
(Die Zeit, 20.08.2025):

Gary Marcus bezeichnet das Phänomen auf Substack nicht als »unendlichen Spaß«, sondern als »Slopocalypse Now«, als eine Art Untergang im Schlammfluten. 
»I have been writing here about AI-induced enshittification (extending a term originally due to Cory Doctorow) regularly for the last couple years, using that specific term for the first time almost exactly two years ago to the day.« – Marcus hat das schon 2023 prognostiziert. (Gary Marcus, 04.08.2025): 

Metas KI-bot führt »sinnliche« Chats mit Kindern

Die Nachrichtenagentur Reuters berichtet, dass die KI-Regeln von Meta es zulassen, dass die KI-Bots »sinnliche« Chats mit Kindern führen und falsche medizinische Informationen anbieten.
Ein internes Meta-Richtliniendokument, das von Reuters eingesehen wurde, enthüllt die Regeln des Social-Media-Riesen für Chatbots, die provokatives Verhalten zu Themen wie Sex, Herkunft und Prominenten erlaubt haben. (Reuters, 14.08.2025): 

»The EU AI Newsletter« nimmt das Thema auf und bemängelt, dass dem AI Act derzeit Klarheit darüber fehlt, inwieweit KI-Chatbots das Engagement der Nutzer*innen durch Intimität fördern dürfen. (The EU AI Newsletter, 01.09.2025): 

Definiert Adobe jetzt, was authentisch ist?

Christoph Künne schreibt auf DOCMA: »Weil ihre KI-Systeme in Sekundenschnelle verblüffend gute Bilder erzeugen, definiert Adobe plötzlich neu, was ›authentisch‹ bedeutet. Ein Widerspruch? Vielleicht. Eine geschickte Marketingstrategie? Ganz sicher. Adobe, der Softwareriese, dessen Produkte seit Jahrzehnten die digitale Kreativlandschaft dominieren, unternimmt einen bemerkenswerten Versuch, den Begriff der Authentizität neu zu besetzen.« (DOCMA, 22.08.2025):

Trump Media startet öffentliche Beta von »Truth Search AI«

Trumps Truth Social hat am 6. August 2025 die öffentliche Beta-Testphase seiner neuen KI-Suchfunktion »Truth Search AI« gestartet. Der technologische Partner Perplexity liefert die technische Plattform, doch Truth Social behält die volle Kontrolle über die Quellen, die angezapft werden dürfen. So bemängeln Kritiker*innen, dass Truth Search AI systematisch auf eine enge Auswahl konservativer Medien beschränkt ist. Tests zeigten häufige Verweise auf Fox News, Breitbart, Epoch Times oder Newsmax – selbst bei unpolitischen oder faktisch klaren Fragen. (WinBuzzer, 07.08.2025):

Allerdings berichtet Watson, dass die Truth-AI Donald Trump trotzdem gerne widerspricht. (Watson, 11.08.2025): 

Wie Rechtsextreme mit KI-Bildern viral gehen

Belltower News schreibt darüber: »Rechtsextreme Akteur*innen nutzen KI-Bilder, um aus einer Zwölfjährigen eine Märtyrer-Ikone zu erschaffen – und damit ihre rassistischen Narrative viral zu treiben.« (Belltower News, 01.09.2025): 

Markt

Burda Verlag und Black Forest Labs machen Comics mit KI

In ihrer heute veröffentlichten Case Study zeigen Black Forest Labs und der Burda Verlag eindrucksvoll, wie künstliche Intelligenz erfolgreich in den Produktionsprozess der beliebten Lissy Pony-Reihe eingebunden wurde und wo sie die menschliche Kreativität unterstützt.
Beide Partner verdeutlichen, dass die Bildmodelle von Black Forest Labs kombiniert mit einer ganzheitlichen Prozessintegration einen echten Unterschied machen. Sie gewähren Einblicke in die Methodik, zeigen Herausforderungen und Lösungsansätze. Veröffentlicht wird das Ergebnis als Teil einer Sonderausgabe des Lissy Pony-Magazins, die seit dem 2. September 2025 im Handel erhältlich ist. (Burda, 07.08.2025):

Axel Springer macht alles mit ChatGPT- KI

Der Berliner Tagesspiegel schreibt: »Axel Springer ordnet konzernweit viele Prozesse neu und setzt dabei voll auf ›Artificial Intelligence‹ (AI), beziehungsweise Künstliche Intelligenz (KI). In der sogenannten ›Premium-Gruppe‹ sollen nun offenbar auch alle journalistischen Inhalte mithilfe von KI erstellt werden.«
Bei Kress sagt der DJV-Vorsitzende Mika Beuster dazu: »Da liegt der Verdacht nahe, dass KI nicht zur Unterstützung, sondern zum Ersatz journalistischer Arbeit genutzt wird. Das darf kein Vorbild für andere Medienhäuser werden.« Und weiter: »Wo es etwa um die Auswertung riesiger Datenmengen geht, ist KI für Redaktionen eine willkommene Hilfe.« 

Interessant auch das von Kress zitierte Interview im Manager Magazin (leider Paywall):
Die Redakteur*innen Isabell Hülsen und Henning Hinze fragen Matthias Döpfner nach einer Geschichte in der Bild Zeitung, die wohl zum Teil der Fantasie von KI entsprungen war. Döpfner dazu: »Da muss ich klar sagen: Das sind die Fehler, die ich am liebsten verzeihe! Wenn jemand aus zu viel Enthusiasmus und zu viel Begeisterung für die Möglichkeiten der künstlichen Intelligenz irgendwelchen Halluzinationen aufsitzt.« Dafür müsse sich rechtfertigen, wer KI nicht nutzt, so der CEO und Großaktionär. 
Okay, bei der Bild ist es vielleicht auch egal, ob die Halluzination noch menschlichen Ursprungs ist… und immerhin soll sich nach Döpfner der Firmenwert innerhalb von fünf Jahren verdoppeln. Vielleicht schafft sich der Journalismus im Hause Springer aber auch gerade selbst ab. (Tagesspiegel, 03.08.2025):

New York Times soll auch was mit KI machen

Bei Springer macht Döpfner Druck, bei der NYT der Hedgefonds Fivespan. Nach dem, was bei IT Boldwise zu lesen ist, scheinen die Überlegungen hier eher moderat: Fivespan schlägt vor, KI-Technologien einzusetzen, um Artikel effizienter in verschiedene Sprachen zu übersetzen, kostengünstige Videos zu produzieren und die Paywalls dynamischer zu gestalten. Die New York Times versucht offenbar eine Gratwanderung:  Einerseits klagt sie gegen OpenAI wegen der Nutzung ihrer Inhalte, andererseits hat sie ein Lizenzgeschäft mit Amazon abgeschlossen.
Klar ist: Der Druck im Kessel steigt. Shareholder wollen effiziente Verlage, die Gewinne abwerfen, Nutzer*innen verzichten eventuell auf klassische Medien und fragen einfach Chat GPT oder andere KIs. Oder sie bezahlen Journalist*innen lieber gleich direkt, z.B. auf Substack.com. (IT Boldwise, 02.09.2025):

Perplexity schlägt Beteiligung an Einnahmen für Verlage vor

Kress meldet: »Die KI-Firma Perplexity AI hat angekündigt, Medien an den Einnahmen aus ihrem Suchmaschinengeschäft zu beteiligen. Die Medienpartner der Firma würden Geld erhalten, wenn ihre Arbeit im Browser oder dem KI-Assistenten von Perplexity AI zur Antwort genutzt werden.«
Könnte damit zu tun haben, dass die KI-Plattform heftig unter Beschuss steht: Große Medienhäuser wie New York Times, Forbes, Dow Jones und andere werfen ihr vor, urheberrechtlich geschützte Inhalte zu verwenden und dabei „robots.txt“-Sperren zu ignorieren, siehe letzter Newsletter. (kress, 27.08.2025):

Podcast

Deutscher Fotorat KI-Podcast #08

Dr. Jürgen Scriba, Leiter der Arbeitsgruppe Technischer Fortschritt / Deutscher Fotorat, unterhält sich mit Boris Eldagsen (Mitglied der Arbeitsgruppe) über aktuelle Auswirkungen von KI auf Fotografie. Im Fokus stehen dabei die neue Stellungnahme des Deutschen Fotorates zu Generativer KI, die »Slopifizierung« des Internets, der neue Trend »Prompt Editing«, Content Credentials und Boris‘ Einblicke in die World AI Conference Shanghai.
Wie immer meine innigste Empfehlung, um auf dem Laufenden zu bleiben: (Youtube, 09.09.2025):

Recht

Anthropic stimmt Einigung mit Autor*innen über 1,5 Milliarden Dollar zu

Graham Lovelace berichtet, dass Anthropic einer »historischen Einigung« mit Autor*innen zugestimmt hat, von denen es des »Urheberrechtsdiebstahls« beschuldigt wurde. Das KI-Unternehmen hatte mit Raubkopien von Büchern seine KI trainiert. Ein US-Bezirksrichter fällte ein wegweisendes Urteil, in dem er feststellte, dass die unbefugte Verwendung gekaufter Bücher durch Anthropic zum Trainieren seiner generativen Modelle nicht gegen das US-Urheberrecht verstößt, da er zu dem Schluss kam, dass diese Technologie »zu den transformativsten gehört, die viele von uns in ihrem Leben sehen werden«.
Er entschied jedoch auch, dass die Speicherung von über sieben Millionen Kopien raubkopierter Bücher aus Datensätzen wie Books3 und LibGen sowie der Pirate Library Mirror (PiLiMi) durch Anthropic nicht gerechtfertigt sei, und erklärte, dass ein Gerichtsverfahren über die daraus resultierenden Schadensersatzansprüche entscheiden werde. 
Mit legal gekauften Büchern darf also trainiert werden, mit Raubkopien nicht. Ich würde das nicht mal als halben Sieg bezeichnen.
Allerdings schreibt Lovelace: »Hätte dieser Prozess stattgefunden, hätte der Schadensersatz für jeden Fall vorsätzlicher Urheberrechtsverletzung bis zu 150.000 US-Dollar betragen können – wodurch Anthropic mit Forderungen in Höhe von insgesamt Hunderten von Milliarden Dollar konfrontiert gewesen wäre.« (Graham Lovelace, 27.08.2025):

Das Handelsblatt zitiert Justin Nelson, den Anwalt der Autore*innen: » Dieser historische Vergleich wird allen Mitgliedern der Sammelklage zugutekommen.« (Handelsblatt, 26.08.2025):

Nach der letzten Meldung von Graham Lovelace stimmt Anthropic einer Rekordzahlung in Höhe von 1,5 Milliarden Dollar zu, um Urheberrechtsstreit mit Autor*innen beizulegen. »Der erste Vertrag dieser Art im Zeitalter der generativen KI wird als ›durchschlagender Sieg‹ gefeiert.« (Graham Lovelace, 06.09.2025):

Update I

US-Bundesrichter William Alsup hat Bedenken hinsichtlich des Vergleichs geäußert. Der Richter befürchtet, dass der Vergleich den Autor*innen aufgezwungen wird, ohne dass deren Interessen ausreichend berücksichtigt werden.
IT Boldwise schreibt: »Die Anwälte der Autoren versicherten dem Gericht, dass sie sicherstellen wollen, dass jeder berechtigte Anspruch auch tatsächlich entschädigt wird. Dennoch bleibt der Richter skeptisch und fordert, dass die betroffenen Autoren umfassend informiert werden, um ihnen die Möglichkeit zu geben, sich für oder gegen den Vergleich zu entscheiden.«

Update II

Auch Die Zeit schreibt über den Deal und zitiert wiederum die New York Times: Das sei »der Napster-Moment der KI-Branche«.
Autor Eike Kühl rechnet vor: »1,5 Milliarden US-Dollar sind viel Geld, aber Anthropic hat erst vergangene Woche verkündet, in einer neuen Finanzierungsrunde weitere 13 Milliarden US-Dollar eingenommen zu haben. Das Unternehmen hat seine Bewertung dadurch auf 183 Milliarden US-Dollar verdreifacht und ist jetzt eines der wertvollsten Start-ups der Welt. Da fallen 1,5 Milliarden kaum ins Gewicht.«
Kühl schließt mit dem Hinweis, dass Napster zwar zerschlagen, das illegale Filesharing aber nicht gestoppt und der Wert kreativer Arbeit letztlich geschmälert wurde. (Die Zeit, 08.09.2025): 

Wie Interessenverbände gegen große Tech-Konzerne klagen

Meta, Microsoft & Co. werden in ganz Europa verklagt. Die Gerichte und Behörden reagieren bislang jedoch zurückhaltend. In der Debatte setzt ein Beschluss des OLG Köln bei öffentlich geteilten Inhalten zumindest Leitplanken. (Legal Tribune Online):

Neue Sommerlektüre von Tim W. Dornis und Nicola Lucchi

Tim W. Dornis kennen wir als einen der Macher der Tandem Studie der Initiative Urheberrecht (IU), die sehr nachhaltig der These widerspricht, dass die Nutzung für das KI-Training unter die Text-und-Data-Mining (TDM) Regelung fällt. Nicola Lucchi schrieb gerade ein nahezu episches 150-Seiten-Werk im Auftrag des Justizausschusses des Europäischen Parlaments. Beide zusammen haben jetzt etwas geschrieben, was die IU als »Sommerlektüre« beschreibt. Na ja …
Der neue Artikel untersucht, ob das Training und die Ergebnisse von Systemen wie Gemini gegen das EU-Urheberrecht verstoßen, und hinterfragt dabei die Reproduktion, die öffentliche Wiedergabe und die Grenzen der Ausnahmen für Text- und Datenmining.

Über den unersättlichen Datenhunger von KI-Unternehmen

Pascal Hetzscholdt schreibt auf Substack in seinem Artikel »The voracious appetite of AI companies«, dass der wachsende Bedarf an neuen Trainingsdaten großer KI-Unternehmen dazu führt, dass immer mehr Daten aus dem offenen Internet verschwinden und hinter Bezahlschranken oder technischen Schutzmechanismen abgeschottet werden. Während die Firmen einerseits riesige Datenmengen benötigen, um ihre Systeme leistungsfähig zu halten, sichern sie ihre eigenen Ressourcen zunehmend ab und erschweren damit den offenen Zugang für andere. Dadurch entsteht ein Spannungsverhältnis zwischen dem Anspruch auf offene Informationsflüsse und dem Geschäftsmodell der Konzerne, die ihre Datenbestände als strategisches Kapital betrachten. Der Text wirft die Frage auf, wie lange dieser Widerspruch tragfähig ist und welche Folgen die zunehmende Abschottung für Innovation, Öffentlichkeit und faire Wettbewerbsbedingungen haben könnte.(Pascal Hetzscholdt, 12.08.2025):

Was ist ein Deepfake?

Bei unserem Webinar zur Nutzung von KI kam die Frage auf, was nun genau ein Deepfake sei. Wo endet die Bildbearbeitung und wo fängt die Bildmanipulation an?
Eine rechtliche Einordnung und Handlungsmöglichkeiten für Betroffene behandelt iRIGHTS in einem Artikel. (iRIGHTS)

Urteil des LG Berlin schützt Synchronstimme

Die Kanzlei Jüdemann Rechtsanwälte berichtet, dass sie eine wichtige Entscheidung zum Persönlichkeitsrechtsschutz für Synchronstimmen errungen hat. 
Ihr Mandant ist einer der bekanntesten Synchronsprecher Deutschlands, die Beklagte betreibt u.a. einen YouTube-Kanal und unterlegte dort zwei Videos mit einer durch eine Kl erzeugten Stimme des Mandanten. Das Gericht entschied, dass dem Mandanten Schadensersatz zustehe, da die Nutzung seiner durch KI erzeugten Stimme einen rechtswidrigen  Eingriff in dessen Recht an der eigenen Stimme darstellte. (Jüdemann Rechtsanwälte):

Autoren verklagen Apple wegen KI-Training mit Raubkopien

Auch Apple wird jetzt verklagt, weil es seine KI-Modelle offenbar mit Raubkopien von Büchern trainiert hat. »Die Kläger, die Autoren Grady Hendrix und Jennifer Robertson, werfen dem Technologieriesen vor, ihre urheberrechtlich geschützten Werke ohne Erlaubnis genutzt zu haben, um KI-Modelle zu trainieren. Die Klage basiert auf der Behauptung, dass Apple einen Datensatz namens Books3 verwendet hat, der aus raubkopierten Büchern besteht.« (IT BOLDWISE, 07.09.2025):

Technik

Nikon macht Z6III mit Update fit für C2PA

Nikon teilt per Produktankündigung mit: »Ihre Reputation. Ihre Vision. Das Firmware-Update 2.00 macht die Z6III startklar für Nikons Foto-Authentifizierungsdienst nach C2PA-Standard. Nach Erhalt eines Zertifikats von Nikon kann der Dienst in der Kamera implementiert werden. In Zusammenarbeit mit AFP (Agence France-Presse) entwickelt und getestet. Schützt Ihre Arbeit, ohne den Workflow zu stören.« (Nikon, 26.08.2025):

C2PA (Coalition for Content Provenance and Authenticity) ist ein von Adobe, Microsoft, BBC, Intel und weiteren entwickelter Standard, der digitale Inhalte mit überprüfbaren Herkunfts- und Bearbeitungsinformationen versieht. Ziel ist es, die Nachvollziehbarkeit von Bildern, Videos und Audiodateien zu sichern und so Vertrauen sowie Schutz vor Manipulation und Desinformation zu schaffen.

Nano Banana: Nie wieder wissen, was echt und was künstlich ist

»Das neue Gemini 2.5 Flash Image von Google hebt KI-gestützte Bilderstellung auf ein neues Level.« Der Standard schreibt dazu einen auch für nicht-Nerds gut lesbaren Text. (Der Standard, 29.08.2025):

Revolutioniert »Gretchen AI« die Verifikation von digitaler Information?

Das Berliner Startup Gretchen AI, ein Spin-off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), hat eine Plattform vorgestellt, die mithilfe spezialisierter KI-Agenten digitale Inhalte überprüft und Manipulationen wie Deepfakes oder Dekontextualisierungen erkennt. Ziel ist es, Redaktionen, Unternehmen und Institutionen bei der schnellen Verifikation von Informationen sowie beim Wissensmanagement zu unterstützen. Die »Gretchen-Frage« bündelt dabei komplexe Aufgaben in einer einzigen Anfrage. Gefördert von der Bundesagentur für Sprunginnovation (SPRIND) und in Kooperation mit der dpa entwickelt Gretchen AI Werkzeuge, die neue Standards für die Wahrheitsfindung in digitalen Medien setzen sollen.

Opt-out nötig: Anthropic nutzt künftig Nutzerdaten fürs Training

Heise online berichtet: »Anthropic führt Änderungen an seinen Nutzungsbedingungen ein: Chat-Protokolle und Coding-Sessions sollen künftig das KI-Modell Claude trainieren.«  Wer also Anthropic nutzt und seine Chats und Daten nicht für das KI-Training zur Verfügung stellen möchte, muss in den Datenschutzoptionen die Präferenzen entsprechend einstellen oder ändern. (Heise, 29.08.2025):

Label für KI-freie Werke

Die Profifoto berichtet, dass die Plattform »ai-free.io« zukünftig ein Label bereitstellen wird, mit dem Urheber*innen ihre Werke – seien es Texte, Grafiken, Fotografien oder Videos – als uneingeschränkt KI-frei kennzeichnen können. Der Zugang zum Label soll unkompliziert und kostenlos sein. 
Inwieweit sich das etablieren wird, bleibt abzuwarten. Je mehr Leute mitmachen, desto wahrscheinlicher ist es. (Profifoto, 25.08.2025):

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com