Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter # 20 – Januar 2026

Liebe Kolleginnen und Kollegen,

nun ist es passiert: der FREELENS Arbeitskreis „AI Work“ hat sich konstituiert. Es hat sich eine Gruppe zusammengefunden, die sich über die Arbeit mit KI, über entsprechende Geschäftsmodelle und die Positionierung auf dem Markt als „visuelle Expert*innen“ Gedanken macht.
FREELENS-Mitglieder, die mitmachen möchten, können sich bei mir unter mail@marco-urban.de melden.
Das ist ein guter Start ins neue Jahr. Wir gehen die Herausforderung eines sich stark verändernden Marktes jetzt auch in dieser Form aktiv an. Ich bin sehr gespannt, welche Perspektiven sich hier ergeben.
Ich wünsche allen Leser*innen einen guten Start ins neue Jahr und möchte euch die folgende Umfrage von Lars Bauernschmitt ans Herz legen.

Beste Grüße

Marco Urban 

Wenn ihr Anregungen und Wünsche zu den Newslettern habt, lasst es uns gerne wissen: post@freelens.com

Umfrage

Verändert Künstliche Intelligenz die Arbeit mit Bildern?

Lars Bauernschmitt, ehemaliger Geschäftsführer der Fotoagentur VISUM und Professor an der Hochschule Hannover, hat uns gebeten, eine Einladung zu einer Umfrage an euch weiterzuleiten.

Er schreibt dazu:
»Seit rund vier Jahren prägen KI-generierte Bilder und die damit verbundenen Chancen und Risiken den Alltag von Bildmenschen weltweit. Zahlreiche gerichtliche Auseinandersetzungen zeigen, wie ungeklärt viele Fragen rund um den Einsatz dieser Technologien nicht zuletzt aufgrund fehlender belastbarer Daten noch sind.
In einer übergreifenden Erhebung zum Einsatz von KI werden im Februar 2026 Fotografinnen und Fotografen, Bildagenturen, Redaktionen von Print- und Onlinemedien sowie Werbe- und PR-Agenturen zu ihrem Umgang mit KI-Tools und KI-generierten Bildern befragt. Diese umfassende Betrachtung soll aufzeigen, wie weit KI-Tools mittlerweile den Alltag im Bildgeschäft prägen – und wo sie noch gar nicht angekommen sind. Damit soll ein differenziertes Bild einer Situation gezeichnet werden, in der nach anfänglicher Job-Angst, Skepsis und Ablehnung der KI gegenüber zwischenzeitlich viele Kreative in der neuen Technik ein gestalterisches Element sehen, dessen Nutzung weder in der Produktion von Bildern noch in ihrer Veröffentlichung verweigert werden kann. Gleichzeitig soll aber auch deutlich gemacht werden, welche wirtschaftlichen Folgen der Einsatz Künstlicher Intelligenz für die Beteiligten hat und wo die Beteiligten die Grenzen der Technik sehen.«
Die Beantwortung der überwiegend Multiple-Choice-Fragen erfolgt online und dauert ca. 10 Minuten (stimmt, ich hab’s probiert). Die Erhebung erfolgt anonym bis zum 28. Februar 2025 und wird durchgeführt von der Arbeitsgruppe „image market – business trends“ am Studiengang Visual Journalism and Documentary Photography der Hochschule Hannover unter der Leitung von Prof. Lars Bauernschmitt.
Die kommende Erhebung ist bereits die siebte Studie zur Entwicklung des Bildermarktes in Deutschland. Berichte zum Bildermarkt und die Ergebnisse früherer Erhebungen finden sich unter: http://www.larsbauernschmitt.de/forschung/. Die Erhebung wird durchgeführt mit Hilfe von Unipark, einem Befragungstool für Hochschulen. Die Daten werden in Deutschland verarbeitet.

Ausführliche Informationen zum Datenschutz finden sich hier: https://www.unipark.com/umfragesoftware/

Ich denke, das ist interessant für uns alle – bitte macht mit: https://ww3.unipark.de/uc/imagemarket2026/

Politik – Kennzeichnung 1

1. Entwurf Code of Practice on Transparency

Die vom AI Office beauftragten Arbeitsgruppen haben einen ersten Entwurf eines Verhaltenskodexes zur Transparenz bei KI-generierten Werken vorgestellt. Der Kodex wurde in Zusammenarbeit mit Hunderten von Teilnehmer*innen aus Industrie, Wissenschaft, Zivilgesellschaft und Mitgliedstaaten entwickelt und ist das Ergebnis der Arbeit zweier im November 2025 eingerichteter Arbeitsgruppen. Für den Deutschen Fotorat hat Dr. Jürgen Scriba teilgenommen. Wie der ersten CoP zu Urheberrechten ist auch dieser Kodex rechtlich nicht verbindlich, soll aber als Orientierung für die praktische Umsetzung des AI Act dienen und perspektivisch einen europäischen Standard für den Umgang mit KI-generierten Inhalten etablieren.

Demnach sollen Anbietende sicherstellen, dass von ihren Systemen erzeugte Inhalte technisch als KI-generiert erkennbar sind. Vorgesehen ist ein mehrschichtiges System, u. a. durch maschinenlesbare Metadaten, digitale Wasserzeichen oder Fingerprints und andere technische Marker, die eine spätere Erkennung ermöglichen. Diese Kennzeichnung soll möglichst standardisiert, plattformübergreifend und robust gegen Entfernung oder Manipulation sein.
Die Transparenz soll nicht nur beim Erzeugen, sondern auch bei Weiterverarbeitung, erneuter Nutzung und Verbreitung auf Plattformen gewährleistet sein. Anbietende sollen ihre Systeme so gestalten, dass Kennzeichnungen nicht automatisch verloren gehen. Der Kodex empfiehlt, dass sie kostenlose oder leicht zugängliche Tools bereitstellen, mit denen Dritte (z. B. Journalismus, Plattformen und Behörden) prüfen können, ob Inhalte KI-generiert oder KI-manipuliert wurden.
Anbietende sollen dokumentieren, welche Arten von Inhalten das System erzeugt, welche Transparenzmechanismen eingesetzt werden und wo die Grenzen der Erkennbarkeit liegen.

Auch für Betreibende (Akteur*innen die KI-Systeme einsetzen, Inhalte veröffentlichen oder verbreiten, z. B. Plattformen, Medienhäuser, Organisationen oder Einzelpersonen) – dazu gehören dann auch die meisten von uns – sieht der CoP Verpflichtungen vor. Zentral ist eine Offenlegungspflicht gegenüber dem Publikum: Wenn Inhalte vollständig KI-generiert oder wesentlich KI-manipuliert sind, muss dies klar und verständlich offengelegt werden.
Besonders streng gilt dies für Deepfakes (Bild, Audio, Video) und KI-Texte zu Angelegenheiten von öffentlichem Interesse (z. B. Politik, Wahlen, gesellschaftliche Debatten).
Auch wird eine einheitliche Kennzeichnung, kurzfristig durch einfache Hinweise („KI-generiert“, „AI-generated“) und mittelfristig durch ein einheitliches europäisches Symbol, vorgeschlagen.
Bei der KI-Nutzung soll differenziert werden; Betreibende sollen unterscheiden zwischen vollständig KI-generierten Inhalten und KI-unterstützten Inhalten (z. B. Bearbeitung, Retusche, Übersetzung).
Diese Differenzierung soll transparent kommuniziert werden, um pauschale Stigmatisierung zu vermeiden.
Für Werke, die eindeutig künstlerischer, satirischer oder fiktional sind, soll eine zurückhaltende Offenlegung, die die Werkrezeption nicht beeinträchtigt, genügen. Eine plakative Kennzeichnung ist hier nicht zwingend.

Es gibt im Entwurf keine Differenzierung zwischen kommerzieller Kommunikation und redaktionellen Inhalten. Demnach muss auch Werbung als KI-generiert gekennzeichnet werden, wenn sie vollständig oder wesentlich KI-erzeugt ist. Wenn sie reale oder realistisch wirkende Personen zeigt und den Eindruck von Authentizität erweckt, fällt sie unter den Deepfake-Begriff des AI Act. Das ist bemerkenswert, weil vielfach argumentiert wird, dass Werbung ohnehin immer fiktiv ist. Das betrifft z. B. KI-generierte „Models“, künstliche Testimonials, nachgebildete Stimmen und fotorealistische Szenen ohne realen Ursprung.

Für einen ersten Entwurf finde ich das schon gar nicht schlecht; es findet sich vieles wieder, was wir in der Stellungnahme des Fotorates gefordert haben. Es bleibt natürlich das Problem der Differenzierung, wann etwas nur ein bisschen KI-generiert ist und wann es wesentlich KI-generiert wurde. Wie wird die Schwelle definiert, ab der sichtbar gekennzeichnet werden muss? Aus der Frage ergibt sich eine zweite: Wenn nahezu alle Bilder als KI-generiert gekennzeichnet werden, nimmt das dann noch jemand zur Kenntnis? Aber immerhin: Europa geht hier einen anderen Weg als die USA, die KI-Regulierung auf Bundesstaatsebene systematisch untergräbt.

Wer tiefer einsteigen will, findet den Entwurf hier:
https://digital-strategy.ec.europa.eu/en/library/first-draft-code-practice-transparency-ai-generated-content

Und einen Artikel von Risto Uuk aus Substack: 
https://artificialintelligenceact.substack.com/p/the-eu-ai-act-newsletter-93-transparency

Politik – Kennzeichnung 2

Senator Brosda fordert strengere Regulierung

Auch
der Hamburger Kultur- und Mediensenator Carsten Brosda fordert in einem Gastbeitrag in der "FAZ" unter dem Titel „Bevor die KI unsere Demokratie verschlingt“ schnelles Handeln zum Schutz der "demokratischen Öffentlichkeit" vor unregulierter KI. Europa brauche einen "eigenen dritten Weg der Digitalisierung", um sich gegen die Übermacht von US-Plattformen und chinesischen Staatsinteressen zu behaupten, schreibt er. Er drängt auf eine verlässliche Kennzeichnungspflicht für KI-Texte sowie die Nennung und Verlinkung der genutzten Quellen.

(turi2.de, 04.01.2026): https://www.turi2.de/aktuell/carsten-brosda-fordert-strengere-regulierung-und-kennzeichnungspflicht-fuer-ki-inhalte/

(FAZ, 03.01.2026, Paywall): https://www.faz.net/aktuell/feuilleton/medien-und-film/medienpolitik/carsten-brosda-wie-wir-unsere-demokratie-gegen-ki-wappnen-accg-110812839.html

Politik – Kennzeichnung 3

China greift durch: Transparenz, Sicherheit, Sozialismus

China treibt die Regulierung großer KI-Modelle voran: In einem Entwurf für „vorläufige Maßnahmen“ müssen KI-Dienste künftig offenlegen, dass sie keine Menschen, sondern KI-Modelle sind, und strenge Anforderungen an Transparenz, Sicherheit und sozialistische Werte erfüllen.
Die Regeln richten sich an alle öffentlich zugänglichen KI-Systeme, die mit Menschen über Text, Bilder, Video oder Audio interagieren, und sehen unter anderem vor, dass:

  • KI nicht Inhalte generieren darf, die nationale Sicherheit, soziale Moral oder Staatsinteressen gefährden, Gewalt, Glücksspiel, Beleidigungen oder manipulative Inhalte verbreitet werden.
  • Design, Training, Einsatz und Abschaltung von KI-Diensten strengen Vorgaben zu Datenschutz, Ethik, IT-Sicherheit und Datenherkunft folgen müssen.
  • Nutzer als solche erkannt werden (inkl. Alters- und Abhängigkeitsprüfung) und bei gefährlichen Inhalten menschliche Intervention erfolgt.
  • Anbieter deutlich kennzeichnen müssen, dass es sich um KI-Systeme handelt, und etwa bei längerer Nutzung Pausen anregen.

Damit schafft China ziemlich robuste Regelungen im Hinblick auf die Transparenz.
Und sozialistische Werte natürlich. ;-)

(Heise, 31.12.2025): https://www.heise.de/news/China-LLMs-muessen-sich-outen-11126627.html

Wahrheit oder Lüge

Nach der Gefangennahme Maduros kursieren falsche Bilder

Die WAZ musste sich korrigieren: „In der Ausgabe vom Montag, 5. Januar, haben wir ein Foto gezeigt, das angeblich die Festnahme von Venezuelas Präsidenten Nicolás Maduro zeigt. Wie sich nachträglich herausgestellt hat, handelte es sich um ein von Künstlicher Intelligenz erstelltes Foto, das nicht authentisch war. Das Bild wurde von der Foto‑Agentur ddp verbreitet, (…)“ (Danke für den Hinweis, Jochen).
Immerhin war die WAZ hier nicht allein; die Faktenchecker von Correctiv schreiben: „Nach dem Angriff der USA auf Venezuela verbreiten sich online gefälschte und aus dem Kontext gerissene Aufnahmen. Darunter ein KI‑Bild des gefangen genommenen Machthabers Nicolás Maduro und mehrere Videos, die feiernde Menschen in Venezuela zeigen sollen.“
Die ausführliche Recherche könnt Ihr hier lesen:

(Correctiv, 06.01.2026): https://correctiv.org/faktencheck/hintergrund/2026/01/06/ki-oder-veraltet-diese-falschen-aufnahmen-kursieren-nach-der-gefangennahme-maduros-in-venezuela/

Start-up verbreitet massenhaft KI-generierte Inhalte auf TikTok

US-Startup Doublespeed betreibt KI-gestützte „Phone Farm“ für TikTok-Marketing
Das US-Startup Doublespeed hat eine „Phone Farm“ aus über 1.000 Smartphones betrieben, um automatisiert KI-generierte Inhalte auf TikTok zu verbreiten. Ziel war es, Reichweite für Produkte und Apps zu erzeugen, indem zahlreiche Accounts parallel Videos posten, liken und kommentieren.
Doublespeed, das von Venture-Capital-Investoren wie Andreessen Horowitz (a16z) unterstützt wird, bewirbt sein Geschäftsmodell als skalierbare Content-Produktion. Tatsächlich handelte es sich um eine industrielle Infrastruktur zur Simulation authentischer Influencer-Aktivität, häufig ohne klare Kennzeichnung als Werbung.
Der Fall wirft Fragen nach Transparenz, Werbekennzeichnung und Plattformmissbrauch auf und verdeutlicht, wie KI-Automatisierung und Hardware-Skalierung soziale Netzwerke gezielt manipulieren können. Beobachter sehen darin ein Beispiel für die zunehmende Erosion von Authentizität in sozialen Medien durch KI-basierte Marketingmodelle.

(Futurism, 17.12.2025): https://futurism.com/future-society/hacker-phone-farm-startup

Darüber berichtet auch 404.media anschaulich auf TikTok: https://www.tiktok.com/@404.media/video/7584836840780352781

 

Podcast

KI-Podcast des Deutschen Fotorats

Wie immer empfehle ich den Podcast von Dr. Jürgen Scriba und Boris Eldagsen, um in rechtlicher und technischer Hinsicht auf dem neuesten Stand zu bleiben. Im Januar ist Sabine Richly zu Gast. Sie gehört ganz sicher zu den profiliertesten Juristinnen, was die KI, Urheberrechte und europäische Regulierung angeht. Sabine berät die Initiative Urheberrecht sehr umfassend, und ich glaube, ich kann sagen: Wir wären in der AG Fortschritt des Fotorates ohne sie und Katharina Uppenbrink, der Geschäftsführerin der IU, ziemlich aufgeschmissen. Ich möchte an dieser Stelle meinen herzlichen Dank aussprechen.

 Hier geht es zur aktuellen Ausgabe: https://deutscher-fotorat.de/arbeitsgruppen/technischer-fortschritt/ki-podcast

Recht

Robert Kneschke vs. LAION – Ein Resümee

Seit dem letzten Newsletter wurde die vollständige Urteilsbegründung des OLG Hamburg veröffentlicht. Die ersten Bewertungen gingen in die richtige Richtung, leider deutlich zu Ungunsten von Kneschke und allen anderen Urheber*innen. Das OLG Hamburg betont, dass reproduzierende Handlungen im Rahmen der Datensatz-Erstellung grundsätzlich unter die TDM-Ausnahme fallen. Weiter bestätigt es in seinem Urteil, dass LAION wissenschaftliche Forschung betrieben hat und damit ein Widerspruch gegen die Verwendung der aus dem Netz gesammelten Bilder für KI-Training nicht möglich ist. Außerdem wird LAION eine Gemeinnützigkeit bestätigt. Die wissenschaftliche Forschung bestand daraus, dass Bilder mit den Bildbeschreibungen verglichen wurden. Erstaunlicherweise nicht relevant für diese Entscheidung war die:
  • fragliche Sinnhaftigkeit dieser Forschung
  • Bereitstellung von Katalogen mit Links und Bildbeschreibungen zur kommerziellen Verwendung
  • die Beschäftigung von Vereinsmitgliedern bei den nutzenden Tech-Unternehmen
  • die Spenden oder Sachleistungen (z. B. Rechenressourcen) von den nutzenden Tech-Unternehmen

Obwohl das Gericht glaubt, dass wissenschaftliche Forschung vorliegt, wurde auch die Wirksamkeit des Opt-outs geprüft. Die Latte für die gesetzlich geforderte „Maschinenlesbarkeit“ eines Opt-outs legt es sehr hoch:
Erstens genügt eine Textverbotserklärung in AGB/Nutzungsbedingungen nicht, um ein Opt-out wirksam zu machen. Damit wurde der zarte Hinweis der Vorinstanz, dass eine KI solche Hinweise eigentlich interpretieren können müsste, vom Tisch gewischt. Zweitens soll die Rechtmäßigkeit eines Opt-outs zeitpunktbezogen nach Stand der Technik beurteilt werden. Das ist neu und bedeutet, dass Urheber*innen ihre Schutzäußerungen fortlaufend an neue Erkennungs- und Verarbeitungstechnologien anpassen müssen, ohne zu wissen, welche Standards KI-Entwickler zukünftig nutzen. Ein Ding der Unmöglichkeit.

Da das Gericht die Tätigkeit von LAION völlig getrennt von dem betrachtet, was KI-Unternehmen mit den öffentlich zugänglichen Katalogen von über 5 Mrd. Bildern machen, sieht das Gericht im Sinne des 3-Stufen-Tests auch keine Beeinträchtigung der normalen Verwertung oder eine ungebührliche Interessenverletzung.
Die Entscheidung schafft juristische Leitplanken, aber die technische Interpretation des Gesetzes, die Festlegung von Standards und die Praktikabilität von Opt-outs bleiben ungeklärt. Es bleibt die Frage, ob eine Klage gegen ein KI-Unternehmen wie zum Beispiel Black Forest Labs mehr Aussicht auf Erfolg hätte als die Klage gegen LAION. Black Forest Labs verfolgt klar kommerzielle Ziele. Die Begründung „wissenschaftliche Arbeit“ greift hier sicher nicht, der Drei-Stufen-Test würde nicht bestanden. Allerdings ist nicht bekannt, welche Bilder Black Forest Labs für sein KI-Training nutzt. Ziemlich sicher wurde auf den LAION-Katalog zugegriffen, aber der Nachweis wäre ungleich schwieriger als bei LAION. Hier ist der Katalog öffentlich zugänglich.
Und auch hier wäre ein Opt-out ja nicht möglich, weil ein Standard für maschinenlesbare Hinweise nicht existiert. Solange hier der Anforderungen des Hanseatischen OLG folgt, ist ein Opt-out unmöglich.

Was Robert Kneschke selbst zu dem Urteil schreibt, könnt Ihr hier lesen:(22.12.2025): https://www.alltageinesfotoproduzenten.de/2025/12/22/aktueller-stand-meiner-klage-gegen-laion-e-v/

EU prüft Musks KI Grok wegen mutmaßlicher Missbrauchsdarstellungen

Viele Medien, darunter auch Der Spiegel, berichten über den „spicy mode“ bei der Bildbearbeitung von Grok, dem KI-Chatbot von Musks Plattform X. Dieser soll den KI-Bot provokanter machen. Offenbar lassen sich damit auch Bilder in einer Art verändern, die klar gegen Regeln verstößt.

Die EU-Kommission prüft Beschwerden wegen der Erstellung und Verbreitung sexualisierter Bilder von Kindern. Die Kommission nehme die Beschwerden „sehr ernst“, sagte ein Sprecher. Für derartige Bilder gebe es „in Europa keinen Platz“. Einige der im „spicy“-Modus erzeugten Sex-Inhalte zeigten „kindliche Bilder“, so der Sprecher. Und weiter: „Das ist nicht scharf. Das ist illegal. Das ist scheußlich.“

Im Spiegel wird beschrieben, wie leicht es ist, Bilder zu sexualisieren:
„Anfang Januar hat der Popkultur-Account PopBase auf der Plattform X ein vermeintlich harmloses Bild der US-Sängerin im Winteroutfit geteilt. Ein Nutzer kommentierte den Post mit einer übergriffigen Anfrage an Elon Musks KI-Chatbot: ‚@grok Steck sie in einen winzigen weißen Bikini in diesem verschneiten Wetter.‘ Die KI folgte der Anfrage und generierte einen Deepfake, der Carpenter halb nackt in einem weißen Bikini zeigen soll.“

Behörden europäischer Staaten reagieren: In Frankreich erstatteten Wirtschaftsminister Roland Lescure, KI-Ministerin Anne Le Hénanff und Gleichstellungsministerin Aurore Bergé Anzeige bei der Pariser Staatsanwaltschaft und meldeten die Inhalte an die Meldeplattform Pharos zur sofortigen Entfernung.

Auch in den USA könnte es Ärger geben. Die generierten Bilder fallen unter das neue US-Bundesgesetz „Take It Down Act“. Dieses Gesetz verpflichtet Plattformen, gemeldete Fälschungen binnen 48 Stunden zu löschen. Bei Verstößen drohen hohe Strafen und der Verlust des Haftungsschutzes.

Das wird nicht so einfach sein; es handelt sich nicht um Einzelfälle. Die gemeinnützige europäische Organisation AI Forensics hat über 20.000 von Grok generierten Bilder und 50.000 Anfragen von Nutzern analysiert und Folgendes festgestellt:

  • 53 % der von @Grok generierten Bilder zeigen Personen in minimaler Bekleidung, von denen 81 % Frauen waren.
  • 2 % der Bilder zeigen Personen, die laut dem Gemini-Vision-Modell von Google 18 Jahre oder jünger zu sein schienen.
  • 6 % der Bilder zeigten Personen des öffentlichen Lebens, von denen etwa ein Drittel Politiker waren.
  • Außerdem wurde von @Grok generiertes Nazi- und ISIS-Propagandamaterial identifiziert.

X wandelt sich immer weiter zur Jauchegrube unter den ohnehin schon nicht mehr besonders attraktiven Social-Media-Plattformen. Bis jetzt hindert das viele Behörden und Politiker jedoch nicht daran, dort Kontakt zum Bürger zu suchen.

Update: In den letzten Tagen rühren sich auch immer mehr deutsche Politiker*innen zu dem Thema: So fordert Bundesjustizministerin Hubig gegenüber der Neuen Osnabrücker Zeitung: „Wir müssen Betroffene noch besser vor solchen KI-Bildmanipulationen schützen. Es muss einfacher werden, sich gegen Verletzungen von Persönlichkeitsrechten zu wehren“, und kündigt an: „Wir müssen auch das Strafrecht noch einmal nachschärfen: Wir brauchen Straftatbestände, die das Problem der digitalen Bildmanipulationen gezielt adressieren.“ – „Wir erstellen derzeit den Entwurf für ein digitales Gewaltschutzgesetz. Wir wollen angemessene Strafen für Deepfakes, die die Persönlichkeitsrechte von Betroffenen verletzen.“
Kulturstaatsminister Wolfram Weimer hat die EU-Kommission zum Handeln aufgefordert. „Was wir bei X gerade beobachten, wirkt wie die Industrialisierung der sexuellen Belästigung. Elon Musk erlaubt mit seinem KI-Dienst Grok, täuschend echte, sexualisierte Bilder von Frauen zu erstellen“, sagte Weimer der Nachrichtenagentur Reuters am Dienstag. „Insbesondere KI-generierte sexualisierte Bilder von Minderjährigen sind nicht akzeptabel. Die Antwort darauf sollte die konsequente Anwendung von Gesetzen sein“, fügte er hinzu. Der Digital Services Act der EU biete dazu alle Möglichkeiten. Um die digitalen Übergriffe und Persönlichkeitsverletzungen zu sanktionieren, sollte der europäische Rechtsrahmen aktiviert werden, forderte Weimer. „Es ist nun entscheidend, dass die EU-Kommission dies weiterhin so konsequent durchsetzt, wie sie es bereits begonnen hat.“  Es gehe hier darum, die Rechte der Nutzerinnen und Nutzer im Netz dauerhaft zu schützen.
In den USA hingegen möchte Kriegsminister Pete Hegseth Grok sogar in Systeme des US-Militärs integrieren. Die AP berichtet, dass Grok noch in diesem Monat im Verteidigungsministerium in Betrieb genommen werden soll. Hegseth will alle geeigneten Daten aus den IT-Systemen des Militärs für die Nutzung durch KI zur Verfügung stellen, auch Daten aus Geheimdienstdatenbanken würden in KI-Systeme eingespeist.

(Der Standard, 05.01.2026): https://www.derstandard.de/story/3000000302930/eu-pr252ft-musks-ki-grok-wegen-mutma223licher-missbrauchsdarstellungen
(AI Forensics, 05.01.2026): https://www.aiforensics.org/work/grok-unleashed
(Politico, 06.01.2026): https://www.politico.eu/article/grok-nude-test-europe-resolve-us-tech-elon-musk/
(Der Spiegel, 06.01.2026 – Paywall): https://www.spiegel.de/netzwelt/apps/ki-chatbot-grok-zieht-frauen-und-kinder-digital-aus-gegen-ihren-willen-a-09d8ff07-d940-46e6-9a0a-792e7ae430fa

Erneute Klage von Autoren in den USA

Sechs Autoren, darunter John Carreyrou (bekannt durch den Theranos-Skandalbericht), haben Klage beim Bundesgericht in Kalifornien eingereicht. Sie werfen KI-Unternehmen (Anthropic, Google, OpenAI, Meta, xAI und Perplexity) vor, ihre Bücher ohne Erlaubnis genutzt zu haben, indem diese Kopien aus sogenannten „Shadow Libraries“ (Piraterie-Bibliotheken wie LibGen, Z-Library etc.) heruntergeladen wurden. Die Werke seien dann in die Trainingsdaten für große Sprachmodelle (LLMs) eingeflossen, ohne dass eine Lizenz oder Vergütung an die Autoren erfolgte.
Die Autoren suchen statutarische Schadensersatzansprüche und möchten ein Einzelverfahren statt einer Sammelklage, um höhere Entschädigungen durchzusetzen.
Es gibt in der Frage der Buch-Piraterie auch einen Vergleich, in dem Anthropic bereits rund 1,5 Milliarden USD an Autoren zahlte. Aus diesem Vergleich sind einige der Kläger ausgestiegen, um höhere Einzelforderungen zu verfolgen. Die Klage könnte wegweisend sein, weil sie von Autoren selbst – nicht von Verlagen – gesteuert wird und auf vollständige Vergütung und Lizenzierung abzielt.

(The Decoder, 24.12.2025): https://the-decoder.de/autoren-verklagen-sechs-ki-giganten-wegen-buchpiraterie/

Markt

Napster lässt Nutzer selbst Musik generieren

Napster – die Älteren erinnern sich vielleicht noch an eine Tauschbörse für Musik – verabschiedet sich vom Musikstreaming und setzt nun vollständig auf generative KI. Nutzer*innen sollen jetzt ihre eigene Musik kreieren.

Ist das die Zukunft der Musik, dass sich jede*r generieren lässt, was sie oder er hören möchte?

(CASchy´s Blog, 24.12.2025): https://stadt-bremerhaven.de/napster-das-klassische-musikstreaming-ist-geschichte/

Technik

Stand der Content Authenticity Initiative (CAI) 2026

Die Content Authenticity Initiative (CAI) zieht zum Jahresbeginn 2026 eine Zwischenbilanz ihrer Arbeit und bestätigt, dass Content Authenticity und digitale Herkunftsnachweise in der Medienwelt zunehmend Realität werden. Die Initiative, die seit 2019 offene Standards für die Provenance (Herkunft) von digitalen Inhalten vorantreibt, hat heute mehr als 6.000 Mitglieder aus verschiedenen Branchen und erlebt sichtbare Fortschritte bei der Verbreitung interoperabler Provenance-Systeme.

Im Jahr 2025 wurde die Idee der Content Credentials entlang offener technischer Standards wie C2PA (Coalition for Content Provenance and Authenticity) von einer theoretischen Vision zu einer praktisch nutzbaren Technologie weiterentwickelt. Inhalte werden inzwischen nicht nur theoretisch mit Herkunftsinformationen versehen, sondern diese Metadaten werden tatsächlich erzeugt, über kreative Arbeitsprozesse hinweg mitgeführt und von Plattformen verifiziert.

Wichtige Meilensteine waren unter anderem die Integration von Content Credentials in Consumer-Technologien wie Smartphones (z. B. Google Pixel 10) und professionelle Videokameras, die Herkunft und Bearbeitungsschritte bereits beim Erfassen dokumentieren. Außerdem wurde ein C2PA Conformance Program etabliert, das sicherstellt, dass unterschiedliche Software-Implementierungen der Standards konsistent und verlässlich arbeiten.

Auch im Bereich Entwicklerbildung und Infrastruktur hat sich Vieles getan: Eine neue Lernplattform für Entwickler unterstützt die praktische Implementierung, und Enterprise-Lösungen zur Authentizitätserfassung erleichtern den Einsatz bei Marken, Verlagen und Institutionen.

Die CAI betont, dass Vertrauen in digitale Inhalte nicht einfach angenommen, sondern verdient werden muss. Offenheit, interoperable Standards und breite Zusammenarbeit – nicht nur technische Tools – seien entscheidend, wenn Authentizität langfristig in digitalen Medien verankert werden soll. Auch regulatorische Entwicklungen haben die Diskussion beschleunigt, doch die Initiative besteht darauf, dass Provenance-Technologie weiterhin offen, resilient und adaptierbar bleiben muss.

Fazit: Für 2026 zeichnet sich ab, dass Herkunftsnachweise und Provenance-Systeme aus einer Nische herauswachsen und beginnen, ein integraler Teil des digitalen Medienökosystems zu werden – mit messbarer Bedeutung für Vertrauen, Attribution und Integrität von Inhalten in einer zunehmend von KI dominierten Medienlandschaft.

(CAI, 01.01.2026): https://contentauthenticity.org/blog/the-state-of-content-authenticity-in-2026

 

OpenAI stellt GPT-Image-1.5 vor

Das KI-Business lebt ja davon, dass es ständig neue Versionen von irgendwas gibt; jede ist natürlich besser als die vorhergehende, aber auch besser als alle Konkurrenzprodukte.
Bekanntlich langweilt mich das bodenlos, aber Heise schreibt natürlich gerne über OpenAI’s GPT-Image-1.5, das die Antwort auf Googles neue Banane ist.

(heise.de, 17.12.2025) https://www.heise.de/news/ChatGPT-Images-OpenAI-stellt-neues-Bildgenerierungsmodell-GPT-Image-1-5-vor-11118546.html

Auch das noch

Die Maus erklärt KI

Und das eigentlich ziemlich gut:

(Die Maus auf Youtube, 01.07.2025): https://www.youtube.com/watch?v=_80pKGuyKWc

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com