Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter # 22 – März 2026

Liebe Leute, liebe Mitglieder, liebe Leser*innen,

hier ist der jüngste KI-Newsletter mit allem, was mir in der letzten Woche zum Thema über den Weg gelaufen ist und was ich für mitteilenswert halte.

Auf politischer Ebene ist viel passiert: Der Rechtsausschuss des Europäischen Parlaments hat einen Bericht zu KI und generativer KI veröffentlicht, es gab dazu auch eine Anhörung des Kulturausschusses im Deutschen Bundestag, und aus dem AI Office erreichte uns der nächste Entwurf zum Code of Practice – Transparency. Bei Letzterem geht es auch darum, wie wir Transparenzverpflichtungen nachkommen müssen, wenn wir mit generativer KI arbeiten. Im ersten Entwurf war das genau so weitgehend wie praxisfern, im zweiten wurden unsere Bedenken hier und da aufgenommen, aber es bleiben immer noch einige Fragen. Ansonsten erwartet euch der übliche Mix aus wunderlichen oder erstaunlichen Meldungen aus dem Universum der bildgenerativen KI. Am 16. April trifft sich die Berufsgruppenversammlung der VG Bild-Kunst in Hamburg, und es wird dort auch um die Positionierung der VG in der politischen Debatte über KI hinsichtlich des stehenden Bildes, insbesondere um Lizenzierungen, gehen.

Allerbeste Grüße

Marco


P.S.: Wer am 22. April auf der PICTA in Hamburg ist, kann Silke Brüggemeier, stellv. Chefredakteurin und Chefin Visuelles der dpa, und mir zuhören, wie wir uns über das Thema »Neue Rollen, alte Verantwortung: Bildjournalismus und die Transformation visueller Berufe« unterhalten. Von 15:25 bis 16:10 Uhr, Bühne Harbour View (4.OG), Factory Hammerbrooklyn.

Politik

Bericht des Europäischen Parlaments über das Urheberrecht und genKI

Der Bericht des zuständigen Berichterstatters des EP, Axel Voss, MdEP, wurde am 10.03.2026 im EP zur Abstimmung gestellt und fand eine sehr breite Zustimmung.

Damit ist die Position des Parlaments gegenüber der Europäischen Kommission in Sachen Urheberrecht und genKI klargestellt.
Der Bericht benennt alle relevanten Probleme (Erwägungsgründe), stellt aber letztlich doch Belange der KI-Entwickler über die Rechte der Kreativen als Rechteinhaber*innen.

Ein zentrales Problem der aktuellen KI-Ökonomie wird anerkannt: Ohne hochwertige, von Menschen geschaffene Inhalte können Systeme wie ChatGPT oder Stable Diffusion gar nicht funktionieren. Gleichzeitig stellt sich jedoch die Frage, unter welchen Bedingungen diese Inhalte für das Training von KI genutzt werden dürfen.

Nach unserer Einschätzung ist die derzeitige Rechtslage dafür ungeeignet. Die KI-Modelle wurden mit urheberrechtlich geschützten Werken trainiert, ohne dass Urheber*innen darüber informiert wurden oder daran beteiligt sind. Hinzu kommt, dass die bestehende Text- und Data-Mining-Regelung ursprünglich für wissenschaftliche Analysezwecke geschaffen wurde – nicht für das Training generativer KI.

Besonders kritisch sehen wir das derzeitige – und von Voss auch weiterhin favorisierte – Opt-out-Modell: Kreative müssten aktiv widersprechen, wenn ihre Werke nicht für KI-Training verwendet werden sollen. In der Praxis verschiebt das die Verantwortung vollständig auf die Urheber*innen und verhindert einen funktionierenden Lizenzmarkt.

FREELENS fordert deshalb mehrere grundlegende Änderungen: KI-Training dürfe nicht unter die Text- und Data-Mining-Ausnahme fallen, stattdessen muss ein Opt-in-System gelten: Werke dürfen nur dann für KI-Training genutzt werden, wenn Urheber*innen dem ausdrücklich zugestimmt haben. Zudem müssten KI-Anbieter nachweisen können, dass ihre Trainingsdaten rechtmäßig lizenziert wurden. Transparenz über die verwendeten Datensätze ist die Voraussetzung dafür, dass überhaupt ein Markt für entsprechende Lizenzen entstehen kann.

Für uns steht dabei mehr auf dem Spiel als nur eine Detailfrage des Urheberrechts. Kreative Werke sind der zentrale Rohstoff für generative KI. Wenn diese Inhalte ohne Zustimmung genutzt werden, droht die wirtschaftliche Grundlage kreativer Arbeit zu erodieren. Ein fairer Lizenzmarkt liegt deshalb nicht nur im Interesse der Urheber*innen, sondern auch im Interesse der KI-Entwicklung selbst: Ohne hochwertige und rechtssicher nutzbare Trainingsdaten leidet am Ende auch die Qualität der Systeme.

Fazit: Europa braucht sowohl starke Kreativmärkte als auch leistungsfähige KI. Beides lässt sich nur miteinander vereinbaren, wenn die Nutzung urheberrechtlich geschützter Inhalte für KI-Training klar geregelt und fair vergütet wird.

Staatsminister Wolfram Weimer ließ dazu verlauten: »Die großen KI-Sprachmodelle wurden mit unzähligen geschützten Werken trainiert, ohne die Einwilligung der Urheber einzuholen und ohne sie dafür zu bezahlen. Das dürfen wir nicht länger hinnehmen, die Rechteinhaber müssen an der Wertschöpfung durch KI teilhaben können. Das heißt: Die, die Inhalte nutzen, müssen die Urheber dafür angemessen bezahlen. Genau deshalb ist das Signal aus dem Europäischen Parlament so wichtig: Der Bericht stärkt die Kreativen und fordert eine Anpassung des Urheberrechts an die neue Realität der Ära der Künstlichen Intelligenz. Die Zeit drängt. Die EU-Kommission sollte sich dieses Themas intensiv annehmen und sich jetzt darum kümmern, wie die rechtlichen Rahmenbedingungen für die Urheber verbessert werden können. Die Kreativen aus ganz Europa dürfen nicht zu Datenlieferanten degradiert werden, sie müssen endlich angemessen vergütet werden. Das ist auch eine Frage der Gerechtigkeit.«

Ja, aber wir sagen: »Keine Lizenzierung ohne Zustimmung!« – Denn zum Datenlieferanten werden wir auch, wenn wir vergütet werden. Eine zwangsweise Lizenzierung mit einer Vergütung, die uns als Bildlieferanten gerade so am Leben erhält, damit wir weiter wertvollen Rohstoff liefern, das ist nicht in unserem Sinne.

https://www.europarl.europa.eu/doceo/document/A-10-2026-0019_DE.html#_section1
(Download des Berichts oben rechts)

Die Stellungnahme der Initiative Urheberrecht ist eher positiv:
(IU, 10.03.2026): https://urheber.info/diskurs/entscheidung-fur-demokratie-und-innovation-im-europaischen-parlament

Bericht des Börsenblatts des Börsenvereins des Deutschen Buchhandels:
(10.03.2026): https://www.boersenblatt.net/news/verlage-news/wir-brauchen-klare-regeln-und-einen-lizenzmarkt-414709

Der Kluwer Copyright Blog fasst den Bericht treffend zusammen:
Kluwer Copyright Blog, 10.03.2026): https://legalblogs.wolterskluwer.com/copyright-blog/axel-voss-good-intention-the-european-parliament-adopts-report-to-recalibrate-eu-copyright-for-generative-ai/

Stellungnahme der Initiative Urheberrecht: Leitplanken für generative KI: Opt-in, Vergütung und effektive Durchsetzung

Die Initiative plädiert – ganz in unserem Sinn – in ihrer Stellungnahme anl. einer Anhörung im Kulturausschuss des Bundestages (siehe nächster Artikel) für eine entschlossene Regulierung, faire Vergütungssysteme und einen klaren Ausgleich zwischen technologischem Fortschritt und dem Schutz kreativer Arbeit.

KI-Training und TDM-Schranke – Die Initiative widerspricht der Auffassung, dass das Training generativer KI unter die Text- und Data-Mining-Ausnahme (TDM) der DSM-Richtlinie fällt. TDM sei zur Analyse von Daten geschaffen worden, nicht zur Produktion neuer, marktfähiger Werke. Generative KI steht in direktem Wettbewerb zu den für das Training verwendeten Werken und gefährdet die wirtschaftliche Grundlage der Urheber*innen. Auch der Drei-Stufen-Test wird nicht erfüllt.

Urheberrechtliche Einordnung des Trainings – Die Debatte darf sich nicht auf technische Fragen der »Vervielfältigung« beschränken. Maßgeblich ist, dass geschützte Werke systematisch genutzt und in Modelle eingebettet werden – ohne Zustimmung und ohne Vergütung. Gefordert wird eine klare gesetzliche Regelung, die KI-Training als zustimmungs- und vergütungspflichtige Nutzung einordnet, einschließlich wirksamer Durchsetzung gegenüber außereuropäischen Anbietern.
Opt-in statt Opt-out – Ein Opt-out-System lehnt die Initiative Urheberrecht ab. Rechteinhaber*innen dürften nicht verpflichtet sein, ihre Rechte aktiv verteidigen zu müssen. Stattdessen wird ein Opt-in-Modell gefordert. Domain-basierte Lösungen wie robots.txt sind technisch ungeeignet; erforderlich sind werkbezogene, maschinenlesbare Nutzungsvorbehalte. Opt-outs dürften zudem nicht zu Nachteilen bei der Auffindbarkeit führen.

Kritik am AI Code of Practice – Der aktuelle Entwurf ist zu unverbindlich. »Best Efforts«-Formulierungen reichen nicht aus; notwendig seien klare, haftungsbewehrte Verpflichtungen, Transparenz über Trainingsdaten und ein konsequenter Ausschluss von Pirateriequellen.

Demokratische und gesellschaftliche Risiken – Generative KI birgt Risiken für die Meinungsbildung und das Vertrauen in visuelle Dokumentation. Gefordert werden Kennzeichnungspflichten für KI-Inhalte sowie wirksame Schutzmechanismen für authentische Werke.

(initiative Urheberrecht, 19.02.2026): https://urheber.info/media/pages/diskurs/offentliche-expert-innenanhorung/3a096ff179-1771837478/260219_stellungnahme-iu-fur-bt-ausschuss-25-2-2026-ki-u-urheberrecht.pdf

KI und Urheberrecht im Kulturausschuss

Vor Ort im Fachgespräch des Bundestagsausschusses für Kultur und Medien zu »KI und Urheberrecht« wurde deutlich: Generative KI ist in der kreativen Praxis angekommen, aber zugleich wächst der politische Druck, faire Rahmenbedingungen für Urheber*innen zu schaffen. Ein breiter Konsens bestand darin, dass kreative Werke eine zentrale Grundlage der KI-Entwicklung bilden und dass mehr Rechtssicherheit sowie funktionierende Vergütungsmodelle erforderlich sind.

Deutlich traten jedoch Konfliktlinien zwischen den Sachverständigen hervor. Vertreterinnen der Kreativwirtschaft und Verwertungsgesellschaften betonten vor allem die doppelte Belastung durch unvergütete Nutzung von Werken im Training und zunehmende Konkurrenz durch KI-generierte Inhalte. Sie forderten einen funktionierenden Lizenzmarkt, mehr Transparenz über Trainingsdaten sowie vielfach eine Rückkehr zum Opt-in-Prinzip. Besonders kritisch wurden Auswirkungen auf Auftragsmärkte, Streaming-Plattformen und journalistische Reichweite bewertet.

Demgegenüber wiesen technisch orientierte Stimmen auf die begrenzte Nachvollziehbarkeit einzelner Trainingsnutzungen, hohe Bürokratiekosten und mögliche Standortnachteile durch zu weitgehende Regulierung hin. Pauschale Vergütungs- oder Beweislastmodelle wurden hier skeptisch beurteilt, während technische Schutzmaßnahmen und offene Datensätze als praktikablere Ansätze galten.

Eine dritte Perspektive betonte strukturelle Marktfragen: Ohne klare und frühzeitig durchsetzbare Regeln drohten weitere Konzentrationsprozesse zugunsten großer Plattformen. Diskutiert wurden daher auch Abgabenmodelle, Transparenzpflichten als Bringschuld der Anbieter*innen sowie ergänzende regulatorische Ansätze jenseits des klassischen Urheberrechts.

Offen bleibt insbesondere, ob Regulierung stärker beim Training oder beim Output ansetzen sollte, wie Transparenz praktisch durchgesetzt werden kann und welche Rolle kollektive Lizenzmodelle künftig spielen. Klar ist: Die politischen Debatten über faire Beteiligung kreativer Arbeit an der KI-Wertschöpfung stehen erst am Anfang.

(Deutscher Bundestag, 25.02.2026): https://www.bundestag.de/ausschuesse/a22_kultur/oeffentliche_sitzungen/1148992-1148992

 

Entwurf des deutschen KI-Gesetzes: Urheberrecht nicht geregelt

Das Bundesministerium für Digitales und Innovation hat den Entwurf eines »KI-Marktüberwachungs- und Innovationsförderungsgesetzes« (KI-MIG) veröffentlicht und will damit die nationale Umsetzung der europäischen Verordnung (EU) 2024/1689, also des AI Acts, auf den Weg bringen. Zuständigkeiten werden geregelt, eine KI-Marktüberwachungskammer eingerichtet, Bußgelder definiert, ein Koordinierungszentrum geschaffen und mindestens ein KI-Reallabor etabliert. Die Botschaft: Deutschland macht sich organisatorisch bereit für das KI-Zeitalter.

Was der Entwurf allerdings nicht macht: Er klärt keine einzige urheberrechtliche Kernfrage.
Weder werden zusätzliche Transparenzpflichten zu Trainingsdaten eingeführt, noch werden nationale Spielräume genutzt, um die Position von Urheber*nnen zu stärken. Das Gesetz beschränkt sich strikt auf die Durchführung des AI Acts. Wer gehofft hatte, dass die Bundesregierung zumindest bei Dokumentations- oder Offenlegungspflichten nachschärft, wird enttäuscht.
Zwar verweist das Gesetz auf Grundrechte-Folgenabschätzungen für bestimmte Hochrisiko-Systeme – theoretisch ließe sich hier auch das Eigentumsgrundrecht ins Spiel bringen. Praktisch aber bleibt offen, ob Marktüberwachungsbehörden die massenhafte Nutzung geschützter Werke für Trainingszwecke überhaupt als grundrechtlich relevante Frage behandeln werden.
Auffällig ist zudem die starke Betonung der Innovationsförderung: KI-Reallabore, Beratung, Unterstützung für Start-ups und öffentliche Stellen. Eine strukturelle Flankierung für faire Lizenzmodelle oder kollektive Vergütungssysteme? Fehlanzeige. Der Staat baut Infrastruktur für KI-Entwicklung – die Vergütungsfrage bleibt ungelöst.
Das Durchführungsgesetz organisiert Aufsicht und Innovation, aber es meidet die urheberrechtliche Konfliktzone. Für Kreativschaffende bedeutet das: Die entscheidenden Auseinandersetzungen finden weiterhin im Urheberrecht selbst, auf EU-Ebene – und vor Gericht statt.

Ich würde sagen: Die Bundesregierung hat weiterhin FOMO, Fear of Missing Out. Man hat Angst, den KI-Zug zu verpassen (was ja möglicherweise längst passiert ist), und wenig Interesse daran, die Rechte der Urheber*innen zu schützen.

(BMDS, 11.02.2026): https://bmds.bund.de/aktuelles/pressemitteilungen/detail/kabinett-beschliesst-schlanke-ki-aufsicht-in-deutschland

Wer bleibt … sauber? Anthropic, OpenAI und Pete Hegseth

Das US-Kriegsministerium stellte dem KI-Unternehmen Anthropic letzte Woche ein Ultimatum: Entweder gewährt es dem Militär uneingeschränkten Zugang zu seiner KI, oder es verliert einen 200-Millionen-Dollar-Auftrag des Pentagon und wird von allen Regierungsaufträgen ausgeschlossen. Anthropic blieb standhaft und erklärte, dass KI nicht zur Steuerung von Waffen oder zur Massenüberwachung der amerikanischen Bevölkerung eingesetzt werden dürfe – für das Pentagon keine akzeptable Antwort.
Aus den gesamten USA kam lautstarke Unterstützung für Anthropics Bekenntnis zu seinen (absoluten Mindest-)Grenzen, darunter von Politiker*innen aller Couleur und Mitarbeitenden von Konkurrenzunternehmen wie OpenAI und Google.


Nachdem die von Kriegsminister Pete Hegseth gesetzte Frist am Freitag abgelaufen war, wurde die Zusammenarbeit von Anthropic mit der Regierung ausgesetzt und dem Unternehmen vom Weißen Haus das Label „Supply Chain Risk“ (Risiko für die nationale Sicherheit) verliehen, das normalerweise ausländischen Gegnern vorbehalten ist und die anderen Geschäftspartnerschaften von Anthropic erheblich beeinträchtigen könnte. Hegseth drohte außerdem, dass die Regierung sich auf das Verteidigungsproduktionsgesetz berufen könnte, um Anthropic zu zwingen, ihnen ihre »auf die Bedürfnisse des Militärs zugeschnittenen« Systeme zur Verfügung zu stellen, obwohl dies bisher noch nicht geschehen ist.

Nur wenige Stunden später gab OpenAI am Freitag bekannt, dass sie eine Vereinbarung mit dem Pentagon getroffen hätten, die es erlaubt, ihre Modelle in ihrem geheimen Netzwerk zu verwenden. Obwohl Sam Altman, CEO von OpenAI, seine Unterstützung für die roten Linien von Anthropic zum Ausdruck gebracht hat und behauptet, dass OpenAI diese teilt, ist noch unklar, inwieweit – wenn überhaupt – das Pentagon diese bei der Nutzung der Modelle von OpenAI respektieren wird. Diese Maßnahme stieß in der Öffentlichkeit auf weitere Skepsis, und in den sozialen Medien verbreitete sich der Aufruf an ChatGPT-Nutzer*innen, ihre Abonnements zu kündigen. Selbst innerhalb von OpenAI gab es Kritik. Eine leitende Mitarbeiterin trat zurück und warnte, dass der Deal zu schnell beschlossen worden sei und mehr Governance gebraucht hätte.

Letzter Akt des etwas bizarren Streits (zumindest bis Redaktionsschluss): Anthropic hat Klage eingereicht und argumentiert, die Entscheidung sei eine politische Bestrafung für seine Sicherheitspositionen. Microsoft stellt sich mit anderen Tech-Firmen hinter Anthropic und hat ein Gerichtsschreiben (»amicus brief«) zugunsten von Anthropic eingereicht, um die Firma in ihrem Rechtsstreit gegen das Pentagon zu unterstützen.

(Tagesschau, 02.03.2026): https://www.t-online.de/nachrichten/ausland/internationale-politik/id_101146912/anthropic-openai-rivale-legt-sich-mit-hegseth-an.html

(The Guardian, 12.03.2026): https://www.theguardian.com/technology/2026/mar/12/microsoft-amicus-brief-anthropic-pentagon

KI-Regeln werden wahrscheinlich verschoben

Mindestens Teile der Regelungen der KI-Verordnung, KI-VO, oder auch AI Act, werden wohl auf Ende 2027 verschoben. Eigentlich hätten die Regelungen, die ja zum Beispiel auch die Verpflichtung für Schulungen beinhalten (die wir ja speziell für KI & Fotografie anbieten), am 02. August 2026 in Kraft treten sollen. Mit dem sog. Digital Omnibus will das Europäische Parlament die Verschiebung verabschieden.  

AD HOC NEWS schreibt: »Die Botschafter der Mitgliedstaaten beschlossen am Freitag eine gemeinsame Verhandlungsposition. Sie sieht vor, die Fristen für die Anwendung der Hochrisiko-Regeln im KI-Gesetz zu verschieben. Zugleich unterstützen sie einen umfassenden Verbotstatbestand für KI-generierte sexualisierte Deepfakes.«

Es bleibt also abzuwarten, was genau aufgeschoben wird und ob es überhaupt dazu kommt. Die Details des AI Act werden ja ohnehin in den Code of Practice geregelt. Das Kapitel „Copyright“ ist fertig, das konnten ihr auch in diesem Newsletter nachlesen, das Kapitel »Transparenz« ist gerade in Arbeit,  der zweite Entwurf liegt uns im Fotorat vor und wir sind dazu im Diskurs mit dem AI Office.

(AD HOC NEWS, 14.03.2026): https://www.ad-hoc-news.de/boerse/news/ueberblick/eu-will-ki-regeln-verschieben-verbietet-aber-sex-deepfakes/68671994

Die Gesellschaft des Verschwindens

In einem Kommentar von Stephan Weichert in der taz wird die rasante Entwicklung generativer KI als potenzieller Wendepunkt für Öffentlichkeit und Demokratie beschrieben. Die zentrale These: Wenn immer mehr Inhalte automatisiert produziert, personalisiert und massenhaft verbreitet werden, droht das offene, diskursive Internet in seiner bisherigen Form zu erodieren.
Weichert zeichnet ein Szenario, in dem KI-Systeme nicht nur Texte, Bilder und Videos in kaum unterscheidbarer Qualität erzeugen, sondern auch gezielt auf individuelle Nutzerprofile zugeschnittene Inhalte ausspielen. Damit wächst die Gefahr von Desinformation, manipulativer Ansprache und politischer Einflussnahme – bei gleichzeitig sinkender Transparenz darüber, wer Inhalte erstellt hat und mit welcher Absicht.

Besonders problematisch sei die ökonomische Logik der Plattformen: Aufmerksamkeit bleibt die zentrale Währung. KI-Tools könnten diese Dynamik weiter verstärken, indem sie emotionalisierende oder polarisierende Inhalte effizienter produzieren als je zuvor. Das führe nicht nur zu einer »Vermüllung« des digitalen Raums, sondern erschwere auch die Orientierung in verlässlichen Informationsquellen.

Zugleich verweist der Beitrag auf die Machtkonzentration bei großen Tech-Unternehmen, die sowohl die Infrastruktur als auch die KI-Modelle kontrollieren. Wenn wenige Akteure definieren, welche Inhalte sichtbar sind, welche Daten genutzt werden und wie algorithmische Entscheidungen getroffen werden, verschiebt sich demokratische Gestaltungsmacht zunehmend in private Hände.
Der Kommentar plädiert daher für stärkere Regulierung, Transparenzanforderungen und eine gesellschaftliche Debatte über die Rolle von KI in der öffentlichen Kommunikation. Die Frage sei nicht nur technologisch, sondern zutiefst politisch: Wie lässt sich eine demokratische Öffentlichkeit sichern, wenn Maschinen einen wachsenden Teil der Informationsproduktion übernehmen?

(taz, 19.02.2026): https://taz.de/Kuenstliche-Intelligenz-Das-Ende-des-Internets-und-die-Entkernung-der-Demokratie/!6155291/

EU denkt über KI-Plattform für europäische Medien nach

Der Berliner Tagesspiegel berichtet (leider Paywall), dass die EU den Aufbau einer paneuropäischen, KI-gestützten Medienplattform prüft, um europäische journalistische Inhalte sichtbarer zu machen und die Abhängigkeit von großen Tech-Plattformen zu reduzieren. Bei einem Treffen im Europäischen Haus in Berlin diskutierten Vertreter*innen von Medien, KI-Firmen und der EU-Kommission über die Idee einer dezentralen Plattform, die Inhalte europäischer Medien automatisch übersetzt, aufbereitet und empfiehlt.

Die Idee dabei: Die Inhalte bleiben auf den Servern der Medienhäuser, während KI-Systeme sie über Sprach- und Ländergrenzen hinweg zugänglich machen. Nutzer*innen könnten beispielsweise journalistische Videos aus verschiedenen EU-Ländern in ihrer eigenen Sprache sehen. Zum Start wird vor allem an eine Art europäische Streaming-Plattform für journalistische Inhalte gedacht.

Die Initiative knüpft an Projekte wie den European Language Data Space an, der eine Infrastruktur für mehrsprachige Sprachdaten und KI-Anwendungen in Europa aufbauen soll. Ziel ist ein stärker vernetztes europäisches Medienökosystem – auch als Antwort auf Plattformdominanz, Desinformation und den wachsenden Einfluss generativer KI.

Allerdings äußerten Medienvertreter bei dem Treffen auch Skepsis: Ob eine weitere Plattform tatsächlich Nutzer*innen erreicht und ob KI-Übersetzungen das Vertrauen des Publikums gewinnen … man wird sehen … aber ich finde den Ansatz erst einmal gut.

(Der Tagesspiegel, 16.03.2026): https://epaper.tagesspiegel.de/index.html?articleId=doc84zjw4rxkli4wk2nwbm&app=tsp
(Geschenk-Link für die ersten Leser*innen)

Wahrheit oder Lüge

Demokratie under AI-Attack

»KI-Slop« – also massenhaft produzierte, billig generierte KI-Inhalte – schwappt zunehmend durch Plattformen wie TikTok. Eine aktuelle Analyse von CEMAS, dem gemeinnützigen Center für Monitoring, Analyse und Strategie, zeigt, wie automatisiert erzeugte Bilder, Clips und Erzählformate gezielt Reichweite erzeugen und dabei oft Desinformation, politische Narrative oder schlicht irreführende Inhalte transportieren.

Das Prinzip ist simpel: Mit generativer KI lassen sich in kurzer Zeit große Mengen an emotional aufgeladenem Content produzieren – häufig mit dramatischen Bildern, synthetischen Stimmen und stark vereinfachten Botschaften. Die Inhalte wirken authentisch, sind aber vollständig oder auch teilweise künstlich erzeugt. Entscheidend ist weniger die inhaltliche Substanz als die algorithmische Verwertbarkeit: Was Aufmerksamkeit erzeugt, wird ausgespielt.

Besonders problematisch wird das, wenn solche KI-Produktionen politische Botschaften verstärken oder Verschwörungserzählungen visuell aufladen. Die technische Hürde ist niedrig, die Produktionskosten sind minimal – und Plattformmechanismen belohnen hohe Schlagzahl. Das Ergebnis: eine Content-Flut, die es Nutzer*innen immer schwerer macht, zwischen echter Berichterstattung, Satire, Manipulation und automatisierter Massenware zu unterscheiden.
Für Medienschaffende und Urheber*innen wirft dies mehrere Fragen auf: Wie verändert sich die Sichtbarkeit hochwertiger Inhalte in einem Umfeld, das Quantität belohnt? Welche Rolle spielen Plattformen bei der Kennzeichnung und Eindämmung synthetischer Masseninhalte? Und wie lässt sich Transparenz herstellen, wenn KI-Tools zunehmend nahtlos in Content-Workflows integriert sind?

Der Begriff »KI-Slop« beschreibt dabei mehr als nur schlechte Qualität. Er steht für eine strukturelle Verschiebung: Inhalte werden nicht mehr primär für Menschen produziert – sondern für Algorithmen.

(Julia Smirnova, CeMAS, 18.02.2026): https://cemas.io/blog/ki-slop-auf-tiktok/

X führt Kennzeichnungspflicht für KI-Kriegsvideos ein

Elon Musks X führt eine Kennzeichnungspflicht für KI-generierte Videos ein – allerdings nur unter sehr speziellen Bedingungen: Wer Videos über bewaffnete Konflikte postet, die mit KI erzeugt wurden, muss diese künftig als solche markieren. Wer das nicht tut, fliegt für 90 Tage aus dem Monetarisierungsprogramm der Plattform; Wiederholungstäter*innen riskieren den dauerhaften Ausschluss.

Die Regel soll offenbar verhindern, dass täuschend echte KI-Kriegsvideos die Öffentlichkeit in die Irre führen. Solche Inhalte sollen entweder automatisch über Metadaten oder über Community Notes erkannt werden. Nicht nur, dass man bezweifeln darf, dass diese Form der Identifizierung praktikabel ist, nein, die Pflicht betrifft auch nur Nutzer*innen, die mit ihren Posts Geld verdienen wollen. Für alle anderen gilt weiterhin: KI-Videos über Krieg, Konflikte oder sonstige Ereignisse dürfen auch ohne Kennzeichnung kursieren. Anders gesagt: Irreführende Inhalte sind weiterhin erlaubt – solange niemand damit Geld über X verdient. Alle, die von anderer Seite bezahlt werden oder nur zum Spaß Fakes publizieren, dürfen weitermachen.
X setzt zwar erstmals überhaupt eine formale Regel für KI-Inhalte um, aber gleichzeitig wirkt sie eher wie ein Minimal-Kompromiss: ein Schritt gegen Desinformation – allerdings nur dort, wo sie die Werbeeinnahmen berührt. Oder anders formuliert: Transparenz ja, aber bitte nur im Premiumbereich.

(AdHocNews, 03.03.2026): https://www.ad-hoc-news.de/boerse/news/ueberblick/x-fuehrt-kennzeichnungspflicht-fuer-ki-kriegsvideos-ein/68632139

Worum es geht, zeigt dieser Beitrag von ntv über KI-generierte Videos, die den Iran-Krieg zeigen sollen:
(ntv, 04.03.2026): https://www.n-tv.de/mediathek/videos/politik/Wie-das-Bild-vom-Iran-Krieg-gezielt-manipuliert-wird-id30428060.html

Podcast

Photonen und Pixel – Der KI-Podcast des Deutschen Fotorates

Im aktuellen Rückblick sprechen Dr. Jürgen Scriba und Boris Eldagsen über die neuen Modelle Nano Banana 2, Seedream 5 Light und das neue Videomodell Seedance 2.0. Außerdem geht es um die massive Disruption der Produktfotografie, den Umgang mit Trainingsdaten und die Frage, warum wissenschaftliche Daten plötzlich bezahlt werden, kreative Werke aber oft nicht. Im Gespräch mit Medienwissenschaftler Prof. Dr. Jens Schröter von der Rheinischen Friedrich-Wilhelms-Universität Bonn wird es dann grundsätzlich: Was ist Kreativität, was bleibt von der Fotografie, und wie verändert KI unseren Begriff von Authentizität, Kunst und Wirklichkeit? Und was haben UFOs, Pilze und KI gemeinsam?

YouTube: https://www.youtube.com/watch?v=YpifVxtbfhI
Spotify: https://open.spotify.com/episode/0QFjcMgo2akJgwA1GYKg0y?si=c3e79a13b7f74cb2
Apple Podcasts: https://podcasts.apple.com/de/podcast/14-von-nano-banana-2-zu-pilzen-ufos-zu-gast-jens-schr%C3%B6ter/id1883987339?i=1000754447915

Technik

Warum einige KI-Crawler Robots.txt ignorieren: Probleme mit Stealth Crawling

Immer mehr Website-Betreiber*innen verlassen sich auf die Datei robots.txt, um KI-Crawler und andere Bots vom Zugriff auf ihre Inhalte auszuschließen. Aber bringt das eigentlich etwas? Ein aktueller Beitrag des SEO- und Datenanalyse-Anbieters Amicited zeichnet ein ernüchterndes Bild: Sogenannte »Stealth Crawler« sollen gezielt versuchen, robots.txt-Vorgaben zu umgehen – und sich dabei bewusst unauffällig verhalten.

Demnach tarnen sich einige Crawler, indem sie bekannte Browser-User-Agents imitieren oder IP-Adressen rotieren, um nicht als Bot erkannt zu werden. Teilweise würden sie robots.txt-Dateien zwar abrufen, die dort definierten Ausschlüsse aber ignorieren. Für Seitenbetreiber*innen entsteht so ein doppeltes Problem: Einerseits wird Rechenleistung verbraucht, andererseits können Inhalte trotz ausdrücklichen Nutzungsvorbehalts in Trainingsdaten von KI-Modellen landen.

Der Artikel verweist zudem darauf, dass robots.txt rechtlich ohnehin nur eine informelle Zugangsregel darstellt. Technisch basiert sie auf freiwilliger Selbstverpflichtung der Crawler-Betreiber*innen. Wer sich nicht daran hält, muss bislang vor allem mit Reputationsrisiken rechnen – effektive technische Barrieren sind damit nicht automatisch verbunden.
Für Webseitenbetreiber*innen, die ihre Inhalte vor KI-Training schützen wollen, verschärft das die Lage. Denn wenn selbst klar formulierte Ausschlüsse systematisch unterlaufen werden, stellt sich die Frage nach alternativen Schutzmechanismen – etwa durch Zugangsbeschränkungen, Paywalls oder technische Bot-Blocker.

Im Kontext der Diskussionen um KI-Training und Urheberrecht haben wir immer wieder betont: Ein bloßer Eintrag in der robots.txt-Datei reicht als Schutzinstrument nicht aus.

(Am I Cited, 03.01.2026): https://www.amicited.com/de/blog/stealth-crawlers-robots-txt-bypass/

Neurapix macht gleich die ganze Fotoproduktion gleich schick


Der deutsche Softwareanbieter Neurapix hat sein KI-Plugin für Adobe Lightroom Classic erweitert. Neu ist, dass die KI Bilder nicht mehr einzeln analysiert, sondern den Kontext einer gesamten Fotoproduktion berücksichtigt. Dadurch sollen Bearbeitungen – etwa bei Belichtung, Weißabgleich oder Farblook – über eine komplette Bildserie hinweg konsistenter ausfallen.


Bisher behandelte das System jedes Foto isoliert, was bei stark variierenden Motiven oder Lichtstimmungen zu leicht unterschiedlichen Ergebnissen führen konnte. Durch die Einbeziehung der gesamten Bildauswahl kann die Software nun besser erkennen, welche Fotos zusammengehören und wie der gewünschte Stil über das ganze Projekt hinweg angewendet werden soll.
Das Plug-in arbeitet weiterhin lokal auf dem Rechner und passt die Bearbeitung automatisch an den Stil des/der jeweiligen Fotograf*in an.

Neurapix https://neurapix.com/de/ kostet entweder pro Bild 0,04 EUR oder pauschal 49,90 EUR pro Monat.

(docma, 27.02.2026): https://www.docma.info/blog/neurapix-ki-bildbearbeitung-beruecksichtigt-jetzt-den-kontext-ganzer-shootings

Markt

Wildberger: KI verändert Arbeit und Gesellschaft – Deutschland muss den Wandel aktiv gestalten

Digitalminister Karsten Wildberger warnt in einem Gastbeitrag der Sonntags-FAZ (leider Paywall), dass künstliche Intelligenz den Arbeitsmarkt bereits in diesem Jahr spürbar verändern wird. KI schreibt zunehmend Code, übernimmt Routineaufgaben im Kundenservice und unterstützt juristische Analysen. Der Wandel verläuft zwar nicht abrupt, aber deutlich beschleunigt.
Wildberger argumentiert, dass Gesellschaften zwei widersprüchliche Wahrheiten gleichzeitig akzeptieren müssen: KI bietet enorme Chancen – etwa in Medizin, Klimaforschung oder wirtschaftlicher Innovation –, bringt aber auch erhebliche Risiken für Arbeitsmärkte, soziale Stabilität und demokratische Kontrolle mit sich. Ein einfaches »Pro« oder »Contra« greift daher zu kurz.
Besonders wichtig sei es, technologische Abhängigkeiten zu vermeiden. Europa müsse eigene KI-Systeme entwickeln, um nicht die Werte und Ziele anderer Länder zu importieren. Investitionen in europäische Recheninfrastruktur und digitale Souveränität seien daher strategisch notwendig.

Gleichzeitig müsse KI von Anfang an sicher und kontrollierbar gestaltet werden. Vertrauenswürdige Systeme könnten gerade in regulierten Bereichen wie Verwaltung, Industrie oder Gesundheitswesen zu einem Wettbewerbsvorteil werden.
Langfristig sieht Wildberger vor allem zwei zentrale Herausforderungen: Erstens muss sichergestellt werden, dass KI-getriebene Produktivitätsgewinne zu neuen Jobs, Einkommen und breitem Wohlstand führen. Zweitens muss das Bildungssystem Kinder auf eine Welt vorbereiten, in der Kreativität, Urteilsvermögen und soziale Fähigkeiten wichtiger werden als reine Wissensvermittlung.

 

Sein Fazit: Der KI-Umbruch ist unvermeidlich – entscheidend ist, ob Gesellschaften ihn aktiv gestalten oder nur auf ihn reagieren.

Mich beruhigt die doch differenzierte Sichtweise des Digitalministers, aber die Substitution der Kreativen durch KI und Urheberrechte sind natürlich nicht in seinem Fokus. Darüber wird noch zu sprechen sein.

(Frankfurter Allgemeine Sonntagszeitung, 15.03.2026): https://www.faz.net/aktuell/wirtschaft/mehr-wirtschaft/gastbeitrag-von-karsten-wildberger-deutschland-braucht-eine-ki-die-auf-sicherheit-gruendet-accg-110853031.html (Paywall)

Amazon verkauft alles, jetzt sogar Verlagsinhalte?

Der US-Konzern Amazon prüft offenbar den Aufbau eines KI-Marktplatzes für Inhalte von Verlagen. Wie das Branchenportal Meedia berichtet, geht es dabei um ein Modell, bei dem Verlage ihre Inhalte gezielt für das Training oder die Nutzung durch KI-Anwendungen lizenzieren könnten – gegen Vergütung.

Im Kern steht die Idee einer Plattform, über die Verlage strukturiert festlegen können, welche Inhalte zu welchen Konditionen für KI-Systeme verfügbar sind. Denkbar wären standardisierte Lizenzmodelle oder nutzungsabhängige Vergütungen. Amazon würde damit eine Vermittlerrolle zwischen Content-Anbietern und KI-Entwicklern einnehmen.
Strategisch passt das Vorhaben in Amazons wachsende KI-Aktivitäten – von Cloud-Services über Sprachmodelle bis hin zu eigenen Assistenzsystemen. Zugleich reagiert der Konzern auf die anhaltenden Auseinandersetzungen zwischen Medienhäusern und KI-Anbietern über urheberrechtlich geschützte Trainingsdaten. Ein Marktplatz könnte hier für mehr Rechtssicherheit sorgen – zumindest für jene Inhalte, die aktiv lizenziert werden.

Für Verlage eröffnet ein solches Modell neue Erlösoptionen in einem Feld, das bislang häufig von intransparentem Datenscraping geprägt ist. Gleichzeitig wirft es Fragen auf: Wer bestimmt die Preise? Wie transparent sind Nutzungszwecke? Und welche Verhandlungsmacht haben einzelne Häuser gegenüber einem globalen Plattformbetreiber? Werden die freien Mitarbeiter*innen der Verlage, also natürlich auch die Fotojournalist*innen, beteiligt? Und will Amazon nicht selbst auch ein Anbieter von KI sein oder werden?

Sollte Amazon den KI-Marktplatz tatsächlich umsetzen, wäre das ein weiterer Schritt hin zu formalisierten, plattformbasierten Lizenzmärkten für Trainingsdaten – und ein Signal, dass sich der Konflikt um KI und Verlagsinhalte zunehmend in Richtung kommerzieller Infrastrukturmodelle verschiebt.
Klingt gut, aber ich würde in der Rolle des »Vermittlers« lieber jemand anderen sehen. Zum Beispiel die Verwertungsgesellschaften.

(meedia, 16.02.2026): https://meedia.de/news/beitrag/21135-amazon-erwaegt-ki-marktplatz-fuer-verlagsinhalte.html

(TechCrunch, 10.02.2026): https://techcrunch.com/2026/02/10/amazon-may-launch-a-marketplace-where-media-sites-can-sell-their-content-to-ai-companies/

Der Wert von authentischen Fotografien im Meer der perfekten KI-Bilder

Also, es macht mich ganz unruhig, dass bei DOCMA offenbar jedes Titelbild zu KI mittlerweile mit KI erstellt wird. Und das dann so klischeehaft wie möglich.

Trotzdem sind die Geschichten natürlich lesenswert.
So schreibt Christoph Künne zum Beispiel darüber, dass, wenn alle KI-Bilder perfekt sind, der kleine Fehler des echten Fotos wohl zum Luxusgut würde:

Im Zeitalter der generativen KI droht die digitale Bilderflut endgültig zur KI-Sintflut zu werden, denn mit wenigen Prompts erzeugen Bildgeneratoren massenhaft fotorealistische Szenen, die von echten Fotos kaum noch zu unterscheiden sind. Damit verliert das einzelne Bild seinen Seltenheitswert, weil es beliebig reproduzierbar ist.

Der DOCMA-Autor argumentiert deshalb: Wert entsteht künftig vor allem dort, wo Bilder eine nachvollziehbare Entstehungsgeschichte, echte Intention oder authentische Momente enthalten. Entscheidend ist nicht nur, was ein Bild zeigt, sondern auch, wie und unter welchen Umständen es entstanden ist.

Als Beispiel führt der Text Roland Barthes’ Idee des »Punctum« an – jenes kleine Detail, das emotional »sticht« und ein Bild besonders macht. In einer Welt perfekt generierter KI-Bilder könnten gerade solche unplanbaren, menschlichen Momente wieder zum eigentlichen Wertfaktor werden.

Kurz gesagt: Wenn Maschinen jederzeit perfekte Bilder produzieren können, wird vielleicht ausgerechnet das Unperfekte, Echte und Dokumentarische zur neuen Premiumware der visuellen Kultur. Oder anders formuliert: Die Zukunft der Fotografie könnte darin bestehen, dass man wieder erklären muss, warum ein Bild überhaupt fotografiert wurde – und nicht einfach generiert.

Wer erzählt es der Werbebranche?

(docma, 06.03.2026): https://www.docma.info/blog/wertschopfung-im-zeitalter-der-ki-simulation-warum-nur-noch-wahrhaftige-bilder-einen-wert-haben

 

Businessfotos mit KI erstellen lassen?

Steffi Atze, Businessfotografin in NRW, fasst auf ihrem Blog das Für und Wider bei KI-generierten Porträtfotos zusammen.
Insgesamt ordnet sie das Angebot kritisch ein: KI-Bilder wirken oft glatt, austauschbar und entsprechen nicht immer der tatsächlichen Person. Für Unternehmen und Selbstständige stellt sich daher die Frage nach Authentizität, Glaubwürdigkeit und Markenwirkung. Ihr Fazit: KI kann ein pragmatisches Tool sein – ersetzt aber nicht die individuelle Bildsprache und Beratung durch professionelle Fotograf*innen.

Ich finde den Beitrag interessant, und das eine oder andere Argument darf man sich bestimmt mal ausleihen.

(Steffi Atze, 10.02.2026): https://www.steffi-atze.de/businessfotos-mit-ki-erstellen/

 

KI-Hunger frisst Bücher: Kaufen, zerschneiden, scannen, wegwerfen

Gerichtsunterlagen aus einem Urheberrechtsprozess geben seltene Einblicke in den Datenhunger der KI-Industrie. Demnach plante Anthropic unter dem internen Namen »Project Panama«, möglichst viele Bücher der Welt zu digitalisieren – notfalls mit der brachialen Methode: kaufen, Rücken abschneiden, Seiten scannen und die Reste entsorgen. Millionen Bücher sollten so in Trainingsdaten für KI-Modelle wie den Chatbot Claude verwandelt werden. Das Budget dafür lag laut Dokumenten im zweistelligen Millionenbereich.

Der Aufwand zeigt, wie wertvoll Bücher für KI-Firmen sind. Interne Papiere argumentieren, dass Modelle durch Bücher lernen, »gut zu schreiben«, statt nur den oft fragwürdigen Sprachstil des Internets zu imitieren. Gleichzeitig belegen die Dokumente, dass viele Unternehmen zunächst weniger elegante Wege wählten: Mitarbeitende von Anthropic, Meta oder OpenAI sollen massenhaft Bücher aus Schattenbibliotheken wie LibGen heruntergeladen haben – also aus Quellen, die offen Urheberrechte verletzen.
Die Folge ist eine Welle von Klagen von Autor*innen, Künstler*innen und Verlagen. Im Fall von Anthropic endete ein Teil des Streits bereits mit einem Vergleich über 1,5 Milliarden Dollar, wobei Autor*innen im Schnitt rund 3.000 Dollar pro betroffenem Werk erhalten sollen. Ist das ein fairer Wert, oder verkauft man sich hier für ein Linsengericht?
Juristisch bleibt die Lage widersprüchlich: Mehrere US-Gerichte haben entschieden, dass das Training von KI mit Büchern möglicherweise als »transformative Nutzung« gelten kann – also grundsätzlich zulässig ist. Problematisch sei eher die Art gewesen, wie manche Unternehmen an die Bücher gekommen sind.

Dieser Blick hinter die Kulissen bestätigt: In der KI-Industrie läuft ein globales Wettrennen um Trainingsdaten – und dabei wird das kulturelle Erbe der Menschheit behandelt wie Rohstoff in einer Papiermühle. Nur mit dem Unterschied, dass die Bücher vorher noch schnell eingescannt werden.

Klar ist aber: Die kreativen Werke sind wertvoll und für das Training nicht zu ersetzen.

(tekkix, 05.02.2026): https://tekkix.com/articles/ai/2026/02/how-an-ai-startup-plans-to-scan-and-dispose-o

Auch das noch

KI-Assistent löscht E-Mail-Posteingang

Wer sich die Arbeit erleichtern will, soll KI-Agenten vertrauen. Sie sind effizient, lernfähig und nehmen uns lästige Arbeit ab. Zum Beispiel den gesamten E-Mail-Posteingang.

Bei einer Sicherheitsexpertin hat das großartig funktioniert: Ein KI-Agent, der beim Aufräumen und Organisieren helfen soll, hat kurzerhand Nägel mit Köpfen gemacht – und den kompletten Posteingang geleert. Nicht ein paar Newsletter. Nicht nur Spam. Sondern alles. So geht Arbeitserleichterung.

Technisch ist das kein böswilliger Angriff, sondern eher eine Mischung aus missverstandener Anweisung, zu viel Autonomie und zu viel Vertrauen.

(Golem, 24.02.2026): https://www.golem.de/news/bei-sicherheitsexpertin-ki-agent-leert-unerwartet-ganzen-e-mail-posteingang-2602-205762.html

 

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com