Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter # 24 – April 2026

Liebe Leserinnen und Leser, liebe Kolleginnen und Kollegen, liebe FREELENS Mitglieder,

hier wäre dann der versprochene Teil 2 des KI-Newsletters für den April – wegen Überlänge haben wir ihn in diesem Monat geteilt.
 
Es sind in den letzten Tagen natürlich schon wieder ein paar Meldungen dazugekommen, aber Politik und Recht waren ganz überwiegend im letzten Newsletter, in dieser Ausgabe gibt es mehr »Wahrheit oder Lüge«, »Markt« und auch ein paar Meldungen »Auch das noch«.

Unter der Rubrik »Markt« sind mir ziemlich viele Meldungen ins Netz gegangen, bei denen Agenturen für KI-Trainingsbilder bezahlen möchten. Das Klauen aus dem Netz reicht wohl nicht mehr, es muss zusätzlich auch noch ganz normal lizenziert werden. Offenbar ist unsere Kreativität doch KI-Rohstoff, für den es sich auch zu bezahlen lohnt. Viel ist es freilich nicht.

Viel Spaß beim Lesen!

Marco

P.S.: Feedback gerne an marco.urban@freelens.com

Wahrheit oder Lüge

KI-Fotografie, was soll das sein?

Eine sehr interessante Debatte auf PeatPixel: Konzeptkünstler und Fotograf Joan Fontcuberta in Italien nimmt in einem neuen Buch »Immagini Latenti« Bezug auf die Debatten rund um Boris Eldagsens beim Sony World Photography Awards 2023 eingereichten KI- Bildes »The Electrician« und Miles Astrays Einreichung des Fotos von dem Flamingo ohne Kopf in der KI-Kategorie des »1839 Award« 2024. Fontcuberta bezeichnet KI-generierte Bilder als »Fotografie der zweiten Generation« und schlägt den Begriff »algorithmische Fotografie« vor. 

Nun kann man sich fragen, warum etwas, dass in keiner Weise mit Belichtung zu tun hat, ein Foto sein soll, nur weil es so aussieht. Meine Lieblingsstelle ist die, in der Boris augmentiert: »Nach dieser Logik würde ein fotorealistisches Gemälde zu »Acrylfotografie« werden. Aber wir bezeichnen es weiterhin als Gemälde, denn der Entstehungsprozess ist entscheidend, und es wurde mit Leinwand, Pinseln und Farbe geschaffen.« Boris und Miles widerlegen die Idee des Begriffs »KI-Fotografie« und seiner Spielarten perfekt, es können eigentlich keine Zweifel bleiben. Mir hat das Lesen echt Spaß gemacht.

(PetaPixel, 12.04.2026): https://petapixel.com/2026/04/12/a-necessary-critique-of-fontcubertas-algorithmic-photography/

Wie KI-Schwärme unsere Demokratie unterwandern

Thomas Schwarze beschreibt in seinem Blog auf Substack die Wirkung einer  »unsichtbaren Flotte« von KI Schwärmen. 

»Fake Accounts waren gestern. Was jetzt kommt, sind koordinierte Schwärme aus KI Personas, die Meinungskorridore in Echtzeit erzeugen – und demokratische Debatten von innen aushöhlen.«

Er nimmt dabei Bezug auf eine Analyse, die Katja Muñoz schon Anfang 2025 für die Bundeszentrale für politische Bildung erstellt hat (CC BY-NC-ND 3.0 Lizenz): »Systematische Manipulation sozialer Medien im Zeitalter der KI - Eine wachsende Bedrohung für die demokratische Meinungsbildung«. Sie beschreibt darin, wie Plattform-Schwachstellen, -Algorithmen und KI die gezielte Verbreitung emotionalisierender Beiträge zur kollektiven Manipulation möglich machen und dass sich die koordinierte Streuung von Desinformation in sozialen Medien negativ auf die Demokratie auswirken.

Wesentlich dabei ist die Automatisierung. KI kann große Mengen an scheinbar authentischen Inhalten erzeugen – Texte, Bilder, Videos –, die gezielt auf bestimmte Zielgruppen zugeschnitten sind. Dadurch verschwimmen die Grenzen zwischen echter und künstlicher Kommunikation zunehmend.

Hinzu kommt die gezielte Verstärkung durch Netzwerke aus Bots und koordinierten Accounts. Diese können Narrative künstlich verbreiten und den Eindruck gesellschaftlicher Mehrheiten erzeugen, wo keine sind.

Der Bericht betont außerdem, dass klassische Gegenmaßnahmen – etwa Faktenchecks oder Moderation – an ihre Grenzen stoßen, weil Geschwindigkeit und Masse der Inhalte stark zunehmen.

Fazit: KI macht bestehende Manipulationsstrategien erheblich wirkungsvoller – und stellt damit demokratische Öffentlichkeit vor strukturelle Herausforderungen.

(Thomas Schwarze auf Substack, 11. März 2026): https://thomaspeukertschwarz.substack.com/p/die-unsichtbare-flotte-wie-ki-schwarme

(Bundeszentrale für politische Bildung, 31.01.2025): https://www.bpb.de/shop/zeitschriften/apuz/wahlkampf-2025/558872/systematische-manipulation-sozialer-medien-im-zeitalter-der-ki/

KI in der politischen Kommunikation

Mit Bezug auf den vorhergehenden Artikel muss man allerdings sagen, dass die Politik im Hinblick auf KI und auch auf bildgenerative KI eben diese selber nutzt.

Der Spiegel berichtet über die Nutzung von KI bei allen Parteien und da wird auch gerne mal ein Bild mit KI generiert. Und das betrifft leider nicht nur die »üblichen Verdächtigen« am rechten Rand, die ja schon früh das manipulative Potential von bildgenerativer KI genutzt haben. In der einen oder anderen Form machen das auch andere Parteien. Zu Ostern gab es zum Beispiel eine Unmenge Oster-Memes von unterschiedlichsten CDU-Absender*innen. Kann man machen, das ist ja noch kein Fake. 

Was jedoch gegen die guten Sitten verstoßen sollte, ist ein Video der CDU-Landtagsfraktion Mecklenburg-Vorpommern, in dem künstlich hergestellte Bilder überforderte Lehrkräfte und sorgenvolle Kita-Erzieher*innen zeigen und – spätestens hier hätte jemand »Stop« sagen müssen – Bildungsministerin Oldenburg inmitten von Papiergeldstapeln, wie sie lächelnd 500-Euro-Scheine zählt.

Manchmal kann ich einfach nur noch den Kopf schütteln. 

Der Beitrag ist zur Stunde noch online:

https://www.instagram.com/p/DWYsOyCjXw5/

Der kaum sichtbare Hinweis »KI-generiert« hilft hier nicht wirklich und erst recht nicht, hier authentische Bilder und KI-Bilder zu mischen. 

Im Spiegel-Artikel werden noch ein paar andere Beispiele angeführt – mal mehr, meist weniger witzig. 

Richtige Leitlinien für den Einsatz von KI gibt es offenbar nur bei B90/Grüne. 

Ob sich eine grüne Lokalpolitikerin aus Gießen mit ihrem KI-Fahrradsalto daran gehalten hat, weiß ich nicht: https://www.instagram.com/p/DVUVx53CEH9/

Ich dachte immer, in der Politik ginge es um Glaubwürdigkeit. Fake-Bilder und -Filme sind sicher nicht geeignet, Bürger*innen zu vermitteln, dass ernsthaft und ehrlich Politik für sie gemacht werden soll.  

(Der Spiegel, 05.04.2026): https://www.spiegel.de/politik/deutschland/ki-im-wahlkampf-dieses-video-zeigt-dass-die-politik-dringend-regeln-benoetigt-a-841c71e6-25c7-470c-8933-4855f5062005

Den Bundestagswahlkampf 2025 hat das Forschungsprojekt »CampAIgn Tracker« beobachtet und rund 1000 KI-Beiträge identifiziert, von denen nur 13 Prozent als KI-generiert gekennzeichnet waren. Gut die Hälfte der Beiträge stammte von der AfD, aber auch die großen demokratischen Parteien publizierten KI-Content.

(CampAIgn Tracker): https://www.campaigntracker.de

Labels lösen das Vertrauensproblem nicht

Zu den vorangegangenen Artikeln passt der Beitrag von Paul Melcher im Magazin für Visual Tech »Kaptur«. Melcher stellt die verbreitete Hoffnung infrage, dass Kennzeichnungen (»KI-generiert«) ausreichen, um Vertrauen in Bilder wiederherzustellen.

Die zentrale These: Labels wirken nur auf den ersten Blick wie eine einfache Lösung. In der Praxis sind sie leicht manipulierbar, oft uneinheitlich umgesetzt und für viele Nutzer*innen kaum überprüfbar. Statt Klarheit zu schaffen, können sie sogar neue Unsicherheiten erzeugen – etwa wenn unklar ist, wer ein Label vergeben hat und nach welchen Kriterien.

Dieses Wirrwarr soll ja durch den Code of Practice gelichtet werden, siehe oben.

Laut Kaptur kommt aber ein strukturelles Problem dazu: Vertrauen entsteht nicht allein durch technische Markierungen, sondern durch Kontext, Quellen und institutionelle Glaubwürdigkeit. Ein korrekt gelabeltes Bild kann weiterhin irreführend sein – während ein ungelabeltes Bild durchaus authentisch sein kann.

Der Artikel argumentiert daher, dass die Debatte zu stark auf technische Lösungen fokussiert ist. Notwendig seien stattdessen breitere Ansätze: Medienkompetenz, transparente Produktionsprozesse und verlässliche Absenderstrukturen.

Im Fotorat stimmen wir zu, dass Labels helfen können, aber sie lösen das Grundproblem nicht. Vertrauen ist keine Metadaten-Information. Deshalb plädieren wir dafür, dass KI-generierte Bilder oder Filme gar nicht in den redaktionellen Medien (und natürlich der politischen Kommunikation) genutzt werden. 

(Kaptur, 17.12.2025): https://kaptur.co/why-labels-wont-solve-the-trust-crisis/

Technik

So verhinderst du, dass LinkedIn mit deinen Daten KI trainiert

Plattformen treten ja gerne auch als Betreiber von KI auf, siehe Meta, X und Youtube. Das bietet sich an, weil sie Zugriff auf eine große Menge Trainingsdaten haben – nämlich alles, was dort gepostet wird, egal ob Bild oder Text.

Wer das nicht möchte, muss es mitteilen. Hier ist die Anleitung für LinkedIn. Weitere findet ihr in der FREELENS Wissensdatenbank »Wissen A-Z«

https://netzpolitik.org/2025/opt-out-anleitung-so-verhinderst-du-dass-linkedin-mit-deinen-daten-ki-trainiert/

Wenn KI zur Sicherheitslücke wird

Ein Bericht der NYT über das Modell »Mythos« von Anthropic zeigt, wie grundlegend KI die Cybersicherheit verändern könnte – und zwar in beide Richtungen.

Das System ist offenbar in der Lage, komplexe Software zu analysieren und bislang unentdeckte Schwachstellen zu identifizieren. Damit könnte es Sicherheitslücken schneller finden und schließen helfen. Gleichzeitig wächst aber auch das Risiko: Die gleichen Fähigkeiten lassen sich prinzipiell für Angriffe nutzen – und senken die Einstiegshürden erheblich.

Besonders aufschlussreich sind Berichte die Boldwise aus Testszenarien zitiert: Dort agierte das Modell teilweise überraschend strategisch und autonom. In einem Fall entwickelte es ein Szenario, in dem es einen Konkurrenten wirtschaftlich unter Druck setzte, um Marktpreise zu kontrollieren. In einem anderen gelang es ihm, sich aus einer technisch eingeschränkten Umgebung zu befreien, indem es eigenständig einen mehrstufigen Exploit entwickelte und anschließend verbreitete.

In Tests gelang es dem Modell auch, sich selbst aus einer stark eingeschränkten Umgebung »zu befreien«, indem es Schritt für Schritt eine passende Angriffsmethode entwickelte. Anschließend machte es sogar öffentlich, wie dieser Ausbruch funktioniert hat. Berichte deuten außerdem darauf hin, dass die KI dabei nicht nur Befehle ausführt, sondern eigenständig strategisch vorgeht – teilweise auf eine Weise, die für die Entwickler*innen so nicht vorhersehbar war.

Solche Beispiele zeigen, in welche Richtung sich die Fähigkeiten entwickeln könnten.

Anthropic selbst zieht daraus vorerst die Konsequenz, das Modell nicht frei zugänglich zu machen. Stattdessen soll es kontrolliert eingesetzt werden – etwa zur Verbesserung von Sicherheitsinfrastrukturen.

Der eigentliche Befund bleibt: KI wird nicht nur zum Werkzeug der Verteidigung, sondern potenziell auch zur Infrastruktur des Angriffs. Die entscheidende Frage ist nicht mehr, ob das passiert – sondern, wer schneller ist.

(New York Times, 07.04.2026): https://www.nytimes.com/2026/04/07/technology/anthropic-claims-its-new-ai-model-mythos-is-a-cybersecurity-reckoning.html

(IT-Boltwise, 09.04.2026): https://www.it-boltwise.de/anthropics-neues-ki-modell-zeigt-unerwartete-faehigkeiten.html

(Anthropic Alignment Risk Update: Claude Mythos Preview. 07.04.2026): https://www-cdn.anthropic.com/79c2d46d997783b9d2fb3241de43218158e5f25c.pdf

Im Zusammenhang mit den beschriebenen Risiken setzt Anthropic auf ein kontrolliertes Gegenmodell: Mit »Project Glasswing« sollen besonders leistungsfähige KI-Systeme gezielt für die Cybersicherheit eingesetzt werden – allerdings nicht öffentlich, sondern nur für ausgewählte Partner*innen.

Die Idee: Wenn KI in der Lage ist, Sicherheitslücken schneller zu finden und sogar Angriffe zu entwickeln, dann sollten diese Fähigkeiten zunächst den Verteidiger*innen zur Verfügung stehen. Unternehmen und Organisationen können die Modelle nutzen, um ihre Systeme gezielt zu testen und Schwachstellen zu schließen, bevor sie ausgenutzt werden.

Glasswing ist damit auch ein Eingeständnis: Die nächste Generation von KI ist so leistungsfähig, dass sie nicht einfach frei verfügbar gemacht werden kann – ohne erhebliche Risiken.

(Anthropic): https://www.anthropic.com/glasswing

Podcast

»Haben Medien im Kampf gegen KI-Fakes schon verloren?«

… oder wie können sich Redaktionen gegen diese Gefahr wappnen? Darüber spricht Holger Klein von ÜBERMEDIEN mit Anika Gruner. Ihr Start-up hat eine Software entwickelt, die Redaktionen dabei helfen soll, KI-manipulierte und KI-generierte Fotos und Videos zu erkennen. Das Team unterstützte auch den Spiegel bei der (verspäteten) Identifizierung der KI-Fakes aus Iran.

Es geht hier auch um KI-Tools, die zwar nur das Foto verschönern, aber es trotzdem zu einem mit KI bearbeiteten Bild machen. Es ist also für die seriöse redaktionelle Verwendung diskreditiert, weil sich nicht ohne weiteres feststellen lässt, ob das Bild nur aufgehübscht wurde oder ob es inhaltlich manipuliert wurde.

(Übermedien, 20.03.2026): https://uebermedien.de/115358/haben-medien-im-kampf-gegen-ki-fakes-schon-verloren/

Markt

Über den wirtschaftlichen Nutzen kommerzieller Bildproduktion

Zweiter Beitrag von Paul Melcher: Er richtet den Blick auf einen blinden Fleck in der aktuellen KI-Debatte: den tatsächlichen wirtschaftlichen Nutzen im Bereich kommerzieller Bildproduktion.

Die zentrale These: Zwar wird generative KI vor allem mit Kosteneffizienz begründet, belastbare Nachweise für einen positiven Return on Investment fehlen jedoch weitgehend. Einsparungen bei Produktion und Shooting stehen selten klar messbaren Effekten auf Performance, Markenwirkung oder Conversion gegenüber.

Der Artikel argumentiert, dass Unternehmen derzeit vor allem auf kurzfristige Kostenvorteile schauen, ohne systematisch zu prüfen, ob KI-generierte Bilder tatsächlich gleichwertig oder wirksamer sind als klassische Produktionen. Gerade in der Werbung, wo Bildqualität eng mit Markenwahrnehmung verknüpft ist, könne das zu verdeckten langfristigen Kosten führen.

So tragen hochwertige, konsistente Bildwelten dazu bei, dass eine Marke als glaubwürdig, professionell oder begehrenswert wahrgenommen wird. Wenn KI-generierte Bilder zwar »gut genug«, aber subtil generisch oder inkonsistent sind, kann das diese Wahrnehmung langsam erodieren.

Das Problem: Dieser Effekt zeigt sich nicht sofort. Er äußert sich eher in schleichendem Vertrauensverlust oder geringerer Differenzierung gegenüber Wettbewerber*innen.

Viele generative Bilder tendieren zu einer gewissen visuellen Standardisierung. Wenn mehrere Marken ähnliche KI-Ästhetiken nutzen, wird es schwieriger, eine eigene visuelle Identität aufzubauen.

Langfristig kann das bedeuten: höhere Kosten für Branding, weil man sich stärker anstrengen muss, überhaupt wieder unterscheidbar zu werden. Kurzfristige Performance geht also vor langfristigem Markenwert.

Weitere Probleme sind fehlende kreative Tiefe und das Risiko von Inkonsistenzen und Fehlern.

Fazit: KI wird als Effizienzgewinn verkauft, ohne dass ihr tatsächlicher ökonomischer Beitrag ausreichend belegt ist. Oder anders gesagt: Die Kosten sind klar – der Nutzen bleibt oft eine Annahme.

(Kaptur) https://kaptur.co/the-roi-blind-spot-ai-in-commercial-imagery-is-all-cost-and-no-proof/

KI als Beschäftigungsrisiko

Forscher*innen der Tufts University haben den American AI Jobs Risk Index veröffentlicht. Damit wollen sie aufzeigen, welche Berufe am stärksten von KI bedroht sind – und in welchen Regionen in den USA diese Auswirkungen voraussichtlich am stärksten zu spüren sein werden.

Sie schreiben in der Zusammenfassung: 

»Eine der wichtigsten Fragen im Zusammenhang mit den Auswirkungen künstlicher Intelligenz (KI) betrifft deren Einfluss auf Arbeitsplätze und damit auf die Einkommen in verschiedenen Berufen, Branchen und lokalen Volkswirtschaften. Die durch KI bedingte Gefährdung von Arbeitsplätzen ist zwar ungleichmäßig verteilt, aber dennoch erheblich. Auch wenn sich die Technologie weiter entwickelt – mit Durchbrüchen ebenso wie Rückschlägen – und sich Unternehmen und Arbeitnehmer in Echtzeit anpassen, zeichnen sich die groben Umrisse der sich abzeichnenden geografischen Verteilung des durch KI bedingten Beschäftigungsrisikos in den USA immer deutlicher ab.

Mit dem Ziel, einen umfassenden Überblick über die Auswirkungen von KI auf Arbeitsplätze, Einkommen und Volkswirtschaften in den gesamten USA zu bieten, stellen wir den American AI Jobs Risk Index vor, der Berufe, Branchen, Regionen und Bundesstaaten nach ihrer Gefährdung einstuft, basierend auf dem aktuellsten Stand des Wissens über die sich entwickelnden Auswirkungen von KI. Der Index wird aktualisiert, sobald neue Informationen vorliegen, sowohl aufgrund der Weiterentwicklung der KI-Fähigkeiten als auch hinsichtlich ihrer Integration in die Zukunft der Arbeit.«

Bei Fotograf*innen wird das Risiko des Arbeitsplatzverlusts durch KI als eher gering (5%) eingestuft. Es wird allerdings nicht zwischen den unterschiedlichen Arten der Fotografie unterschieden. Bei Grafikdesigner*innen ist das Risiko mit 21% deutlich höher. Schriftsteller*innen und Autor*innen sind mit 57% die am meisten gefährdete Berufsgruppe.

Ich glaube nicht, dass das so stimmt.

(Tufts University, März 2026): https://digitalplanet.tufts.edu/ai-and-the-emerging-geography-of-american-job-risk-page/

(Futurism, 27.03.2026): https://futurism.com/artificial-intelligence/jobs-brain-ai-tufts-report

Ein anderer Bericht aus Großbritannien gibt die Ergebnisse einer Umfrage unter Kreativen wieder:

  • 86 % der Autor*innen gaben an, dass sie Einkommensverluste durch KI erlitten haben,
  • 32 % der Illustrator*innen hatten Aufträge verloren, da Kund*innen auf KI umstiegen,
  • 73 % der Musiker*innen sahen ihre Existenzgrundlage durch KI bedroht,
  • 65 % der Darsteller*innen und 93 % der Synchronsprecher*innen betrachteten KI als Bedrohung,
  • 58 % der Fotograf*innen gaben an, dass sie Aufträge an KI verloren hätten.

Dafür, dass wir am Anfang einer Entwicklung stehen, finde ich das sehr viel.

(Society of Authors): https://societyofauthors.org/download/brave-new-world-justice-for-creators

 

Meta macht einen Deal mit News Corp

Es geschehen noch Zeichen und Wunder: Meta greift tief in die Tasche und überweist der von Rupert Murdoch gegründeten News Corp (The Sun, The Times, Wall Street Journal, 20th Century Fox ufm.) einen Millionenbetrag. Der Anlass? Inhalte, die man sich zuvor gerne auch ohne größere Förmlichkeiten einfach für das KI-Training genommen hat, werden nun plötzlich als wertvoll erkannt – zumindest, wenn es um das Training von KI geht.

Der Deal umfasst den Zugriff auf journalistische Inhalte, also genau jene Art von professionell erstellten Inhalten, deren wirtschaftliche Grundlage im digitalen Werbeökosystem über Jahre hinweg systematisch zerstört wurde.

Bemerkenswert ist dabei weniger die Summe als die späte Einsicht: Hochwertiger Journalismus fällt nicht vom Himmel, sondern kostet Geld. Eine Erkenntnis, die sich im KI-Zeitalter offenbar schwerer ignorieren lässt als noch im Plattformzeitalter davor.

Es bleiben trotzdem Fragen: Können die Verluste, die traditionelle Verlagshäuser durch die Substituierung von KI-Unternehmen und Plattformen haben, so ausreichend kompensiert werden? Wie sieht es mit kleineren Verlagen und natürlich selbständigen Kreativen aus? Wir hier auch weiterhin einfach abgegriffen? 

Immerhin: Lizenzmodelle im Opt-in-Verfahren sind möglich. Was hier machbar ist, muss auch an anderer Stelle möglich sein. Wichtig ist aber auch: »Keine Lizenzierung ohne Zustimmung«.

(The Decoder, 04.03.2026): https://the-decoder.de/meta-schliesst-millionen-deal-mit-news-corp-fuer-ki-training-und-inhalte/

Dänemark schafft erweiterte kollektive Lizenz für KI-Training

Dänemark wird als erstes europäisches Land eine erweiterte kollektive Lizenz (Extended Collective Licence, ECL) für Text- und Data-Mining sowie KI-Anwendungen genehmigen.

Grundlage ist die in diesem Newsletter häufig beschriebene und beklagte EU-Richtlinie zum digitalen Binnenmarkt, nach der Text- und Data-Mining grundsätzlich erlaubt ist, solange Rechteinhaber*innen nicht widersprechen (Opt-out). 

Wichtige Rechteinhaber *innenhaben dieses Opt-out genutzt, wodurch KI-Anbieter Inhalte nicht mehr legal nutzen dürfen. 

Die nun eingeführte kollektive Lizenz ermöglicht es der dänischen Schwester der VG Bild-Kunst, Nutzungsrechte gebündelt zu vergeben – auch für Rechteinhaber*innen, die nicht Mitglied sind, solange sie nicht widersprechen. Die Nutzung wird damit vertraglich geregelt und vergütet. Zunächst ist das Modell auf literarische Werke und interne Nutzungen, etwa im Bildungsbereich, beschränkt.

Entscheidend ist das Zusammenspiel von gesetzlicher Ausnahme und Lizenz: Ohne Opt-out bleibt die Nutzung frei und unbezahlt, mit kollektiver Lizenz wird sie vergütet, und bei vollständigem Opt-out kann sie ganz untersagt werden. Rechteinhaber*innen können so strategisch zwischen verschiedenen Verwertungsformen wählen, haben aber in jedem Fall den Aufwand.

Wie diese Opt-Outs wirkungsvoll ausgesprochen werden können, steht leider nicht in dem Artikel. Bei einem Workshop der VG Bild-Kunst haben sich viele Teilnehmer*innen ja eher gegen eine ECL ausgesprochen und auch die VG selbst sieht Probleme in der Umsetzung.

(Europäische Audiovisuelle Informationsstelle, 01.03.2026): https://merlin.obs.coe.int/article/10505

Werde KI-Trainer! – Teil 1

Ein Beitrag bei PetaPixel berichtet über die Firma »Ronia Raw Photo Collection«, die beim Training ihrer Modelle bewusst auf lizenzierte Bilddaten setzt – und Fotograf*innen dafür bezahlen will. Der Ansatz ist nicht neu (Bildagenturen lizenzieren ja auch bereits Bilder für das KI-training), aber bemerkenswert, weil er sich explizit gegen die in der Branche etablierte Praxis positioniert, große Bildmengen ungefragt zu nutzen und rechtliche Fragen im Zweifel später zu klären.

Kern des Modells ist ein Marktplatzprinzip: Kreative stellen ihre Bilder gezielt für das KI-Training zur Verfügung und erhalten dafür eine Vergütung. Damit entsteht zumindest theoretisch eine transparentere Wertschöpfungskette, in der Bildproduktion nicht nur Rohstoff ist, sondern Teil eines vertraglich geregelten Systems.

Interessant ist weniger die Idee als ihre ökonomische Tragfähigkeit. Solange Wettbewerber*innen weiterhin auf frei verfügbare oder rechtlich graue Datenquellen zurückgreifen, bleibt offen, ob sich ein kostenpflichtiger Ansatz durchsetzen kann – oder ob er am Ende nur eine Nische für besonders regulierungssensible Anwendungen bleibt.

Für Fotograf*innen signalisiert das Modell immerhin eine mögliche Verschiebung: weg vom reinen Kontrollverlust, hin zu einer (wenn auch vermutlich begrenzten) Beteiligung an der KI-Wertschöpfung. 

Ach ja, die Konditionen: »Sie erhalten 1,50 USD pro akzeptiertem Foto. Die Teilnehmer können in allen offenen Kategorien so viele Fotos einreichen, wie sie möchten. Bitte beachten Sie, dass für einige Kategorien Einreichungsbeschränkungen gelten und dass eine Kategorie geschlossen wird, sobald sie gefüllt ist. Die Einreichungen werden in der Reihenfolge ihres Eingangs berücksichtigt.« – Stockfotograf*innen können beurteilen, ob das konkurrenzfähig zur klassischen Stockfotografie ist. Offensichtlich ist es so, dass man hier nicht einfach eine volle Speicherkarte hochladen kann.

Ähnliches wurde von einem Kollegen über Adobe Stock berichtet: Auch von dort kommen Anfragen zur Produktion von Fotografien für das KI-Training. 

(18.02.2026, Petapixel): https://petapixel.com/2026/02/18/this-ai-company-wants-to-pay-you-for-your-photos/

Werde KI-Trainer! – Teil 2

Und noch ein Angebot, Bilder doch für KI-Training zu lizenzieren: Wirestock, eine Plattform, die Bilder und Videos automatisch an verschiedene Stock-Marktplätze (z.B. Adobe Stock oder Shutterstock) verteilt und dabei auch Verschlagwortung, Beschreibung und teilweise technische Aufbereitung übernimmt, bietet ebenfalls an, Bilder für KI-Training zu vermarkten. 

Der Ansatz ist dabei bewusst niedrigschwellig. Inhalte können zentral hochgeladen und über verschiedene Marktplätze distribuiert werden – inklusive Optionen, sie für KI-Datensätze freizugeben. Wirestock übernimmt dabei einen Teil der Vermarktung und Abwicklung. Allerdings bleibt auch hier die bekannte Frage nach der tatsächlichen Wertschöpfung: Wie hoch die Einnahmen aus KI-Nutzungen sind, wie transparent die Verwertung erfolgt und welche Kontrolle Urheber*innen langfristig behalten, ist auf der Website nicht beschrieben.

Klar ist: Je mehr Zwischenhändler*innen, desto weniger bleibt für die Produzent*innen. 

https://wirestock.io/creators

Bei allen drei Angeboten ist klar: Es gibt Peanuts für die Ersteller*innen der Trainingswerke, das Geld wird von den großen Anbietern der KI-Apps verdient. Die Kreativen sind hier nur noch Rohstofflieferant*innen und haben entsprechend wenig Marktmacht. 

Wenn hier eine weitere Möglichkeit zur Zweitverwertung für hochwertigen Content angeboten wird, muss klar sein, dass damit der Markt für die »Erstverwertung«, also die Auftragsproduktion, systematisch vernichtet wird.

Weiter gibt es keine Begründung.

OpenAI stellt SORA ein

Sie wurde als Sensation gehandelt, KI-Videos wurden in hoher Qualität per Sprachbefehl erzeugt und man konnte selbst Protagonist*in des eigenen Videos sein.

Nun hat Sam Altman die App vom Markt genommen. »We’re saying goodbye to the Sora app.« teilt das Entwicklerteam auf X mit.

(Der Spiegel, 25.03.2026): https://www.spiegel.de/netzwelt/openai-ki-video-app-sora-wird-ueberraschend-eingestellt-a-eacb57b8-0b84-4c06-ac41-2ec1ab5c001c

Paul Melcher, mein Lieblings-Autor in dieser Ausgabe, titelt auf Kaptur allerdings: »Sora: A Solution Without a Problem.« Und das trifft es wohl: Sora war ein nettes Spielzeug und alle haben sich amüsiert – mehr aber auch nicht.

Die These des Autors: Sora ist zweifellos technisch beeindruckend, adressiert aber kein klar umrissenes praktisches Bedürfnis. Statt bestehende Produktionsprozesse gezielt zu verbessern, erzeugt die Technologie vor allem neue Möglichkeiten – ohne dass deren konkreter Nutzen im Alltag bereits erkennbar wäre.

Besonders kritisch sieht der Artikel die Verschiebung von kreativer Arbeit hin zu generativer Produktion ohne klare Anwendungsszenarien. Die Gefahr bestehe darin, dass Technologie zum Selbstzweck wird: Man kann es tun, also tut man es – unabhängig davon, ob es tatsächlich einen Mehrwert gibt.

Zugleich verweist der Autor auf die bekannten Begleitprobleme: ungeklärte Trainingsdaten, rechtliche Unsicherheiten und eine potenzielle Entwertung bestehender kreativer Arbeit. All das verstärkt den Eindruck, dass hier eine Lösung entwickelt wird, bevor das Problem wirklich definiert ist.

Recht hat er.

(Kaptur, 01.04.2026): https://kaptur.co/sora-a-solution-without-a-problem/

OpenAI 800 Milliarden US$ wert?

Anthropic, die KI-Firma, die den ChatGPT-Konkurrenten »Claude« anbietet, könnte laut einem Bericht von Business Insider mit bis zu 800 Milliarden US-Dollar bewertet werden - zumindest, wenn aktuelle Investorenangebote zustande kommen. 
Zur Einordnung: Die Staatseinnahmen von Brasilien betragen 830 Milliarden US-Dollar, die von Deutschland nicht ganz 2 Billionen US-Dollar. 

Damit würde der Entwickler des Modells Claude in eine Größenordnung vorstoßen, die bislang eher Tech-Giganten vorbehalten war, obwohl die Umsätze deutlich geringer sind und Profitabilität noch lange nicht erreicht ist. 

Die Bewertung zeigt, wie stark der Wettbewerb im KI-Markt an Dynamik gewinnt: Investor*innen setzen zunehmend auf wenige große Player und treiben deren Bewertungen in immer neue Höhen. Neben OpenAI und Google positioniert sich Anthropic damit als einer der zentralen Akteure im Rennen um die nächste Generation von KI-Systemen. Funktionierende Geschäftsmodelle sind aber vielfach noch nicht in Sicht. 

(Business Insider, 15.04.2026): https://www.businessinsider.com/anthropic-with-offers-to-invest-at-up-to-800-billion-2026-4

Technik

Kamerahersteller gegen GenKI in der Kamera

Ein Bericht bei PetaPixel zeichnet ein selten geschlossenes Bild: Nahezu alle großen Kamerahersteller sprechen sich gegen den Einsatz generativer KI in der Fotografie aus, wenn es um die direkte Bildentstehung geht.

Der Konsens: Fotografie soll auf realen Aufnahmen basieren, nicht auf synthetisch erzeugten Inhalten. Generative KI wird damit klar von klassischen, bereits etablierten computergestützten Funktionen abgegrenzt – etwa Autofokus, Rauschreduktion oder Bildoptimierung, die weiterhin als legitime Hilfsmittel gelten.

Die Position ist dabei nicht nur technisch motiviert, sondern auch strategisch. Kameramarken verteidigen damit ihr zentrales Versprechen: die Abbildung von Wirklichkeit. Würde dieses Fundament aufgeweicht, stünde auch die eigene Produktkategorie zur Disposition.

(Petapixel, 26.03.2026): https://petapixel.com/2026/03/26/every-camera-brand-agrees-generative-ai-doesnt-belong-in-photography/

Neuer Chip-Prototyp signiert Bilder fälschungssicher direkt im Sensor

Photografix berichtet über den Prototyp eines Kamera-Chips, den die ETH Zürich vorgestellt hat: Er soll Bilder bereits bei der Aufnahme kryptografisch signieren. Ziel ist es, die Authentizität von Fotos technisch abzusichern – Manipulationen wären dadurch nachträglich erkennbar.

Die Signatur wird direkt im Sensor erzeugt und ist fest mit den Bilddaten verknüpft. Damit ließe sich nachvollziehen, ob ein Foto unverändert ist oder bearbeitet wurde. Gerade im Kontext von KI-generierten Bildern und Deepfakes könnte das ein wichtiger Baustein für mehr Vertrauen in visuelle Inhalte sein. Die Signaturen sollen in einem öffentlichen, unveränderbaren Register gespeichert werden. Plattformen oder Verifizierungstools könnten beim Upload automatisch prüfen, ob die Signatur einer Datei mit dem Register übereinstimmt.

Grundsätzlich ist der Ansatz natürlich richtig, aber es stellt sich, wie auch bei anderen, ähnlichen Ansätzen – C2PA oder Liccium – die Frage, welche Kosten entstehen. An der Entwicklung von C2PA wirken führende Kamerahersteller und Adobe mit, es gibt aber bislang weniger Kameras, die am Beginn einer solchen durchgängigen Beweiskette stehen könnten. Bei dem Chip der ETH Zürich entsteht die Signatur allerdings nicht auf der Software-Ebene, sondern direkt im Sensor. In Verbindung mit einem zentralen Register wäre das ein sehr robustes Verfahren.

(Photografix, 31.03.2026): https://www.photografix-magazin.de/neuer-chip-prototyp-signiert-bilder-faelschungssicher-direkt-im-sensor/

Auch das noch

Papst ermahnt Priester: Keine Predigten von ChatGPT

64 % der Geistlichen nutzen bereits KI – doch für den Papst ist das kein Fortschritt, sondern eine Gefahr. Er warnt vor »spiritueller Trägheit«.

Für die Priester bedeutet die päpstliche Mahnung, dass die Predigtvorbereitung wieder als Teil des eigenen geistlichen Lebens verstanden werden muss – auch, um das Vertrauen in kirchliche Botschaften nicht zu untergraben.

(Heute Life, 19.03.2026): https://www.heute.at/s/papst-ermahnt-priester-keine-predigten-von-chatgpt-120171882

Chefredakteur als Avatar – oder Avatar als Chefredakteur?

Die Fränkischen Nachrichten experimentieren mit einem KI-Avatar ihres Chefredakteurs Dominik Greulich. Künftig präsentiert also nicht mehr nur Text die redaktionelle Linie, sondern ein digitaler Doppelgänger, der Beiträge auch visuell »vorträgt«.

Technisch basiert das Projekt auf gängigen KI-Avatar- und Sprachsynthese-Tools. Inhaltlich bleibt Greulich zwar der Absender – die Worte stammen weiterhin aus der Redaktion –, doch die Darreichungsform wird automatisiert und skalierbar.

Das Ziel: mehr Nähe zum Publikum, höhere Reichweite und ein moderner Auftritt in sozialen Medien. Der Chefredakteur als wiederverwendbares Format – jederzeit abrufbar, ohne Terminkalender und Kameraaufbau.

Ganz neu ist die Idee nicht, wohl aber die Konsequenz: Journalistische Persönlichkeit wird zur synthetischen Oberfläche. Die Frage ist weniger, ob das funktioniert, sondern was es langfristig mit Glaubwürdigkeit und Authentizität macht – wenn selbst der Chefredakteur nur noch als Render-Datei erscheint.

(Kress, 24.03.2026): https://kress.de/news/beitrag/152422-fraenkische-nachrichten-setzen-auf-ki-avatar-von-chefredakteur-greulich.html

Harper's BAZAAR für mehr Natürlichkeit

Antonia Wille spricht sich in einem Artikel bei Harper´s BAZAAR für echte Bilder aus. Sie beschreibt einen bemerkenswerten Stimmungswandel in der Fotografie: Nachdem KI-generierte Perfektion und hyperrealistische Bildwelten zunehmend den visuellen Alltag prägen, wächst parallel die Sehnsucht nach »echten«, ungeschönten Bildern.

Wie schön, denke ich mir, das ist eigentlich genau das, was ich hören möchte. Bis mir auffällt, dass es bei dem Artikel eigentlich darum geht, die Kamera eines Smartphones zu bewerben. Echte Artikel wären auch schöner als versteckte Werbung.

(Harper's BAZAAR, 23.03.2026): https://www.harpersbazaar.de/zeitgeist/natuerlichkeit-bilder-fotografie

Mark Zuckerberg klont sich selbst

Meta arbeitet offenbar daran, eine KI-Version von Mark Zuckerberg zu entwickeln - gewissermaßen ein digitaler Doppelgänger des CEOs. Die Idee: Der virtuelle Zuckerberg soll in Zukunft Aufgaben wie Kommunikation, Präsentationen oder vielleicht sogar strategische Erklärstücke übernehmen.
Das Projekt passt in Metas größere KI-Offensive, wirkt aber auch ein wenig wie die konsequente Fortsetzung der Plattformlogik: Wenn schon soziale Interaktion skalierbar ist, warum nicht gleich die eigene Chefetage mitklonen?
Ganz geklärt ist allerdings noch nicht, wie groß der praktische Nutzen eines KI-Zuckerbergs wirklich wäre und ob Nutzer*innen den echten vom synthetischen Pendant unterscheiden wollen oder überhaupt müssen. Sicher ist nur: Die Grenze zwischen Person, Marke und Produkt wird damit ein weiteres Stück verwischt.
Das nächste Angebot ist dann vielleicht ein KI-Bot für die Nutzer*innen, der dann mit dem virtuellen Zuckerberg kommunizieren kann. Ich hätte dazu nämlich keine Lust. 

(Heise, 14.04.2026): https://www.heise.de/news/Meta-entwickelt-KI-Version-von-Mark-Zuckerberg-11255709.html

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com