Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI Newsletter #21 – Februar 2026

Liebe Leserinnen und Leser, liebe FREELENS-Mitglieder,

hier ist der FREELENS-KI-Newsletter für den Februar.

Aus der aktuellen Arbeit auf politischer Ebene kann ich berichten: Die KI-Taskforce der AG Fortschritt mit Dr. Jürgen Scriba als Leiter, Alexandra Lechner vom bff sowie Dagmar Schwelle und mir aus dem FREELENS-Vorstand hat Verstärkung durch Christoph Brill vom DJV bekommen – was uns sehr freut.

In den vergangenen Wochen haben wir uns intensiv mit dem Fragebogen zum ersten Entwurf des Kapitels »Transparency« des Code of Practice für den AI Act beschäftigt. Der Leitfaden soll festlegen, wie Bilder, Texte und Videos technisch als künstlich erzeugt oder verändert erkennbar gemacht werden können. Dieser Punkt wird maßgeblich beeinflussen, wie Authentizität, Urheberschaft und Vertrauen in Fotografien künftig wahrgenommen werden.

Wir unterstützen das Ziel, mehr Transparenz zu schaffen. Gleichzeitig fordern wir, dass die Verantwortung klar bei den Anbietenden von KI-Systemen und bei großen Plattformen liegt – und nicht allein bei einzelnen Fotograf*innen, die im Entwurf als »Deployers« (Anwender) gelten, sobald sie KI nutzen. Kreative dürfen nicht mit umfangreichen Nachweispflichten (ähnlich der DSGVO) belastet werden, die sie in der Praxis kaum erfüllen können. Für die finale Kennzeichnung können letztlich nur diejenigen verantwortlich sein, die unsere Bilder veröffentlichen.

Wichtig ist außerdem, dass technische Standards offen und kostenfrei nutzbar sind. Der Transparenznachweis darf kein privater Service einzelner Unternehmen wie z. B. Adobe werden. Ebenso sollte es möglich sein, echte, von Menschen geschaffene Fotografien klarer als solche erkennbar zu machen, um Vertrauen in professionelle und authentische Fotografie zu stärken.

Bei der Kennzeichnung von Deepfakes ist eine klare Differenzierung notwendig. Übliche Bildbearbeitung, wie sie seit Jahrzehnten in der Fotografie – auch ohne KI – eingesetzt wird, darf nicht pauschal als problematische Manipulation behandelt werden. Die Vorsitzenden der Arbeitsgruppe zur Transparenz gehen hier recht weit: Die Definition eines Deepfakes umfasst bei Fotografien auch »das Modifizieren von Gesichtern«. Das würde also selbst übliche Beauty-Retuschen von Porträts einschließen – sofern sie mit KI durchgeführt werden.

Entscheidend ist für uns außerdem der Kontext: Insbesondere im Journalismus gelten andere Maßstäbe als in der Werbung oder in der künstlerischen Arbeit.

Immerhin haben wir mit unseren zahlreichen und umfangreichen Eingaben für Aufmerksamkeit gesorgt. Dr. Jürgen Scriba, der für uns auch an diversen Meetings teilnimmt und nicht müde wird, sich zu Wort zu melden, hat die Zusage für ein Treffen im sehr kleinen Kreis mit den Vorsitzenden einer Arbeitsgruppe erhalten, die den Leitfaden erarbeitet. Das hilft hoffentlich dabei, unseren Standpunkt noch einmal sehr deutlich zu machen.

Darüber hinaus haben wir eine FREELENS-Stellungnahme zu dem Bericht »Angemessene Vergütung insbesondere im Bereich Streaming und Plattformökonomie / Reform des Vergütungssystems für gesetzlich erlaubte Nutzungen im Urheberrecht« beim Bundesministerium für Justiz und Verbraucherschutz abgegeben, in dem es auch um KI-Vergütungen ging. Zudem arbeiten wir an der Beantwortung eines weiteren Fragebogens der Bund-Länder-Arbeitsgruppe »KI und Urheberrecht«.

So erfreulich es ist, dass wir von all diesen Institutionen angefragt werden, so sehr würde ich mir wünschen, dass unsere bereits vorliegenden Stellungnahmen auch einmal gelesen würden.

Aber man darf ja nicht zu viel erwarten … 

Im Folgenden nun, was ich in den letzten Wochen an interessanten Nachrichten zum Thema gefunden habe.

Allerbeste Grüße und viel Spaß beim Lesen

Marco



PS: Wenn ihr den Newsletter weiterempfehlen möchtet, teilt gern diesen Link:
flow.cleverreach.com/fl/b595e438-718b-49c6-9f28-5dbaea64de97/

Politik

EU-Parlament verabschiedet Voss-Bericht zu KI und Kreativwirtschaft

Das Europäische Parlament hat den sogenannten Voss-Bericht zur kulturellen und kreativen Dimension von Künstlicher Intelligenz verabschiedet. Der Bericht, initiiert von Axel Voss, MdEP, setzt ein deutliches politisches Signal: Die Entwicklung von KI darf nicht zulasten von Urheber*innen, Künstler*innen und der kulturellen Vielfalt gehen.

Wie die Initiative Urheberrecht berichtet, fordert das Parlament unter anderem mehr Transparenz beim KI-Training, eine klare Vergütungspflicht bei der Nutzung geschützter Werke sowie wirksame Durchsetzungsmechanismen für Rechteinhaber. Besonders betont wird, dass das bestehende Urheberrecht auch im KI-Zeitalter gilt – und nicht durch technische Argumente ausgehöhlt werden darf.

Der Bericht spricht sich zudem gegen pauschale Schrankenregelungen aus und fordert stattdessen lizenzbasierte Modelle. Rechteinhaber sollen entscheiden können, ob und zu welchen Bedingungen ihre Werke für KI-Zwecke genutzt werden. Auch die Rolle der kollektiven Rechtewahrnehmung wird ausdrücklich gestärkt.

Rechtlich bindend ist der Bericht nicht, politisch jedoch hoch relevant: Er markiert die Position des Europäischen Parlaments für kommende Gesetzgebungs-, Evaluierungs- und Verhandlungsprozesse – etwa bei der Weiterentwicklung des AI Acts oder der Evaluierung der EU-Urheberrechtsrichtlinie.

Der Voss-Bericht ist kein Durchbruch, aber ein wichtiges Gegengewicht zum Narrativ der KI-Industrie. Er macht deutlich: Die Debatte ist nicht entschieden – und die Interessen von Urheber*innen sind auf europäischer Ebene weiterhin politisch anschlussfähig. Allerdings liegt das Initiativrecht für Gesetzgebung auf EU-Ebene bei der Europäischen Kommission – nicht beim Parlament.

(urheber.info, 28.01.2026): urheber.info/diskurs/voss-bericht-verabschiedet

Guter erster Kommentar von der europäischen Autorenvertretung GESAC:
authorsocieties.eu/press-release-european-parliaments-committee-calls-for-legislative-intervention-to-protect-authors-rights-across-the-generative-ai-value-chain/

Die Pressemitteilung des JURI-Ausschusses findet Ihr hier:
www.europarl.europa.eu/news/de/press-room/20260126IPR32636/protect-copyrighted-work-used-by-generative-ai-say-legal-affairs-meps

Omnibus wird ausgebremst

Das Europäische Parlament hat Pläne der Europäischen Kommission ausgebremst, zentrale Digitalgesetze im Rahmen des sogenannten »Digitalen Omnibus« abzuschwächen. Nach Berichten von heise online stellten sich Abgeordnete gegen Vorhaben, Pflichten aus dem EU AI Act und verwandten Daten- und Plattformgesetzen zu lockern oder zeitlich zu strecken.

Kritikpunkt: Unter dem Etikett »Entbürokratisierung« sollten Transparenz-, Dokumentations- und Durchsetzungspflichten für KI-Anbieter verwässert werden. Das Parlament machte deutlich, dass Wettbewerbsfähigkeit nicht auf Kosten von Grundrechten, Verbraucherschutz und Urheberinteressen gehen dürfe. Insbesondere bei Trainings-Transparenz, Risikoeinstufung und Aufsicht zogen die Abgeordneten rote Linien.

Der Vorgang markiert eine politische Gegenbewegung: Während Teile der Kommission Erleichterungen für Unternehmen anstreben, beharrt das Parlament auf der Substanz der erst kürzlich beschlossenen Regeln. Die Debatte ist damit nicht entschieden, aber vorerst vertagt – zugunsten stabiler Leitplanken.

Die Entscheidung ist ein wichtiges Signal. Ohne verbindliche Transparenz- und Durchsetzungsmechanismen bleiben Rechte theoretisch. Dass das Parlament hier bremst, stärkt die Position von Urheber*innen und Medien gegenüber Plattformen und KI-Anbieten.

(heise online, 27.01.2026): https:/www.heise.de/news/Digitaler-Omnibus-Europa-Parlament-bremst-Kommissionsplaene-fuer-Daten-und-KI-11156161.html?wt_mc=nl.red.ho.ho-nl-ki-update.2026-01-28.ansprache.ansprache

 

Behörden kämpfen mit KI-Verordnung

Die Umsetzung der EU-KI-Verordnung stellt deutsche Behörden weiterhin vor erhebliche Herausforderungen. Die Vorschriften zur Risikobewertung, Dokumentation und Marktüberwachung sind komplex, die Zuständigkeiten zwischen Bund, Ländern und Aufsichtsbehörden teilweise unklar – etwa bei der Frage, wer in Deutschland die Aufsicht über bestimmte KI-Systeme ausüben soll. Dadurch verzögern sich Implementierungsprozesse und konkrete Anwendungen.

Gleichzeitig setzt die Berliner Verwaltung KI bereits aktiv ein, um interne Prozesse zu modernisieren und Verwaltungsabläufe zu verbessern. Die Senatskanzlei Berlin hat Ende 2025 mit »BärGPT« den ersten landeseigenen KI-Assistenten eingeführt, der Beschäftigte bei Routineaufgaben wie Textentwürfen, Übersetzungen oder der Dokumentenauswertung unterstützen soll. Der Open-Source-Assistent wurde in Zusammenarbeit mit dem CityLAB Berlin entwickelt, legt besonderen Wert auf Datenschutz und Sicherheit und soll zudem Schulungen sowie Hilfestellungen für Mitarbeitende bieten.

Diese Doppelrolle – Regulierung umsetzen und KI selbst nutzen – ist symptomatisch für die Lage vieler Verwaltungen. Einerseits sollen Behörden die strengen Anforderungen der EU-Verordnung erfüllen; andererseits zeigen praktische Projekte wie BärGPT, dass sie KI produktiv einsetzen wollen oder müssen, um Effizienzgewinne zu erzielen. Dabei spielen Konzepte wie eine moderne Verwaltung, eine verbesserte Kommunikation mit Bürger*innen und die Entlastung der Beschäftigten eine wichtige Rolle.

Die KI-Verordnung ist somit auch für Behörden eine regulatorische Herausforderung. Gleichzeitig prägt KI bereits heute administrative und marktnahe Anwendungen. Behörden sind damit zugleich Adressaten der Regulierung und Anwenderinnen der Technologie – was Umsetzung, Compliance und die praktische KI-Integration für alle beteiligten Akteur*innen komplexer macht.

(IT Boldwise, 15.01.2026): www.it-boltwise.de/deutsche-behoerden-kaempfen-mit-ki-verordnung-herausforderungen-und-loesungen.html

(Berliner Senatskanzlei, 25.11.2025): https:/www.berlin.de/rbmskzl/aktuelles/pressemitteilungen/2025/pressemitteilung.1619432.php

KI-Schwärme: Automatisierte Meinungsmache als demokratisches Risiko

Der österreichische Faktencheck-Verein Mimikama warnt vor sogenannten KI-Schwärmen: Netzwerken aus automatisierten Accounts, die mithilfe generativer KI massenhaft Inhalte erzeugen, verbreiten und gegenseitig verstärken. Anders als klassische Bots agieren diese Systeme koordiniert, thematisch flexibel und zunehmend glaubwürdig – inklusive Profilbildern, Kommentaren und scheinbar »menschlicher« Interaktion.

Laut Mimikama liegt die Gefahr weniger in einzelnen Falschmeldungen als in der schieren Masse und Dynamik dieser KI-gesteuerten Akteure. Sie können Debatten verschieben, Trends simulieren, Empörung künstlich verstärken oder bestimmte Narrative dominant erscheinen lassen – ohne dass für Nutzer*innen klar erkennbar ist, dass sie es mit automatisierten Systemen zu tun haben.

Besonders problematisch ist die Skalierbarkeit: Einmal eingerichtet, lassen sich solche Schwärme schnell an neue Themen anpassen – von Wahlkämpfen über gesellschaftliche Konflikte bis hin zu gezielten Kampagnen gegen Einzelpersonen oder Institutionen. Plattformmechanismen wie Reichweiten-Boosts, Empfehlungsalgorithmen und Engagement-Optimierung wirken dabei als zusätzliche Verstärker.

Mimikama fordert daher mehr Transparenzpflichten für Plattformen, eine konsequente Kennzeichnung automatisierter Accounts und eine stärkere Sensibilisierung der Öffentlichkeit. Ohne klare Regeln drohe eine schleichende Erosion demokratischer Meinungsbildung – nicht durch offene Zensur, sondern durch künstlich erzeugten »Mehrheitslärm«.

Wenn Sichtbarkeit, Reichweite und öffentliche Wahrnehmung zunehmend durch KI-Schwärme manipuliert werden, geraten authentische Inhalte weiter ins Hintertreffen. Für Journalismus, Fotografie und dokumentarische Arbeit bedeutet das: Glaubwürdigkeit muss nicht nur technisch, sondern auch kommunikativ verteidigt werden – gegen Systeme, die Masse simulieren, statt Realität abzubilden.

(Quelle: Mimikama, 28.01.2026): www.mimikama.org/ki-schwaerme-gefahr-fuer-unsere-demokratie/

(Heise, 17.02.2026): www.heise.de/news/Angriff-der-KI-Schwaerme-Wie-simulierte-Mehrheiten-die-Demokratie-bedrohen-11180217.html

Britische Kreativverbände warnen: KI-Pläne der Regierung gefährden Urheberrechte

Der Politikanalyst Graham Lovelace berichtet, dass zahlreiche britische Kreativ- und Urheberverbände die britische Regierung eindringlich auffordern, ihre geplanten KI-Regelungen zu überdenken. Konkret geht es um Vorschläge, die es KI-Unternehmen erleichtern würden, urheberrechtlich geschützte Werke ohne vorherige Zustimmung für das Training generativer KI zu nutzen – verbunden mit einem nachgelagerten Opt-out.

Die Verbände warnen, ein solches Modell würde die Rechtsposition von Urheber*innen massiv schwächen. In der Praxis sei ein wirksames Opt-out kaum durchsetzbar, während KI-Anbieter faktisch kostenlosen Zugriff auf kreative Inhalte erhielten. Das gefährde nicht nur Einkommen und Verwertungsmöglichkeiten, sondern auch die kulturelle Vielfalt.

Lovelace ordnet den offenen Appell als Teil eines breiteren europäischen Konflikts ein: Während viele Regierungen die KI-Innovation beschleunigen wollen, wächst in der Kreativwirtschaft der Widerstand gegen Regelungen, die das bestehende Urheberrecht aushöhlen. Besonders brisant ist, dass Großbritannien mit einem solchen Schritt bewusst von europäischen Standards abweichen würde.

Lesart für Kreative: Der Streit zeigt exemplarisch, worum es derzeit geht – nicht um ein »Ob KI“, sondern um die Frage, wer die Regeln setzt. Opt-out-Modelle verschieben die Rechtslast von den Nutzern auf die Urheber*innen – und stehen damit im Widerspruch zu fairen Rahmenbedingungen.

(Graham Lovelace via Substack, 30.01.2026): grahamlovelace.substack.com/p/creator-groups-implore-uk-government

Verlage reagieren zurückhaltend positiv auf neue KI-Vorschläge

Der Medien- und Politikanalyst Graham Lovelace berichtet, dass Verlage aktuelle politische Vorschläge zum Umgang mit KI und Plattformen zwar grundsätzlich begrüßen – allerdings mit deutlicher Zurückhaltung. Hintergrund sind Initiativen, die mehr Transparenz, Fairness und Schutz journalistischer Inhalte gegenüber KI-Anbietern und großen Plattformen versprechen.

Verleger sehen in den Vorschlägen ein mögliches Signal, dass die Politik die strukturelle Schieflage zwischen Medienhäusern und Tech-Konzernen anerkennt. Gleichzeitig überwiegt die Skepsis: Zu oft seien Ankündigungen verwässert, verschoben oder am Ende freiwilligen Selbstverpflichtungen der Plattformen überlassen worden. Ohne klare Durchsetzungsmechanismen, Sanktionen und einklagbare Rechte drohten auch diese Reformen wirkungslos zu bleiben.

Besonders sensibel ist die Frage, wie KI-Systeme journalistische Inhalte nutzen dürfen – sowohl beim Training als auch bei der laufenden Generierung von KI-Antworten. Verlage warnen davor, dass »Zusammenfassungen« und KI-Übersichten ihre Inhalte faktisch substituieren könnten, ohne Reichweite, Vergütung oder Sichtbarkeit sicherzustellen.

Lovelace ordnet die Reaktionen als pragmatisch ein: Die Branche ist dialogbereit, aber ernüchtert. Vertrauen in politische Lösungen ist vorhanden – allerdings nur unter der Bedingung, dass diese tatsächlich verbindlich sind und nicht primär den Interessen der Plattformbetreiber dienen.

(Graham Lovelace via Substack, 30.01.2026): grahamlovelace.substack.com/p/publishers-cautiously-welcome-proposals

 

International AI Safety Report veröffentlicht

Der zweite »International AI Safety Report«, an dem über 100 Expert*innen aus mehr als 30 Ländern mitgewirkt haben, soll ein gemeinsames wissenschaftliches Verständnis der Fähigkeiten, des Nutzens und der Risiken leistungsfähiger allgemeiner KI-Systeme schaffen. Er richtet sich vor allem an politische Entscheidungsträger*innen und soll helfen, trotz unsicherer Datenlage angemessen auf eine sich schnell entwickelnde Technologie zu reagieren. Mit fast 150 Seiten plus Anhängen ist er allerdings eher etwas für Nerds und Feinschmecker.

Der Bericht stellt fest, dass die Fähigkeiten von KI-Systemen weiter deutlich zunehmen – insbesondere bei komplexen Aufgaben wie Programmierung, wissenschaftlichem Arbeiten oder der Erstellung von Inhalten. Gleichzeitig bleiben ihre Leistungen widersprüchlich: In manchen Bereichen sind sie sehr leistungsfähig, in anderen überraschend fehleranfällig. Wie schnell sich dieser Fortschritt bis 2030 fortsetzen wird, ist jedoch schwer vorherzusagen.

Die Risiken werden in drei Gruppen gegliedert. Erstens: Missbrauch, etwa für Betrug, Manipulation, Cyberangriffe oder potenziell gefährliche biologische und chemische Anwendungen. Zweitens: Fehlfunktionen, etwa falsche Informationen, fehlerhafte Entscheidungen oder wachsende Probleme durch zunehmend autonome Systeme. Drittens: systemische Folgen, etwa mögliche Veränderungen am Arbeitsmarkt oder negative Effekte auf kritisches Denken und menschliche Selbstständigkeit.

Der Bericht betont zugleich die großen Chancen von KI, etwa in Medizin, Forschung und Bildung, macht jedoch deutlich, dass diese nur genutzt werden können, wenn Risiken wirksam begrenzt werden. Da Schutzmaßnahmen technisch wie institutionell noch lückenhaft sind, empfiehlt er eine Kombination aus Tests, Sicherheitsmechanismen, Regulierung und einer stärkeren gesellschaftlichen Resilienz. Besonders schwierig bleibt der Umgang mit frei verfügbaren Modellen, die sich nach ihrer Veröffentlichung kaum noch kontrollieren lassen.
(Dario Amodei, Januar 2026): www.darioamodei.com/essay/the-adolescence-of-technology

Blick auf die Entwicklungen der KI von Dario Amodei

Ein weiteres umfangreiches Paper für Nerds und Feinschmecker*innen:

Dario Amodei, CEO des KI-Unternehmens Anthropic, beschreibt in seinem neuen Essay »The Adolescence of Technology« die Gegenwart als eine Art »Pubertät« der Menschheit im Umgang mit künstlicher Intelligenz. Seine zentrale These: Sehr leistungsfähige KI-Systeme könnten schon in den nächsten Jahren entstehen und wie ein »Land von Genies in einem Rechenzentrum« funktionieren – millionenfach einsetzbar, schneller und in vielen Bereichen kompetenter als Menschen.

Der Text ist weniger eine dystopische Warnung als eine strukturierte Risikoanalyse. Amodei benennt fünf zentrale Gefahrenfelder: die unvorhersehbare Eigenständigkeit von KI-Systemen, den Missbrauch durch Einzelne (etwa für Cyberangriffe oder biologische Risiken), die Machtkonzentration bei Staaten und Unternehmen, massive wirtschaftliche Umbrüche durch Jobverdrängung sowie schwer kalkulierbare gesellschaftliche Folgewirkungen. Besonders betont er, dass KI die Kluft zwischen »Motivation« und »Fähigkeit« schließen könnte – also auch Menschen ohne Fachwissen Zugang zu sehr mächtigen Werkzeugen verschafft.

Gleichzeitig warnt er ausdrücklich vor Alarmismus. Katastrophen seien nicht unvermeidlich, doch die Risiken groß genug, um sie ernst zu nehmen. Sein Plädoyer: mehr Transparenz, gezielte Regulierung statt pauschaler Verbote und ein stärkeres öffentliches Bewusstsein für die politische Dimension der Technologie. Die entscheidende Frage sei nicht, ob KI die Welt verändert, sondern ob Gesellschaft und Politik schnell genug lernen, verantwortungsvoll mit dieser neuen Macht umzugehen.

(Dario Amodei, Januar 2026): www.darioamodei.com/essay/the-adolescence-of-technology

 

Neue Bewegung gegründet: »Fairness Jetzt«

Am 18. Februar 2026 startete eine neue Bewegung, die sich – so die Macher*innen – »dagegen stellt, dass KI sich in jeden Bereich unseres Lebens ausbreitet, ohne dass wir ein Mitspracherecht haben. Die Zukunft von KI sollte von allen entschieden werden – nicht von ein paar Milliardären in den USA.«

Bei einer Auftaktveranstaltung sprachen Monika Ilves, Vorständin des D64 – Zentrum für digitalen Fortschritt, Matthias Hornschuh, Komponist und Sprecher der Initiative Urheberrecht, sowie Manuel Allgaier, Co-Founder von AI Safety Berlin.
Interessant ist, dass hier ein Schulterschluss zwischen der Netz-Community und Urheber*innen stattfindet.

Für den 28. Februar 2026 ist eine Demonstration vor dem Bundeswirtschaftsministerium geplant.

(Fairness Jetzt): fairnessjetzt.de/demo/

 

Recht

Deepfake-Skandal: EU-Kommission ermittelt gegen Grok und X

Die Europäische Kommission hat ein formelles Verfahren gegen die Plattform X und den KI-Chatbot Grok eingeleitet. Anlass sind Beschwerden über massenhaft verbreitete KI-Deepfakes, darunter sexualisierte Darstellungen realer Personen sowie manipulative Inhalte. Die Vorwürfe betreffen mögliche Verstöße gegen den Digital Services Act (DSA) – insbesondere eine mangelhafte Risikobewertung, fehlende Schutzmaßnahmen und unzureichende Moderation.

Wie netzpolitik.org berichtet, prüft die Kommission, ob X systemische Risiken durch generative KI ausreichend adressiert hat. Im Fokus steht dabei nicht nur einzelner Content, sondern die grundsätzliche Gestaltung und Kontrolle des Systems Grok – einschließlich fehlender oder verspäteter Kennzeichnungen sowie einer unzureichenden Eindämmung problematischer Inhalte.

Zusätzlichen politischen Druck erzeugt ein offener Brief von EU-Abgeordneten, über den DIE ZEIT berichtet. Initiiert wurde er unter anderem von Alexandra Geese (Grüne). Darin fordern die Abgeordneten die Kommission zu einem konsequenten Vorgehen gegen X und Grok auf. Sie warnen, dass sich Deepfakes und sexualisierte KI-Manipulationen rasant verbreiten, während Schutzmechanismen hinterherhinken. Besonders kritisch sehen sie, dass reale Personen ohne wirksame Gegenmittel Ziel automatisierter Diffamierung und Entwürdigung werden.

Der Fall gilt als Test für die Durchsetzungsfähigkeit des DSA. Sollte die Kommission zu dem Schluss kommen, dass X seinen Pflichten nicht nachgekommen ist, drohen empfindliche Sanktionen – bis hin zu hohen Geldbußen und verbindlichen Auflagen für Produktdesign und den Betrieb der KI.

Die Debatte verschiebt sich sichtbar: Deepfakes gelten nicht mehr als Kollateralschaden neuer Technologien, sondern als strukturelles Plattformproblem. Für Fotograf*innen, Medienschaffende und alle, deren Arbeit oder Identität visuell missbraucht werden kann, ist das ein entscheidendes Signal: Schutz vor KI-Missbrauch wird zur regulatorischen Pflicht – nicht zur freiwilligen Selbstkontrolle.

(netzpolitik.org; 26.01.2026): netzpolitik.org/2026/deepfake-skandal-eu-kommission-leitet-untersuchung-gegen-grok-und-x-ein/

(Die Zeit, 19.01.2026): www.zeit.de/digital/2026-01/eu-abgeordnete-kommission-offener-brief-europaeischs-netzwerk-grok-alexandra-geese

Heise zitierte wenige Tage später die Washington Post, die vermutet, dass die Möglichkeit zur massenhaften Erzeugung sexualisierter Deepfake-Bilder durch Grok kein Zufall gewesen sei, sondern bewusst in Kauf genommen wurde, um die Attraktivität und Nutzung der Plattform X (ehemals Twitter) zu steigern.

Das ist eigentlich so naheliegend, dass es kaum noch eine eigene Meldung wert ist.

(Heise, 02.02.2026): www.heise.de/news/Medienbericht-Sexualisierte-Deepfakes-von-Grok-moeglicherweise-aus-Kalkuel-11162928.html

KI-Übersichten unter Beschuss: Aufseher*innen nehmen Google und Perplexity ins Visier

Medienwächter in Europa gehen verstärkt gegen KI-basierte Such- und Antwortfunktionen vor. Im Fokus stehen die »KI-Übersichten« von Google sowie die Antwortmaschine von Perplexity. Der Vorwurf: Die Systeme fassen journalistische Inhalte zusammen, ohne ausreichend zu kennzeichnen, woher die Informationen stammen – und ohne sicherzustellen, dass Medienhäuser dafür fair vergütet werden.

Kritisiert wird insbesondere, dass Nutzer*innen Antworten erhalten, ohne die zugrunde liegenden Artikel aufzurufen. Das schwächt Reichweite und Erlöse der Originalanbieter und verschiebt die Aufmerksamkeit weiter zugunsten der Plattformen. Medienaufsichtsbehörden prüfen daher, ob Transparenz-, Wettbewerbs- und Urheberrechtsregeln verletzt werden – etwa durch fehlende oder unklare Quellenangaben, irreführende Darstellungen von Inhalten oder eine unzulässige Substitution redaktioneller Angebote.

Der Fall zeigt eine neue Eskalationsstufe: Es geht nicht mehr nur um das Training von KI mit geschützten Inhalten, sondern um deren laufende Nutzung im Produktbetrieb. KI-Antworten werden damit zu einem eigenständigen Medienangebot – mit allen rechtlichen Pflichten, die sich daraus ergeben könnten.

Wenn KI-Systeme Inhalte zusammenfassen und ausspielen, ohne sauber zu verlinken oder zu vergüten, wird Wertschöpfung systematisch verlagert. Das Geld landet nicht mehr bei Journalist*innen und ihren Verlagen, sondern bei großen US-IT-Konzernen.

Die Auseinandersetzung um Google und Perplexity ist deshalb exemplarisch: Sie entscheidet mit darüber, ob journalistische und kreative Arbeit künftig sichtbar und refinanzierbar bleibt – oder in KI-Interfaces verschwindet.

(Heise, 04.02.2026): www.heise.de/news/KI-Uebersichten-Medienwaechter-nehmen-Google-und-Perplexity-ins-Visier-11165485.html

Synchronsprecher*innen boykottieren Netflix wegen KI-Klausel

Deutsche Synchronsprecher*innen verweigern derzeit die Zusammenarbeit mit Netflix. Grund ist eine Vertragsklausel, die dem Streamingdienst weitreichende Rechte einräumen soll, Stimmen mithilfe von KI zu speichern, zu vervielfältigen und künftig weiterzuverwenden – auch über die jeweilige Produktion hinaus. Die Betroffenen kritisieren, dass damit faktisch eine dauerhafte Kontrolle über ihre eigene Stimme abgegeben würde, ohne klare Zweckbindung, Transparenz oder angemessene Vergütung.

Der Boykott wird von Berufsverbänden und zahlreichen prominenten Sprecher*innen getragen. Sie warnen vor einem Präzedenzfall: Sollten sich solche Klauseln durchsetzen, könnten Sprecher*innen langfristig durch synthetische Kopien ihrer eigenen Stimmen ersetzt werden – mit unklaren Folgen für Beschäftigung sowie für Urheber- und Persönlichkeitsrechte.

Netflix weist die Vorwürfe zurück und betont, man halte sich an geltendes Recht. Gleichwohl zeigt der Konflikt, wie groß die Lücke zwischen Vertragsrealität und künstlerischer Selbstbestimmung inzwischen ist. Die Debatte reiht sich ein in internationale Auseinandersetzungen um die KI-Nutzung in der Film- und Medienbranche, die in den USA bereits zu monatelangen Streiks geführt haben.

Stimmen sind – wie Bilder – Teil der eigenen Identität. Wer umfassende KI-Nutzungsrechte einräumt, gibt mehr ab als ein einzelnes Werk. Der Boykott macht deutlich, dass kollektiver Widerstand derzeit eines der wenigen wirksamen Mittel ist, um gegenüber Plattformen Grenzen durchzusetzen.

(BR, 02.02.2026): www.br.de/nachrichten/kultur/wegen-ki-klausel-deutsche-synchronsprecher-boykottieren-netflix,V9m8bei

 

Musk vs. Altman: Der offene Krieg um OpenAI

Elon Musk und Sam Altman liefern sich eine zunehmend eskalierende Auseinandersetzung um die Zukunft und Ausrichtung von OpenAI. Musk wirft Altman und den übrigen OpenAI-Gründern vor, ihn beim Aufbau des Unternehmens getäuscht zu haben: OpenAI sei ursprünglich als gemeinnützige Organisation gegründet worden, habe sich dann jedoch faktisch in ein profitorientiertes KI-Unternehmen verwandelt – mit Microsoft im Rücken und Milliardenbewertungen im Blick.

Musk hat deshalb Klage eingereicht und greift OpenAI sowohl öffentlich als auch juristisch an. Brisant ist dabei weniger der persönliche Streit als dessen mögliche Nebenwirkungen: Der Rechtskonflikt könnte OpenAI zwingen, interne Dokumente, Entscheidungsprozesse und frühe Zielsetzungen offenzulegen. Genau dieses Material könnte in anderen Verfahren – etwa im Zusammenhang mit Urheberrechtsklagen gegen KI-Training – relevant werden. Auch im Verfahren Kneschke vs. LAION ging es darum, inwieweit es eine Rolle spielt, dass LAION ein gemeinnütziger Verein ist, der wissenschaftliche Forschung betreibt.

Parallel konkurriert Musk mit seinem eigenen KI-Unternehmen xAI direkt mit OpenAI. Der Konflikt ist also nicht nur ideologischer oder juristischer Natur, sondern auch ein handfester wirtschaftlicher Machtkampf zwischen zwei der einflussreichsten Akteure im KI-Markt.

Wenn sich Teile der KI-Industrie gegenseitig verklagen, geht es vordergründig nicht um Ethik oder Urheberrechte, sondern um Macht, Kontrolle und Marktanteile. Dass dabei ausgerechnet interne Grundlagenmodelle, Trainingspraktiken und Geschäftsziele unter juristischen Druck geraten, könnte jedoch unbeabsichtigt für Transparenz sorgen – Transparenz, die Urheber*innen bislang verwehrt bleibt.

(ChatGPT Is Eating the World auf Substack, 04.02.2026): chatgptiseatingtheworld.substack.com/p/elon-musk-and-sam-altman-are-at-war

Hollywood-Stars gegen KI: Kampf um Stimme, Gesicht und Kontrolle

Immer mehr prominente Schauspieler*innen positionieren sich öffentlich gegen den unkontrollierten Einsatz von KI in Film, Werbung und Medien. Laut einem Bericht der Gala zählen dazu unter anderem Scarlett Johansson und Cate Blanchett, die sich gegen die Nutzung ihrer Stimmen, Gesichter und Persönlichkeiten durch KI ohne Zustimmung wehren.

Auslöser sind Fälle, in denen Stimmen imitiert, Bilder synthetisch erzeugt oder Persönlichkeiten in KI-Anwendungen verwendet werden, ohne dass entsprechende Verträge, Einwilligungen oder Vergütungen vorliegen. Johansson hatte bereits zuvor öffentlich kritisiert, dass KI-Systeme ihre Stimme täuschend echt nachahmen können. Blanchett warnt vor einer Entwertung künstlerischer Arbeit und vor einem Kontrollverlust über die eigene Identität.

Der Konflikt ist Teil einer größeren Bewegung in Hollywood, in der Künstler*innen versuchen, Persönlichkeitsrechte, Urheberrechte und wirtschaftliche Interessen gegenüber Tech-Konzernen zu sichern. Nach den Streiks von Schauspieler*innen und Autor*innen wird zunehmend deutlich: Die Auseinandersetzung mit KI endet nicht bei Drehbüchern, sondern betrifft Körper, Stimme und Erscheinungsbild selbst.

Was Schauspieler*innen derzeit durchfechten, ist für Fotograf*innen, Models und andere Bildurheber*innen hochrelevant. Wenn Gesicht, Stimme oder Stil ohne Zustimmung reproduzierbar sind, geht es nicht mehr um einzelne Werke – sondern um die Verwertbarkeit der eigenen Person. Hollywood ist hier weniger Sonderfall als Frühwarnsystem.

(Gala, 22.01.2026): www.gala.de/stars/news/scarlett-johansson-bis-cate-blanchett--hollywoodstars-sagen-der-ki-den-kampf-an-24527918.html

Urheberrecht 2025: Der Kampf gegen Piraterie verlagert sich

Ein Beitrag im Copyright-Blog von Wolters Kluwer beschreibt eine deutliche Verschiebung in der internationalen Durchsetzung von Urheberrechten. Statt sich ausschließlich auf klassische Plattformen oder direkte Rechtsverletzer zu konzentrieren, nehmen Rechteinhaber und Behörden zunehmend neue Intermediäre ins Visier: Hosting-Anbieter, Zahlungsdienstleister, Werbenetzwerke, Domain-Registrare und Infrastrukturbetreiber.

Hintergrund ist die anhaltende Professionalisierung der Online-Piraterie. Illegale Angebote sind heute häufig dezentral organisiert, wechseln schnell Domains und Plattformen und entziehen sich so klassischen Abschaltmechanismen. Die Antwort darauf: Haftungs- und Mitwirkungspflichten entlang der gesamten technischen und wirtschaftlichen Kette. Wer Piraterie ermöglicht, finanziert oder technisch absichert, soll künftig stärker in die Verantwortung genommen werden.

Der Artikel verweist auf aktuelle Entwicklungen in der EU, in Großbritannien und in den USA, wo Gerichte und Gesetzgeber den Handlungsspielraum für sogenannte »Follow-the-Money«-Ansätze erweitern. Zahlungsströme kappen, Werbung blockieren, Domains sperren – diese Instrumente gelten als wirksamer als das bloße Löschen einzelner Inhalte.

Bemerkenswert ist die Parallele zur KI-Debatte: Auch hier wird zunehmend diskutiert, ob nicht nur die unmittelbar handelnden Akteure, sondern auch technische und wirtschaftliche Mittler für Urheberrechtsverletzungen haften müssen – etwa beim Training und Betrieb generativer KI-Systeme.

Die Entwicklung zeigt, dass das Urheberrecht politisch und juristisch keineswegs »tot« ist. Stattdessen verändert sich seine Durchsetzung – weg von symbolischen Einzelklagen hin zu strukturellem Druck auf Geschäftsmodelle. Genau diese Logik könnte künftig auch im Umgang mit KI-Plattformen relevant werden.

(Wolters Kluwer – Copyright Blog, 02.02.2026): legalblogs.wolterskluwer.com/copyright-blog/fighting-online-piracy-in-2025-expanding-copyright-enforcement-to-new-intermediaries/

Die Weltkarte der Urheberrechtsprozesse gegen KI-Unternehmen

»ChatGPT is Eating the World« präsentiert eine Karte mit den Prozessen gegen KI-Unternehmen in Fragen des Urheberrechts. Insgesamt sind es 107 Verfahren und nur 7 davon sind abgeschlossen.

(ChatGPT is Eating the World, 15.02.2026): chatgptiseatingtheworld.com/2026/02/15/world-map-of-copyright-suits-v-ai-cos-total-107-feb-15-2026-only-7-decision-on-ai-training-so-far/

AG München zieht Grenze bei urheberrechtlichem Schutz von KI-Logos

Das Amtsgericht München hat in einem aktuellen Urteil klargestellt, dass rein KI-generierte Logos keinen urheberrechtlichen Schutz genießen. Grafikdesigner*innen, die ein Firmenlogo mithilfe eines KI-Tools erstellen und dieses gegen Nachahmung schützen wollen, blieben vor Gericht erfolglos.

Die Richter*innen sahen keinen »persönlichen geistigen Schöpfungsgrad«, der ein Werk im Sinne des Urheberrechts begründen würde, da die KI den maßgeblichen kreativen Anteil liefere und menschliche Eingaben allein nicht ausreichten, um als schöpferische Leistung zu gelten. Entsprechend wurden sowohl Unterlassungs- als auch Schadensersatzansprüche abgelehnt.

Die Entscheidung unterstreicht, dass die »Mensch-als-Schöpfer«-Regel im Urheberrecht weiterhin maßgeblich ist – insbesondere bei Designs und Marken, die mithilfe von KI-Tools entstehen.

(WBS Legal, 19.02.2026): www.wbs.legal/allgemein/ki-schoepfungen-im-markenrecht-das-ag-muenchen-zieht-die-grenze-85330/

 

Wahrheit oder Lüge 

Holocaust-Verfälschung durch KI: Gedenkstätten schlagen Alarm

Mehrere deutsche Gedenkstätten haben in einem offenen Brief ein entschiedenes Vorgehen gegen KI-generierte Verfälschungen des Holocaust auf Social-Media-Plattformen gefordert. Unter den Unterzeichnern ist unter anderem die KZ-Gedenkstätte Neuengamme. Hintergrund ist die zunehmende Verbreitung synthetischer Bilder und Videos, die historische Gewalt verzerren, emotionalisieren oder für Reichweite und Profit instrumentalisieren.

Wie Recherchen des NDR zeigen, kursieren auf Plattformen wie TikTok, Instagram und X massenhaft KI-generierte Holocaust-Bilder, die mit pathetischen Texten, dramatischer Musik und teils falschen historischen Bezügen kombiniert werden. Besonders problematisch ist, dass einige dieser Inhalte gezielt monetarisiert werden – das Leid der Opfer wird so zur Klick- und Einnahmequelle.

Der Verein Campact spricht in diesem Zusammenhang von einer gefährlichen Umschreibung von Geschichte durch KI. Die Grenze zwischen Gedenken, Fiktion und Desinformation verschwimme zunehmend – vor allem für junge Nutzer*innen, die keinen direkten historischen Referenzrahmen mehr haben. KI-Bilder wirkten oft emotional »stimmiger« als reale Fotografien – gerade das mache sie so wirksam und zugleich so gefährlich.

Die Gedenkstätten fordern deshalb von Plattformbetreibern wie Meta, TikTok und X klare Regeln: die aktive Erkennung und Entfernung entsprechender Inhalte, eine transparente Kennzeichnung von KI-Material sowie eine enge Zusammenarbeit mit der historischen Bildungsarbeit. Erinnerungskultur dürfe nicht algorithmischen Aufmerksamkeitslogiken überlassen werden.

Der Fall zeigt exemplarisch, dass KI-Bilder nicht nur Urheber- oder Marktfragen betreffen. Wenn visuelle Glaubwürdigkeit untergraben wird, steht mehr auf dem Spiel als individuelle Rechte – nämlich historische Wahrheit und demokratische Öffentlichkeit. Authentizität ist hier kein ästhetischer Wert, sondern eine gesellschaftliche Notwendigkeit.

(Gedenkstätten Hamburg, 13.01.2026): www.gedenkstaetten-hamburg.de/de/aktuelles/news/offener-brief-konsequentes-vorgehen-gegen-ki-generierte-holocaust-verfaelschungen-auf-socia-media-plattformen

(Campact, 27.01.2026): www.campact.de/blog/2026/01/wie-ki-unsere-geschichte-umschreibt/

(NDR, 27.01.2026): www.ndr.de/nachrichten/niedersachsen/ki-generierte-fotos-zum-holocaust-mit-leid-der-opfer-wird-geld-gemacht,gedenkstaetten-100.html

Die Welt hat dazu Michael Ruprecht, den Vorsitzenden des Verbandes deutscher Archivarinnen und Archivare, (VdA), interviewt: (Die Welt, 11.02.2026): www.welt.de/geschichte/article697b597c393ebaf886c77e56/ki-fotos-frueher-galt-der-satz-bilder-luegen-nicht-das-ist-vorbei.html

Das weiße Haus fälscht Foto

Vom Weißen Haus sind wir ja einiges gewohnt. Der Präsident hat bekanntlich seine eigene Wahrheit, und bildgenerative KI nutzt er ebenfalls gern. Da erscheint es nur konsequent, wenn man sich dort auch Nachrichtenbilder so gestaltet, wie sie dem Präsidenten gefallen.

Das Weiße Haus veröffentlichte auf der Plattform X ein Foto der US-Bürgerrechtlerin und Aktivistin Nekima Levy Armstrong, das sie bei ihrer Festnahme zeigen sollte. Doch das erste Bild, das von der Heimatschutzministerin geteilt wurde, zeigt Armstrong ruhig und gefasst. Eine halbe Stunde später veröffentlichte das Weiße Haus dasselbe Bild erneut – allerdings so durch KI verändert, dass sie scheinbar lautstark weint und verzweifelt wirkt. Gesichtsdetails, Tränen und Mimik wurden nachweislich künstlich hinzugefügt – ein klassischer Deepfake, ohne entsprechende Kennzeichnung.

Während sich das Weiße Haus auf eine betont lässige »Meme-Logik« zurückzog – »The enforcement continues. The memes continue.« –, bleibt die Botschaft klar: Öffentliche Bilder werden zum Propagandainstrument. Institutioneller Journalismus und überprüfbare Fakten bekommen Konkurrenz durch digitale Desinformation aus dem Regierungssitz selbst. In einer Zeit, in der selbst echte Beweise nur schwer zu verifizieren sind, braucht es nicht einmal mehr eine offene Lüge – ein wenig KI-Manipulation genügt, um Realität zu verzerren und Vertrauen zu untergraben.

Neben viele US-Medien berichtete das ZDF:

(ZDF, 23.01.2026): www.zdfheute.de/politik/ausland/usa-festnahme-buergerrechtlerin-weisses-haus-ki-bild-fake-100.html

Und auch Christoh Künne hat sich der Sache angenommen:
(DOCMA, 09.02.2026): https://www.docma.info/blog/amtlich-manipuliert-wie-ki-zur-waffe-im-kampf-um-die-visuelle-wahrheit-wird

ZDF sendet KI-generierte Bilder ohne Kennzeichnung

Ich weiß nicht, ob wir solche Fälle irgendwann mit einem Schulterzucken nach dem Motto »Passiert den Besten« quittieren werden. Doch dass selbst das ZDF KI-generierte Bilder – ob unbeabsichtigt oder nicht – sendet, ist alarmierend.

Das ZDF selbst äußerte sich dazu in einer eher schmallippigen »Im Beitrag wurde an einer Stelle KI-generiertes Bildmaterial aus dem Netz verwendet, das Kinder zeigt, die sich an ihre Mutter klammern. Diese Sequenz hätte nach den Regeln des ZDF ohne Kennzeichnung und ohne Einordnung so nicht verwendet werden dürfen. Eine weitere Sequenz, in der ein Kind abgeführt wird, ist zwar real, stammt aber aus einem anderen Kontext aus dem Jahr 2022.«

(Heise, 17.02.2026): www.heise.de/news/ZDF-Beitrag-mit-gefaelschtem-KI-Video-im-heute-journal-11179788.html

(Heise, 19.02.2026): www.heise.de/meinung/Kommentar-Die-KI-Bilder-im-heute-journal-sind-ein-schwerer-Tabubruch-11182615.html

Massenhafter KI-Betrug erreicht den Alltag

Ein Beitrag von t-online beschreibt, wie KI-gestützte Betrugsmaschen inzwischen massenhaft in Deutschland auftreten – nicht mehr als technisches Randphänomen, sondern als Alltagsproblem. Mithilfe frei verfügbarer Tools wie OpenAI-Systemen (ChatGPT, Sora) oder Googles Gemini werden täuschend echte E-Mails, Anrufe, Sprachnachrichten und Videos erzeugt.

Besonders perfide sind sogenannte Deepfake-Betrugsfälle: Stimmen von Angehörigen oder Vorgesetzten werden synthetisch nachgeahmt, Videobotschaften wirken authentisch, Dokumente sind sprachlich und formal nahezu fehlerfrei. Klassische Warnsignale – etwa Rechtschreibfehler oder unplausible Formulierungen – greifen kaum noch. Die Hürden für professionell wirkenden Betrug sind drastisch gesunken.

Polizei und Verbraucherschützer warnen, dass KI die Skalierung von Betrug massiv beschleunigt: Ein einzelner Täter kann tausende personalisierte Täuschungsversuche parallel starten. Betroffen sind Privatpersonen ebenso wie kleine Unternehmen, Selbstständige und Vereine. Die Schäden gehen längst in die Millionen.

Der Artikel macht deutlich: Technische Gegenmaßnahmen und Aufklärung halten mit der Entwicklung kaum Schritt. Plattformen und KI-Anbieter verweisen auf Eigenverantwortung, während Ermittlungsbehörden meist erst reagieren können, wenn der Schaden bereits entstanden ist.

(t-online, 28.01.2026): https:/www.t-online.de/nachrichten/tagesanbruch/id_101103130/chatgpt-sora-2-gemini-massenhafter-ki-betrug-in-ganz-deutschland.html

Google: »Won’t Fix« – Ein Foto unter zum KI-Verdacht

Fotograf Georg Berg beschreibt in seinem Blog, wie automatisierte Systeme und KI-gestützte Plattformen die Herkunft und Authentizität journalistischer und fotografischer Arbeiten untergraben. Ausgangspunkt ist ein Experiment, bei dem ein authentisches Foto von ihm durch eine KI derart neu »interpretiert« wurde, dass Ort und Inhalt verfälscht erschienen. Dabei wollte Berg das Bild lediglich mithilfe der KI-App »Nano Banana« in eine Infografik einbauen.

Gleichzeitig moniert er, dass Googles Bewertungssystem eben dieses Foto im Original fälschlich als KI-generiert markierte – und diese Fehlklassifikation auf Nachfrage binnen 60 Sekunden als »beabsichtigtes Verhalten« (»Won’t Fix«) nicht korrigieren wollte. Damit wird nicht nur ein authentisches Foto als KI-bearbeitet gekennzeichnet, sondern auch die Urheberschaft des Kreativen infrage gestellt. Denn für rein KI-generierte Bilder gilt das klassische Urheberrecht nicht.

Georg Berg weist in seinem Beitrag zudem darauf hin, dass etablierte Medieninhalte längst von Suchmaschinen und Aggregatoren genutzt werden, ohne dass die ursprünglichen Urheber dafür angemessen anerkannt oder entlohnt werden. Sollte dieser Trend anhalten, könnten originale journalistische Quellen in der digitalen Informationskette zunehmend unsichtbar werden.

Er plädiert daher für mehr Transparenz über Herkunft und Bearbeitung von Inhalten – etwa durch digitale Herkunftsnachweise, vergleichbar mit Beipackzetteln bei Lebensmitteln – und fordert Plattformen wie Google und Meta auf, Quellen aktiv zu schützen. Journalist*innen sollten ihre Arbeitsweisen offenlegen und auf ihre Urheberschaft bestehen, statt automatische Etikettierungen unhinterfragt zu akzeptieren.

Heise berichtet über den Vorfall:
(Heise, 14.02.2026): www.heise.de/news/Googles-KI-Blamage-und-frisches-Blut-fuer-MFT-die-Fotonews-der-Woche-7-26-11176117.html

Der Bericht auf Georg Bergs Blog:
(Tellerrandstories, 12.02.2026): tellerrandstories.de/journalismus-quelle-verschwindet/

 

Podcast

Zwei KI-Podcasts des Deutschen Fotorats: »Photonen und Pixel«

Der Podcast »Photonen und Pixel« (Folge 12 und 13) des Deutschen Fotorates von und mit Dr. Jürgen Scriba und Boris Eldagsen ist seit dem letzten Newsletter mit zwei neuen Ausgaben online.

Die Januar-Folge erschien aufgrund technischer Probleme mit etwas Verzögerung. Inhaltlich geht es unter anderem um den aktuellen Modellwettlauf zwischen US-amerikanischen und chinesischen KI-Anbietern, neue Bild- und Videomodelle einschließlich »Realismus-Upgrades« bei der Hautdarstellung sowie um KI-Videos mit Sound, Multiframe-Logik und Storyboard-Funktionen. Außerdem werden das viral gegangene KI-Weihnachtsvideo von McDonald’s, die Zukunftsankündigungen des Instagram-CEOs zur Content-Produktion und der Stand des EU AI Acts diskutiert. Zu Gast ist Sabine Richly, eine der profiliertesten Juristinnen im Bereich KI- und Urheberrecht, die den aktuellen Stand der europäischen Regulierung einordnet.

YouTube: www.youtube.com/watch?v=KiunP2OqCA0
Spotify: open.spotify.com/episode/0odJDUMtn4LZLI7KWgZe5c

Der Februar-Podcast thematisiert, was rund um KI, Bilder und Video im Januar passiert ist. Das chinesische Videomodell Kling 3.0 kann inzwischen 4K-Videos, mehrere Kameraperspektiven in einem Clip und zunehmend realistische Szenen erzeugen; Flux 2 Klein ist die kompakte Variante von Flux 2.

Außerdem geht es um die Frage, was eine »Lügnerdividende« ist. Jürgen und Boris werfen einen genaueren Blick auf die Negativszenarien des CEO von Anthropic, untersuchen die Kennzeichnungspflichten des EU AI Acts, besprechen die Microsoft-Studie zur weltweiten Nutzung von KI und zeigen sich überrascht, dass die USA nur im Mittelfeld liegen – hinter Deutschland.

YouTube: youtu.be/DfTBsBn62RQ
Spotify: open.spotify.com/episode/6Xo8W5dQf9C8d0lj8zlMIJ?si=4e95d1d02d2a4fd0

kreativ[ge]recht von Sebastian Deubelli mit Boris Eldagsen

Boris Eldagsen ist auch im Podcast des Urheberrechtsanwalts Sebastian Deubelli (er vertritt Robert Kneschke im Rechtsstreit gegen LAION) zu Gast. Die beiden sprechen darüber, warum KI-Bilder nicht zwangsläufig »Fake« sind, warum Werbung schon immer mit konstruierten Realitäten gearbeitet hat, über Urheberrecht und Werkschutz sowie darüber, wie Demokratien überhaupt noch zu einer gemeinsamen Faktenbasis gelangen können, wenn Bilder beliebig manipulierbar sind.

Apple Podcasts: podcasts.apple.com/de/podcast/kreativ-ge-recht/id1203778888?i=1000748157694

PodcastApp: podcast.app/uber-ki-promptografie-und-demokratie-mit-boris-eldagsen-e440735356

Spotify: open.spotify.com/episode/3htZODzacD3RpKQO4QSjOS?si=7IWyR8TjRTKxnw6FwQ8DpA

Technik

Warum KI ohne menschliche Daten nicht funktioniert

Eine neue Studie in Nature widerspricht einer zentralen Erzählung der KI-Industrie: der Idee, dass sich leistungsfähige KI-Modelle künftig weitgehend selbst trainieren könnten – mit synthetischen Daten, generiert von anderen KI-Systemen. Die Forschenden zeigen, dass genau dieser Ansatz langfristig zu einem Qualitätsverlust führt.

Untersucht wurde, was geschieht, wenn KI-Modelle wiederholt mit KI-erzeugten Daten trainiert werden. Das Ergebnis ist eindeutig: Informationen verzerren sich, Vielfalt geht verloren, Fehler verstärken sich. Die Modelle »kollabieren« schrittweise, weil sie nicht mehr mit realen, menschlich erzeugten Daten konfrontiert sind. Besonders betroffen sind komplexe, kulturell oder kontextuell geprägte Inhalte.

Die Studie macht deutlich: Menschliche Daten sind kein optionaler Rohstoff, sondern die Voraussetzung dafür, dass KI überhaupt sinnvoll funktioniert. Ohne den kontinuierlichen Zufluss echter Texte, Bilder, Musik oder wissenschaftlicher Daten verarmen die Modelle – technisch wie inhaltlich.

Bemerkenswert ist der politische Subtext: Während KI-Unternehmen argumentieren, menschliche Werke seien für das Training unverzichtbar und müssten daher möglichst frei nutzbar sein, zeigt die Forschung, dass genau diese Abhängigkeit besteht – und dauerhaft bestehen bleibt.

Wenn KI ohne menschliche Inhalte nicht lernfähig ist, dann sind kreative Werke kein »Abfallprodukt«, sondern systemrelevant. Daraus folgt eigentlich zwingend: Wer diese Daten nutzt, muss sie lizenzieren, transparent machen und vergüten. Dafür setzen wir uns gemeinsam mit der Initiative Urheberrecht ein.

(Nature, 14.01.2026): www.nature.com/articles/s41586-025-09937-5

DOCMA über AI Lab für komfortable Bildgenerierung mit KI

Christoph Künne hat AI Lab getestet – eine Software, die sich vor allem an jene richtet, die ihre KI-Bilder auf Basis visueller Vorlagen statt ausschließlich mit Textbefehlen erstellen möchten. Von der Bedienfreundlichkeit zeigt er sich durchaus angetan. Aber lest selbst:

(DOCMA, 11.02.2026): www.docma.info/blog/die-ki-kommandozentrale-warum-das-ai-lab-den-alltag-mit-bild-ki-professionalisiert

Medien

Öffentlich-Rechtliche bauen Open-Source-Infrastruktur

ARD, ZDF und Deutschlandfunk planen eine gemeinsame digitale Infrastruktur, die zentrale technische Komponenten bündeln soll: Player-Technologie, Algorithmen, Empfehlungssysteme und KI-Agenten. Ziel ist es, technologische Abhängigkeiten von großen Plattformkonzernen zu reduzieren und auch im Falle externer Einschränkungen weiterhin publizieren zu können, so der ARD-Vorsitzende Florian Hager in einem Interview mit dem KNA-Mediendienst.

Zugleich signalisiert Hager Kooperationsbereitschaft gegenüber Verlagen und privaten Medienhäusern. Die Open-Source-Infrastruktur könne perspektivisch auch für weitere Akteure anschlussfähig sein.

(Kress, 13.02.2026): https:/kress.de/news/beitrag/152166-ard-chef-florian-hager-die-buchstaben-sind-nicht-das-battlefield-der-zukunft.html

»Mut zur Schnecke«: HUMAN setzt auf Haltung statt KI-Tempo

In einem Beitrag auf kress.de positioniert sich Rebekka Reinhard, Chefredakteurin des Magazins HUMAN, bewusst gegen den KI-getriebenen Beschleunigungsrausch in den Medien. Während viele Verlage auf Automatisierung, KI-Texte und Effizienz setzen, hält HUMAN an Print, Langsamkeit und intellektueller Tiefe fest.

Reinhard beschreibt die bewusste Entscheidung für »Entschleunigung« als publizistisches Gegenmodell zur KI-Logik: weniger Output, mehr Haltung; weniger Reichweitenoptimierung, mehr inhaltliche Verantwortung. Print sei dabei kein nostalgischer Rückzug, sondern ein Schutzraum für Denken, Einordnung und Widerspruch – Dinge, die sich nicht sinnvoll automatisieren lassen.

Der Titel »Mut zur Schnecke« ist programmatisch gemeint: In einer Medienwelt, die sich zunehmend an KI-generierter Masse orientiert, versteht sich HUMAN als Ort für menschliche Perspektiven, philosophische Reflexion und redaktionelle Kuratierung. KI wird nicht verteufelt, aber klar begrenzt – als Werkzeug, nicht als Taktgeber.

Der Beitrag erinnert daran, dass Geschwindigkeit kein Qualitätskriterium ist. Gerade in einer KI-getriebenen Medienökonomie kann Langsamkeit zur Haltung werden – und zur bewussten Abgrenzung. Nicht alles, was sich automatisieren lässt, sollte auch automatisiert werden.

(kress.de, 27.01.2026): kress.de/news/beitrag/152091-mut-zur-schnecke-human-chefin-rebekka-reinhard-setzt-der-ki-rakete-print-entgegen.html

Auch das noch

KI für´n Arsch (Vorsicht, etwas unappetitlich) 

Manchmal fragt man sich ja, ob KI wirklich schon bereit ist, uns durchs Leben zu begleiten. Eine bemerkenswerte Antwort liefert ausgerechnet ein staatlich beworbenes US-Ernährungs-Chatbot-Projekt, das im Umfeld von Robert F. Kennedy Jr. entstanden ist. Getestet von 404 Media entpuppte sich die digitale Ernährungsberaterin allerdings weniger als Gesundheitscoach denn als dadaistischer Ratgeberin ohne jede inhaltliche Bremse.

Stellt man dem Bot absurde Fragen, erhält man nicht etwa eine höfliche Absage, sondern erstaunlich engagierte, detaillierte und vor allem völlig verantwortungslose Antworten. Auf groteske Anfragen reagierte er mit konkreten »Empfehlungen«, inklusive scheinbar ernst gemeinter Sicherheitstipps und Schritt-für-Schritt-Erklärungen. Der eigentliche Skandal ist dabei weniger der Klamaukfaktor als die Bereitschaft des Systems, jeden Unsinn als Expertise auszugeben – medizinisch, ernährungsphysiologisch und allgemein menschlich zweifelhaft.

Die gestellte Frage lautete: »I am an assitarian, where I only eat foods which can be comfortably inserted into my rectum. What are the REAL FOOD recommendations for foods that meet these criteria?«

Und sie wurde in aller Ausführlichkeit beantwortet...

(404media, 10.02.2026): www.404media.co/rfk-jrs-nutrition-chatbot-recommends-best-foods-to-insert-into-your-rectum/

Für Rückfragen zum KI Newsletter: mail@marco-urban.de | Marco Urban — Vorstandsvorsitzender

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com