1. Entwurf Code of Practice on Transparency
Die vom AI Office beauftragten Arbeitsgruppen haben einen ersten Entwurf eines Verhaltenskodexes zur Transparenz bei KI-generierten Werken vorgestellt. Der Kodex wurde in Zusammenarbeit mit Hunderten von Teilnehmer*innen aus Industrie, Wissenschaft, Zivilgesellschaft und Mitgliedstaaten entwickelt und ist das Ergebnis der Arbeit zweier im November 2025 eingerichteter Arbeitsgruppen. Für den Deutschen Fotorat hat Dr. Jürgen Scriba teilgenommen. Wie der ersten CoP zu Urheberrechten ist auch dieser Kodex rechtlich nicht verbindlich, soll aber als Orientierung für die praktische Umsetzung des AI Act dienen und perspektivisch einen europäischen Standard für den Umgang mit KI-generierten Inhalten etablieren.
Demnach sollen Anbietende sicherstellen, dass von ihren Systemen erzeugte Inhalte technisch als KI-generiert erkennbar sind. Vorgesehen ist ein mehrschichtiges System, u. a. durch maschinenlesbare Metadaten, digitale Wasserzeichen oder Fingerprints und andere technische Marker, die eine spätere Erkennung ermöglichen. Diese Kennzeichnung soll möglichst standardisiert, plattformübergreifend und robust gegen Entfernung oder Manipulation sein. Die Transparenz soll nicht nur beim Erzeugen, sondern auch bei Weiterverarbeitung, erneuter Nutzung und Verbreitung auf Plattformen gewährleistet sein. Anbietende sollen ihre Systeme so gestalten, dass Kennzeichnungen nicht automatisch verloren gehen. Der Kodex empfiehlt, dass sie kostenlose oder leicht zugängliche Tools bereitstellen, mit denen Dritte (z. B. Journalismus, Plattformen und Behörden) prüfen können, ob Inhalte KI-generiert oder KI-manipuliert wurden. Anbietende sollen dokumentieren, welche Arten von Inhalten das System erzeugt, welche Transparenzmechanismen eingesetzt werden und wo die Grenzen der Erkennbarkeit liegen.
Auch für Betreibende (Akteur*innen die KI-Systeme einsetzen, Inhalte veröffentlichen oder verbreiten, z. B. Plattformen, Medienhäuser, Organisationen oder Einzelpersonen) – dazu gehören dann auch die meisten von uns – sieht der CoP Verpflichtungen vor. Zentral ist eine Offenlegungspflicht gegenüber dem Publikum: Wenn Inhalte vollständig KI-generiert oder wesentlich KI-manipuliert sind, muss dies klar und verständlich offengelegt werden. Besonders streng gilt dies für Deepfakes (Bild, Audio, Video) und KI-Texte zu Angelegenheiten von öffentlichem Interesse (z. B. Politik, Wahlen, gesellschaftliche Debatten). Auch wird eine einheitliche Kennzeichnung, kurzfristig durch einfache Hinweise („KI-generiert“, „AI-generated“) und mittelfristig durch ein einheitliches europäisches Symbol, vorgeschlagen. Bei der KI-Nutzung soll differenziert werden; Betreibende sollen unterscheiden zwischen vollständig KI-generierten Inhalten und KI-unterstützten Inhalten (z. B. Bearbeitung, Retusche, Übersetzung). Diese Differenzierung soll transparent kommuniziert werden, um pauschale Stigmatisierung zu vermeiden. Für Werke, die eindeutig künstlerischer, satirischer oder fiktional sind, soll eine zurückhaltende Offenlegung, die die Werkrezeption nicht beeinträchtigt, genügen. Eine plakative Kennzeichnung ist hier nicht zwingend.
Es gibt im Entwurf keine Differenzierung zwischen kommerzieller Kommunikation und redaktionellen Inhalten. Demnach muss auch Werbung als KI-generiert gekennzeichnet werden, wenn sie vollständig oder wesentlich KI-erzeugt ist. Wenn sie reale oder realistisch wirkende Personen zeigt und den Eindruck von Authentizität erweckt, fällt sie unter den Deepfake-Begriff des AI Act. Das ist bemerkenswert, weil vielfach argumentiert wird, dass Werbung ohnehin immer fiktiv ist. Das betrifft z. B. KI-generierte „Models“, künstliche Testimonials, nachgebildete Stimmen und fotorealistische Szenen ohne realen Ursprung.
Für einen ersten Entwurf finde ich das schon gar nicht schlecht; es findet sich vieles wieder, was wir in der Stellungnahme des Fotorates gefordert haben. Es bleibt natürlich das Problem der Differenzierung, wann etwas nur ein bisschen KI-generiert ist und wann es wesentlich KI-generiert wurde. Wie wird die Schwelle definiert, ab der sichtbar gekennzeichnet werden muss? Aus der Frage ergibt sich eine zweite: Wenn nahezu alle Bilder als KI-generiert gekennzeichnet werden, nimmt das dann noch jemand zur Kenntnis? Aber immerhin: Europa geht hier einen anderen Weg als die USA, die KI-Regulierung auf Bundesstaatsebene systematisch untergräbt.
Wer tiefer einsteigen will, findet den Entwurf hier: https://digital-strategy.ec.europa.eu/en/library/first-draft-code-practice-transparency-ai-generated-content
Und einen Artikel von Risto Uuk aus Substack: https://artificialintelligenceact.substack.com/p/the-eu-ai-act-newsletter-93-transparency
|