Transparenzpflichten für Medienschaffende bei GenAI

Lesedauer 8 Minuten

Medienschaffende aufgepasst: Inhalte, die mit generativer KI erstellt und veröffentlicht werden, unterliegen Transparenzpflichten. Sie müssen künftig erkennbar gekennzeichnet werden. Was nicht jeder weiß: Das erfolgt in Teilen schon in der Medienpraxis. Freiwillig und weltweit. Dahinter steht die CAI-Initiative. Initiiert von namhaften Medien- und IT-Unternehmen.

  • Der EU AI Act schreibt vor, dass Anbieter von KI-Sytemen die mit generativer KI erstellten Inhalte kennzeichnen müssen.
  • Das gilt für Texte, Bilder, Audio- und Video-Files.
  • Bei Deepfakes und (potenziellen) Fake News bestehen besondere Vorgaben für Betreiber von KI-Systemen.
  • Es gibt auch Ausnahmen.
  • Bei Nichtbeachtung der Transparenzpflichten drohen empfindliche Sanktionen.
  • Für die Umsetzung gibt es das Vorbild der CAI-Initiative.
  • Am Ende des Beitrags gibt es noch ein kurzes Quiz.

Normen zu diesem Beitrag:

  • Artikel 3 Nr. 1, 3, 4, 60, 68 EU AI Act
  • Artikel 50 (2), (4), (5) EU AI Act
  • Artikel 85 EU AI Act
  • Artikel 87 EU AI Act
  • Artikel 96 (1) d) EU AI Act
  • Artikel 99 (4) g) EU AI Act
  • Artikel 113 EU AI Act
  • Gründe 131, 133 EU AI Act

Transparenz bei GenAI-generierten Inhalten

Künftig müssen viele Akteure die Transparenzpflichten des EU AI Acts beachten, wenn sie Inhalte mit generativer KI (GenAI) erstellen und/oder diese veröffentlichen. Insbesondere Medienunternehmen sollten drei Szenarien kennen, die Transparenzpflichten begründen:

  • Das Erstellen von KI-generierten Inhalten durch GenAI-Systeme durch KI-Anbieter (Artikel 50 (2) EU AI Act).
  • Die Offenlegung von KI-generierten Deepfakes als Audio, Bild oder Video durch KI-Betreiber (Artikel 50 (4) S.1 EU AI Act).
  • Das Veröffentlichen von KI-generierten Text-Inhalten, die Fake News sein könnten, durch KI-Betreiber (Artikel 50 (4) S.4 EU AI Act).

Die drei Varianten im grafischen Überblick:

1. KI-generierte Inhalte

Artikel 50 (2) EU AI Act besagt im Wortlaut:

Anbieter von KI-Systemen, einschließlich KI-Systemen mit allgemeinem Verwendungszweck, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ergebnisse des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.“ 

Die Vorgabe als solche ist vergleichsweise klar. Fraglich ist aber, für welchen Akteurtypus die Vorschrift in der KI-Wertschöpfungskette greift:

  • Sie gilt für alle direkten Anbieter i.S.v. Artikel 3 Nr. 3 EU AI Act.
  • Sie gilt zudem für so genannte „nachgelagerte Anbieter“ i.S.v. Artikel 3 Nr. 68 EU AI Act.
  • Sie gilt nicht für Betreiber bzw. Nutzer i.S.v. Artikel 3 Nr. 4 EU AI Act.

Direkte Anbieter sind in erster Linie Unternehmen, welche generative KI-Systeme i.S.v. Artikel 3 Nr. 1 EU AI Act herstellen und am Markt anbieten. Nicht erfasst sind KI-Modelle.

Nachgelagerte Anbieter von KI-Systemen können auch Medienhäuser sein, falls sie ein (individualisiertes) eigenes GenAI-KI-System betreiben. Ob und wann dies tatsächlich der Fall ist, muss im Einzelfall geklärt werden. Man sollte aber diesen Aspekt als Medienunternehmen auf jeden Fall auf dem Radar haben – zumal die Übergangsfristen diesbezüglich nicht allzu lang sind (s.u.).

2. Ausnahmen möglich

Gemäß Absatz 2 S.3 gibt es für die diesbezüglichen Transparenzvorgaben auch Ausnahmen:

Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern.“ 

Wann diese Ausnahme greift, hängt u.a. von der Frage ab, was z.B. eine „Standardbearbeitung“ ist bzw. was eine „wesentliche“ Veränderung der Semantik und was eine „unwesentliche“ Veränderung ist bzw. wer dies entscheidet … Man wird sehen! Die Vielzahl von in der Praxis im Einzelfall zu konkretisierenden Rechtsbegriffen macht es im Moment nicht leicht, hier ohne offizielle Leitlinien Klarheit zu vermitteln.

Zum den mit GenAI erstellten Inhalten sind folgende Prüfungspunkte zu beachten:

Wie gleich gezeigt wird, ist je nach Medienart zu differenzieren: Absatz 1 gilt für alle Medien, also für Text, Bilder, Audio und Video. Betroffen sind aber „nur“ die Anbieter von KI-Systemen. Davon ist die Regelung des Absatz 4 zu unterscheiden, die im Hinblick auf Deepfakes nur für Audio, Video und Bild gilt bzw. bei Texten u.a. im Hinblick auf die Gefahr von Fake News spezifische Vorgaben macht – und zwar für Betreiber (s.u.). Und Betreiber eines KI-Systems ist man schneller als man denkt …

3. Wie Absatz 2 (technisch) umsetzen?

Liegt keine Ausnahme vor, stellt sich die Frage, wie genau die Umsetzung seitens der KI-Anbieter erfolgen soll – zumal der EU AI Act eine „Maschinenlesbarkeit“ der Kennzeichnung vorsieht und zugleich das Thema Aufwand/Nutzen-Relation betont. Hier helfen u.a. die Erwägungsgründe 131 und 133 des EU AI Acts weiter.

  • Gemeint sind z.B. Wasserzeichen, Metadatenidentifizierungen oder kryptografische Methoden. Weiterführende Details sind aktuell noch nicht bekannt.
  • Allerdings weist Artikel 96 (1) d) EU AI Act darauf hin, dass in Zukunft mit entsprechenden Leitlinien für die Umsetzung der Transparenzpflichten zu rechnen ist.

Solange diese Leitlinien nicht existieren, mag es für Anbieter von GenAI-Systemen und Medienhäusern aller Art sinnvoll sein, auf Nummer sicher zu gehen und im Zweifel alles zu tun, um mögliche Sanktionen zu vermeiden. Da die Implementierung entsprechender Kennzeichnungs-Tools und Prozessen Zeit kostet, sollte man nicht allzu lange warten.

Daher lohnt es sich schon jetzt, sich die CAI-Initiative genauer anzuschauen:

  • Dort findet man Praxisbeispiele, wie führende Medienhäuser eine vergleichbare Aufgabe schon seit Jahren freiwillig im Sinne einer Corporate Digital Responsibility (CDR) durchführen.
  • Die internationale Initiative erhielt dafür 2021 sogar einen CDR-Award. In Deutschland wird sie u.a. von dpa, Stern und Axel Springer unterstützt.

Das nachfolgende Video zeigt, was CAI Credentials für GenAI-generierte Inhalte sind und wie diese automatisiert in einen Medien-Beitrag eingefügt werden können. Die Umsetzung des Erfordernis einer maschinenlesbaren Form ist hier von besonderer Bedeutung (s.o.).

4. Sonderfall: Deepfakes

Von den allgemeinen Inhalten, die mit GenAI erstellt werden können, sind Deepfakes zu unterscheiden. Diese sind in Artikel 50 (4) S.1 EU AI Act geregelt.

Wörtlich heißt es dort:

Satz 1: „Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden

Die Definition von Deepfake findet sich in Artikel 3 Nr. 60 EU AI Act, dort heißt es:

„Deepfake“ einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde;“

Zunächst ein Video zur Brisanz und zunehmenden Relevanz von Deepfakes:

Wichtig ist u.a., dass von Absatz 4 S.1 die Betreiber, also Nutzer von KI-Systemen betroffen sind. Das ist gegenüber Absatz 2 eine erhebliche Erweiterung der Zielgruppe, denn Betreiber nutzen KI-Systeme, ohne selbst Anbieter zu sein, vgl Artikel 3 Nr. 5 EU AI Act.

Zu beachten sind noch die Sonderregeln für Deepfakes, die Kunst und Satire i.S.v. Absatz 2 S.3 sind: Dieses Thema wird zusammen mit der Meinungsfreiheit in diesem Beitrag separat behandelt.

Zum Thema Deep Fake sind folgende Prüfungspunkte zu beachten:

Und wie genau muss nun die Offenlegung bei Deepfakes erfolgen? Trotz intensiver Recherchen konnten hier noch keine validen Informationen gefunden werden. Sicher ist aber, dass sich auch der Bundestag recht intensiv mit diesem Thema befasst. Sobald es hier belastbare Informationen gibt, werden sie in den Kommentaren am Ende des Beitrags ergänzt.

5. Ähnlich und doch anders: Fake News

Die zuvor skizzierten Deepfakes i.S.v. Absatz 4 Satz 1 beziehen sich explizit auf die Formate Foto, Audio und Video. Dies macht auch Sinn, weil sie von textlichen News i.S.v. Absatz 4 Satz 4 abzugrenzen sind. Bei (potenziellen) Fake News spielt nämlich das Textformat eine besonders wichtige Rolle – nicht zuletzt bei Nachrichten.

Satz 4: „Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.“

Der erste Halbsatz bezieht sich auf die „Erzeugung“ von KI-generierten Textinhalten, die von Betreibern gekennzeichnet werden muss. Wer also Marketing-Texte oder Fachartikel oder sonstige Texte mit GenAI zur Veröffentlichung verfasst, sollte vorsichtig sein, was wie publiziert wird.

Der zweite Halbsatz betrifft explizit die Manipulation: Das Wort „Fake News“ taucht zwar nicht auf, was u.a. daran liegt, dass diese auch in Kombitnation mit Deepfakes erfolgen können. Umgekehrt sind „Fake-Nachrichten“, die z.B. über X (vormals Twitter) oder Facebook rasend schnell verbreitet werden, in vielen Fällen manipulierte Textinhalte ohne manipulierte Bilder, Audio-Files oder Videos.

Fake News sind laut wikipedia:

„Manipulativ verbreitete, vorgetäuschte Nachrichten …, die sich überwiegend im Internet, insbesondere in sozialen Netzwerken und anderen sozialen Medien, zum Teil viral verbreiten.

Fake News können mittels Text besonders gut und schnell verbreitet werden. Und das nicht nur über die Mainstream-Medien, sondern auch von Bloggern bzw. Social Media Schaffenden aller Art. Diese können als Betreiber, also Nutzer eines KI-Systems, entsprechende Texte erstellen – sei es mit oder ohne Manipulation.

In Anbetracht der Vielzahl von Bloggern und Influencern stellt sich die Frage,

  • Bin ich auch als Blogger von den Vorgaben betroffen?
  • Falls ja, wie kann bzw. muss die Kennzeichnung umgesetzt werden?

Zum Thema GenAI-Text-Inhalte und Fake News sind folgende Prüfungspunkte zu beachten:

6. Wie sehr sind Blogger betroffen?

Nachfolgend ein Blick auf einige Besonderheiten im Kontext von (potenziellen) Fake News:

  • Betreiber eines KI-Systems i.S.v. Artikel 3 Nr. 1 EU AI Act kann theoretisch jeder Blogbetreiber sein, der über sein Hobby öffentlich berichtet und künstlich erzeugte Texte oder gar Fake News herstellt.
  • Artikel 50 (4) S.4 EU AI Act stellt jedoch klar, dass die Information dem öffentlichen Interesse dienen muss, um unter die vorgeschriebene Transparenzpflicht zu fallen. Dieser unbestimmte Rechtsbegriff kann u.a. auf wikipedia inhaltlich erforscht werden.
  • Medienhäuser werden auf jeden Fall betroffen sein, kleine Blogs in der Regeln nicht. Hier ist aber sicherlich der Einzelfall entscheidend, weil auch Blogs oder User Generated Contents von Medienportalen eine erhebliche Reichweite haben können.
  • Artikel 50 (4) S.4 EU AI Act definiert folglich erst einmal eine Regel, die dann mit Satz 5 gleich wieder eingeschränkt wird, Zitat: „Wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.“ Hier hilft der Blick ins Impressum eines Angebots weiter.

Im Kern geht es also insbesondere um KI-generierte Inhalte, die ohne menschliche Prüfung publizierte und ohne Kennzeichnung z.B. im Fall von Fake News oder Deepfakes rasend schnell Verbreitung finden könnten. Wird in solchen Fällen nicht transparent gemacht, dass es sich um KI generierte und nicht weiter validierte Inhalte handelt, scheinen Sanktionen gerechtfertigt. So kann zumindest in vielen Fällen verhindert werden, dass wichtige Grundwerte wie die Informations- oder Pressefreiheit nicht durch KI-Missbrauch speziell in relevanten öffentlichen Medien gefährdet werden.

7. „Meinungsfreiheit“ für KI-generierte Inhalte?

Wie oben bereits angedeutet, sind künstlerische und satirische Inhalte eine potenzielle Ausnahme. Aus Sicht von Medienschaffenden, darunter auch viele Journalisten, mag sich die Frage stellen, was der Unterschied ist, ob man ohne oder mit KI eine „Meinung“ verbreitet.

Das Thema „Meinungsfreiheit und KI“ wurde u.a. von der Friedrich Naumann Stiftung beleuchtet, da es Überschneidungen der beiden Themen gibt. Im regulatorischen Kontext wird aber auch immer wieder der Spannungsbogen von „Meinungsfreiheit, Bevormundung und KI“ erzeugt. Das Bild des im Übermaß „bevormundenden Staates“ wird wiederum häufig von Verschwörungstheoretikern skizziert. Verschwörungstheorien werden ihrerseits häufig von KI generiert und verbreitet – und so schließt sich ein Kreis!

Wer dieses spannende Thema vertiefen möchte, sollte sich noch einmal genauer mit Artikel 5 (1) S.1 GG und dessen Schutzbereich auseinandersetzen. Dies ist in Bezug insbesondere im Hinblick auf Deepfakes das Thema dieses Beitrags. An dieser Stelle sei aber bereits darauf hingewiesen, dass die Meinungsfreiheit auch ihre Grenzen hat – insbesondere für die „Feinde der Freiheit„! KI-generierte „Meinung“ ist diesbezüglich keine Ausnahme.

8. Haftungsfragen

So richtig interessant wird es, wenn z.B. KI-generierte Inhalte von Dritten z.B. KI-generierte Fake-Kommentare oder Werbung automatisiert bei Medienangeboten eingebunden wird. Letztere kann in vielen Fällen leicht mit inhaltlichen Beiträgen verwechselt werden.

Mehr zum Thema Haftung für fremde Inhalte u.a. hier. Im Hinblick auf KI-Adds wird es sicherlich künftig neue Referenzfälle geben. Es ist durchaus zu erwarten, dass KI das (Online-)Marketing wie hier beschrieben in vieler Hinsicht signifikant verändern wird. Auch das Thema der Kontrolle KI-generierter Kommentare dürfte noch spannend werden.

Hier ein Beispiel von Deepfakes in Werbevideos (viele weitere finden sich in youtube):

Das Einbinden von Werbung in Internet-Portalen ist aus mehreren Gründen ein „heißes“ Thema, denn nicht nur die Erstellung, sondern auch die Aussteuerung bzw. Personalisierung erfolgt immer öfter mittels KI. Die Frage, ob dabei alles „datenschutzkonform“ abläuft ist von der Frage der hier gegenständlichen Transparenzpflicht zu trennen. Gleichwohl liegen die Themen dicht beieinander.

9. Barrierefreiheit, Fristen und Sanktionen

Achtung: Die Informationen zur Transparenz müssen künftig den geltenden Barrierefreiheitsanforderungen entsprechen, siehe Artikel 50 (5) S.2 EU AI Act! Zum Thema Barrierefreiheit helfen u.a. die Informationen bei wikipedia weiter. In der Regel sind vor allem Öffentlich rechtliche Akteure von dieser Pflicht betreuen, also auch von Öffentlich-rechtlichen Medien und Behörden.

Diese Vorgaben zur Transparenz greifen gemäß Artikel 113 EU AI Act als Teil von Kapitel IV bereits 12 Monate nach Inkrafttreten des EU AI Acts, also vermutlich im Sommer 2025. Wer sie nicht korrekt umsetzt, muss gemäß Artikel 99 (4) g) EU AI Act mit empfindlichen Strafen rechnen: Bis zu € 15 Mio. oder 3% vom Umsatz.

Da gerade Medienhäuser eine wichtige Leitfunktion haben, ist durchaus damit zu rechnen, dass sie schon früh bei Verstößen gegen die Transparenzpflicht mit Sanktionen belegt werden. Aufgrund der unzähligen Menge öffentlicher Medien-Portale ist es für Aufsichtsbehörden allerdings nicht ganz so einfach, flächendeckende Marktbeobachtungen durchzuführen. Insofern werden Hinweise aus der Bevölkerung z.B. von Kunden sowie Beschwerden i.S.v. Artikel 85 EU AI Act oder Hinweisgeber i.S.v. Artikel 87 EU AI Act (insbesondere aktuelle und ehemalige Mitarbeiter aus Medienhäusern) eine wichtige Rolle bei der Erkennung und Meldung unterlassener Umsetzung von Transparenzpflichten spielen.


Zum Schluss noch ein kurzer Test zu den Transparenzpflichten von Medienanbietern, die KI-generierte Inhalte verwenden:

Quiz zu den Transparenzpflichten für KI-generierte Inhalte und Deepfakes i.S.v. Artikel 50 EU AI Act

In diesem Quiz haben wir fünf Fragen zum Thema „Transparenpflichten für KI-generierte Inhalte und Deepfakes“ i.S.v. Artikel 50 EU AI Act für Dich zusammengestellt.

1 / 7

Können Medienunternehmen Anbieter eines generativen KI-Systems sein und damit unter die Transparenzpflichten von Artikel 50 (2) EU AI Act fallen?

2 / 7

Wie heißt die internationale Initiative, die bereits operative Lösungen für die Transparenzpflichten entwickelt hat?

3 / 7

Wie unterscheiden sich Deep Fakes und Fake News i.S.v. Artikel 50 (4) EU AI Act?

4 / 7

Sind auch Betreiber eines privaten Blogs von den Transparenzpflichten des Artikel 50 (4) EU AI Act für Fake News betroffen?

5 / 7

Gilt Artikel 50 (4) S.4 EU AI Act bei Fake News auch dann, wenn eine private oder juristische Person die redaktionelle Verantwortung für die mit KI-generierten Inhalte trägt?

6 / 7

Innerhalb welches Zeitraums nach Inkrafttreten des EU AI Act ist die Transparenzpflicht des Artikel 50 EU AI Act umzusetzen?

7 / 7

Wie hoch können die Sanktionen sein, wenn die Transparenzpflichten von Artikel 50 EU AI Act nicht ordnungsgemäß umgesetzt wurden?

Your score is

Die durchschnittliche Punktzahl ist 0%

0%


Quellen, die diesem Artikel zugrundeliegen oder ihn ergänzen:


Über den Autor:

Ein Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert