Sie sind vom Grundgesetz geschützt: Die Meinungs-, Religions-, Kunst- als auch die Wissenschaftsfreiheit. Ihr Verhältnis zum EU AI Act hat sich vom ersten Entwurf 2021 bis zum finalen Stand 2024 etwas gewandelt. Wie weit geht nun die diesbezügliche Freiheit, wenn KI-generierte Inhalte z.B. künstlerisch oder satirisch verwendet werden?
- Bei Deepfakes und Fake News prallen die Transparenzpflichten für KI-generierte Inhalte i.S.v. Artikel 50 EU AI Acts auf die Grundrechte von KI-Betreibern.
- Explizit gilt dies für die die Meinungs-, die Religions-, die Kunst- sowie die Wissenschaftsfreiheit.
- Sie sind in Artikel 4, 5 GG sowie Artikel 10, 11, 13 der EU-Grundrechtecharta geregelt.
- Wichtig sind u.a. zwei verschiedene Versionen des EU AI Acts von 2021 und 2024. Die Unterschiede werden untersucht.
- Am Ende gibt es noch einen kurzen Test.
Normen zu diesem Beitrag:
- Artikel 3 Nr. 5, 60 EU AI Act
- Artikel 50 (4) EU AI Act
- Artikel 99 EU AI Act
- Artikel 113 EU AI Act
- Entwurf 2021 EU AI Act
- Gründe 134, 136 EU AI Act
Zwei Versionen des EU AI Acts
Im Entwurf vom April 2021 regelte Artikel 52 a.F. das Thema „Transparenzpflichten“ im Fall generativer KI-Systeme. Vorgesehen waren „minimale“ Pflichten für deren Betreiber.
Der endgültige Artikel 50 EU AI Act bestimmt nicht mehr ganz so „minimale“ Transparenzpflichten. Auffällige Veränderungen gibt es u.a. in Hinblick auf die Einschränkungen im Fall von Deepfakes durch die Grundrechte der Meinungs- und Wissenschaftsfreiheit.
Transparenzpflichten bei Deepfakes 2021/2024
Dieser Beitrag steht im Zusammenhang mit dem Beitrag zu den Transparenzpflichten von Artikel 50 EU AI Act im Medienumfeld.
1. Draft vom April 2021
Zunächst zur vorläufigen Fassung von Artikel 52 EU (3) a.F. vom April 2021 (heute Artikel 50 EU AI Act). Dieser lautet:
„Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.
Unterabsatz 1 gilt jedoch nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.“
Spannend bei diesem Entwurf ist die Ergänzung in den (mittlerweile nicht mehr separat ausgewiesenen) „Kontext-Hinweisen“ des Entwurfs von 2021. Darin heißt es am Ende von Punkt 1.1: „Damit die Sicherheit und die Einhaltung bestehender Rechtsvorschriften zum Schutz der Grundrechte über den gesamten Lebenszyklus von KI-Systemen hinweg gewahrt bleiben, werden Anbietern und Nutzern dieser Systeme berechenbare, verhältnismäßige und klare Pflichten auferlegt. Für einige KI-Systeme werden nur minimale Transparenzpflichten vorgeschlagen, insbesondere für den Einsatz von Chatbots oder ,Deepfakes’“.
2. Finale Fassung von 2024
Nun zur finalen Fassung von Artikel 50 (4) EU AI Act vom Frühjahr 2024. Er hat die vorläufige Version des zuvor erwähnten Artikel 52 ersetzt:
„Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen ist.
Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen analogen Werks oder Programms, so beschränken sich die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt. Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.
Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.“
Die Definition von Deepfakes ist weggefallen, sie findet sich nun in Artikel 3 Nr. 60 EU AI Act. Zudem hat sich die Einschränkung bei Deepfakes von Bild, Audio und Video geändert. Es sind auch neue Transparenzpflichten für Text dazu gekommen! Aus den geplanten „minimalen“ sind „erweiterte“ Transparenzpflichten für Betreiber geworden. Auffällig scheint vor allem, dass die Meinungs- und Wissenschaftsfreiheit nicht mehr explizit genannt werden.
3. Meinungs- und Wissenschaftsfreiheit?
Die Meinungs- und Wissenschaftsfreiheit wurden bei Deepfakes im finalen Text als Einschränkung weggelassen. Lediglich die Kunstfreiheit wird noch hervorgehoben. Neu dazu gekommen sind für Deepfakes die wesentlich spezifischeren Einschränkungen im Fall von kreativen, satirischen und fiktionalen Werken, die teils der Meinungs- und teils der Kunstfreiheit i.S.v. Artikel .
Was bedeutet dieser Wandel?
Zunächst ist festzustellen, dass bei einer EU-Gesetzgebung nicht das Grundgesetz der Bundesrepublik Deutschland der alleinige Maßstab ist, sondern die Charta der Grundrechte in der EU. Diese regelt in Artikel 10, 11 und 13 die Religionsfreiheit, die Meinungs- und Informationsfreiheit sowie die Kunst, Forschungs- und Wissenschaftsfreiheit. Inhaltlich entsprechen sie im Wesentlichen dem Grundgesetz, das aber z.B. im Hinblick auf die Pressefreiheit mit Artikel 5 GG etwas expliziter als die EU-Charta ist.
Im Hinblick auf die Neuregelungen hilft erst Ziffer 134 weiter:
„Die Einhaltung dieser Transparenzpflicht sollte nicht so ausgelegt werden, dass sie darauf hindeutet, dass die Verwendung des KI-Systems oder seiner Ausgabe das Recht auf freie Meinungsäußerung und das Recht auf Freiheit der Kunst und Wissenschaft, die in der Charta garantiert sind, behindern, insbesondere wenn der Inhalt Teil eines offensichtlich kreativen, satirischen, künstlerischen, fiktionalen oder analogen Werks oder Programms ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen. In diesen Fällen beschränkt sich die in dieser Verordnung festgelegte Transparenzpflicht für Deepfakes darauf, das Vorhandenseins solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks, einschließlich seiner normalen Nutzung und Verwendung, nicht beeinträchtigt und gleichzeitig den Nutzen und die Qualität des Werks aufrechterhält.“
4. Nach wie vor gegeben
Der Gesetzgeber ist sich also bewußt, dass die Meinungsfreiheit als Einschränkung der Transparenzpflichten nach wie vor existiert, auch wenn sie nicht mehr explizit erwähnt wird. Dass sie ebenso wie die Wissenschaftsfreiheit nicht mehr explizit erwähnt wird, ändert also nicht grundsätzlich die Rechte von KI-Betreibern.
Das Ganze ist systematisch zu bewerten: Artikel 50 (4) EU AI Act ist Teil von Kapitel IV und nicht von Kapitel III, welcher die Fälle von Hochrisiko-KI regelt. Deepfakes bergen zwar durchaus hohe Risiken für die Gesesellschaft als auch einzelne Personen, sie sind aber das Ergebnis einer individuellen KI-Nutzung und keine generelle Gefahr irgendeines generativen KI-Systems. Insofern ist es auch verständlich, dass sich Artikel 50 (4) EU AI Act an die Betreiber und Nutzer einer KI wendet und nicht an deren Anbieter. Umgekehrt verdeutlicht die neue Fassung, dass die Gefahren von KI nicht allein von Anbietern und ihren KI-Systemen, sondern eben auch von den Betreibern von KI ausgehen – gerade dann, wenn das KI-System als solches keine Hochrisiko-KI ist.
5. Zusammenspiel mit Digital Service Act
In Ziffer 136 der Begründung heißt es zudem:
„Die Pflichten, die Anbietern und Betreibern bestimmter KI-Systeme mit dieser Verordnung auferlegt werden, die Feststellung und Offenlegung zu ermöglichen, dass die Ausgaben dieser Systeme künstlich erzeugt oder manipuliert werden, sind von besonderer Bedeutung für die Erleichterung der wirksamen Umsetzung der Verordnung (EU) 2022/2065. Dies gilt insbesondere für die Pflicht der Anbieter sehr großer Online-Plattformen oder sehr großer Online-Suchmaschinen, systemische Risiken zu ermitteln und zu mindern, die aus der Verbreitung von künstlich erzeugten oder manipulierten Inhalten entstehen können, insbesondere das Risiko tatsächlicher oder vorhersehbarer negativer Auswirkungen auf demokratische Prozesse, den gesellschaftlichen Diskurs und Wahlprozesse, unter anderem durch Desinformation.“
Die hier genannte Verordnung (EU) 2022/2065 ist der Digital Service Act, der seit Februar 2024 u.a. vor Desinformation im Internet schützen soll. Insofern sind die Transparenzpflichten von Artikel 50 EU AI Act nicht als isolierte Regelungen zu verstehen, sondern als Teil eines „Gesamtpakets“. Insofern ist festzustellen, dass die neue Regelung des Artikel 50 EU AI Act die Grundrechte nicht weiter einschränkt als die Vorgängerversion.
Zusammenfassend läßt sich sagen, dass der Gesetzgeber in der Version 2024 nach wie vor die gleiche Grundlinie vertritt wie 2021. Die Grundrechte werden nicht stärker eingeschränkt als im Entwurf. Lediglich ein Aspekt aus dem Kontext von 2021 ist etwas unter die Räder gekommen: Das ursprüngliche Ziel der „berechenbaren und klare Pflichten“ und das der „minimalen“ Vorgaben für Anbieter und Nutzer. Umgekehrt hat der Gesetzgeber nun näher konkretisiert, unter welchen Voraussetzungen Deepfakes mit eingeschränkten Transparenzpflichten möglich sind. Das ist durchaus ein Vorteil.
6. Was ist mit Religion?
Interessant erscheit ein möglicherweise bislang noch unterschätzter Aspekt, dessen Relevanz im Hinblick auf Deepfakes künftig wachsen könnte: Ihre Verwendung für religiöse Zwecke. Zum Thema „Veränderung von Glauben und Religion durch KI“ hat sich schon die BBC einige Gedanken gemacht. Wie heißt es dort so schön: „Anything that brings you closer to god is a good thing.“
Besonders ist beim religiösen Bereich, dass (noch mehr als Kunst und Satire) das primäre und glaubwürdige Erleben eines Fakes von allen Seiten dauerhaft gewollt sein kann – und gerade nicht das Aufdecken des Fakes.
Im Hinblick auf einen Gott, der keine reale Person ist, mag dies noch unproblematisch sein. Aber es gibt auch ohne KI viele Videos von „Propheten“ mit vermeintlich „magischen Kräften“. Diese könnten durch gezielte Deepfakes auf eine neue plausibel bzw. real wirkende Ebene gehoben werden z.B. um Anhänger für eine Sekte zu gewinnen oder deren Glauben zu vertiefen.
7. Aktuelles Beispiel
Ein aktuelles Beispiel ist die Dokumentation von Jan Böhmermann über einen Guru namens Bhakti Marga. Dieser zeigt sich auf vielen echt wirkenden Bildern mit Prominenten, und in verschiedenen Videos verbringt er sogar „Wunder“. Zitat: „Wenn der Guru also etwas sagt, dann ignoriere vollständig, was du fühlst“. Warum sollte das aus Sicht eines Gurus nicht auch für von ihm KI-generierten Deepfakes gelten? Sicher ist: Dieser Guru zieht ggf. auch vor Gericht.
Muss man also nur den perfekten KI-Deepfake offenlegen? Und einen weniger perfekten Fake (diesmal ohne KI) nicht? Dann könnten der Guru ebenso wie die Anhänger einer Sekte behaupten, sie dürften nicht mehr glauben was sie wollen. Und man könnte sich dabei möglicherweise sogar auf die Religionsfreiheit beziehen.
Wird es wirklich so kommen? Man wird sehen!
Das Thema Religion wird im Kontext von Deepfakes bewußt thematisiert! Zwar beachtet der EU AI Act im Hinblick auf religiöse Diskriminierung vieles. Aber bei Transparenzpflichten macht er keine Aussagen. Andererseits – und das ist bemerkenswert – zieht er Meinungs-, Kunst- und Wissenschaftsfreiheit zumindest als Einschränkung in Erwägung.
8. Fristen und Sanktionen
Als Teil von Kapitel IV gilt gemäß Artikel 113 EU AI Act die Übergangsfrist von 12 Monaten nach Inkrafttreten des EU AI Acts. Dies ist im am 2. August 2025 der Fall.
Siehe zu den Fristen des EU AI Acts auch diesen Beitrag:
Im Hinblick auf Sanktionen gilt Artikel 99 (4) g) EU AI Act. Es kann zu Geldbußen bis € 15 Mio. oder 3% vom Umsatz kommen.
9. Fünf Beispielsfälle
Was heißt das Ganze nun konkret? Wie ist es bei folgenden Szenarien? Gelten hier die Transparenzpflichten – und wie weit?
- Muss ein Künstler ein mit KI generiertes Bild oder Video von einem Marsmenschen i.S.v. Artikel 50 (4) EU AI Act kennzeichnen?
- Muss eine religiöse Sekte ein mit KI generiertes Bild oder Video von ihrem Gott entsprechend kennzeichnen?
- Muss ein Journalist eine KI-generierte Geschichte über Napoleon kennzeichnen, wenn unklar ist, ob sie sich jemals so zugetragen hat?
- Muss ein Kabarettist ein KI-generiertes, täuschend echtes Video kennzeichnen, in dem Politiker etwas sagen, das sie nie gesagt haben?
- Muss ein Klimaleugner ein täuschend echtes Fake-Video offenbaren, wenn darin ein Umweltpolitiker den Klimawandel leugnet?
Die Antworten:
- Ein Marsmensch kann schon per Definition nicht als Deepfake gewertet werden, weil er keine „wirkliche Person“ darstellt. Dass ein solcher Marsmensch von einem Künstler mittels KI-generiert wird, ist unwesentlich, auch der fiktionale Hintergrund ist nebensächlich. Artikel 13 EU Charta muss nicht bemüht werden. Eine Offenlegung ist nicht notwendig.
- Ein Gott – welcher Religion auch immer – ist ebenfalls keine „wirkliche Person“. Daher gilt auch hier, dass die Transparenzpflichten nicht einschlägig sind. Die Religionsfreiheit i.S.v. Artikel 10 EU Charta muss nicht bemüht werden.
- Ein Journalist genießt zwar die Pressefreiheit i.S.v. Artikel 11 (1) und (2) EU Charta (Freiheit der Meinung und der Medien). Napoleon ist auch eine reale Person der Geschichte. Allerdings kann von ihm mittels Audio kein Werk erstellt werden, das mit der realen Person als „echt“ verwechselt werden könnte. Dass der Beitrag mit KI generiert wurde, ist also auch hier unwesentlich.
- Dieses Beispiel wird u.a. im Fall der heute show schon jetzt regelmäßig praktiziert. Der satirische Kontext ist offensichtlich. Daher muss erst im Anschluss mündlich dargestellt werden, dass ein solches Video mit KI erstellt worden ist. In ähnlicher Form wird die Offenlegung zu erfolgen haben, wenn der EU AI Act diesbezüglich gültig ist. Hier: 12 Monate nach Inkrafttreten, siehe Artikel 113 EU AI Act.
- In diesem Fall ist weder ein satirischer noch ein künstlerischer oder kreativer Hintergrund offensichtlich. Vielmehr handelt es sich um eine bewußte Manipulation, die gerade nicht offensichtlich sein soll. Das Video muss also entsprechend als Deepfake gekennzeichnet sein.
Man muss natürlich die Frage stellen, ob im letzten Fall eine Transparenzvorgabe überhaupt Wirkung erzielen kann. Schwierig bei einem Deepfake der gezielt erstellt wird, um manipulierte Inhalte zu verbreiten. Für den Klimaleugner, der das Video verbreitet, könnten die Sanktionen als Betreiber eines KI-Systems allerdings recht empfindlich ausfallen. Insofern ist zumindest die Verbreitung eines Deepfake-Videos erheblich sanktionierbar. Das kann Wirkung entfalten. Zu sonstigen Haftungsfragen u.a. siehe dieses PDF.
Schreibe den ersten Kommentar