Viele Unternehmen und Organisationen fragen sich, ob und bis wann KI-Kompetenz in welcher Form umzusetzen ist. Bisweilen wird sogar behauptet, dass KI-Kompetenz zum 2. Februar 2025 mit entsprechenden Schulungen verpflichtend umgesetzt sein müsse. Stimmt das? In diesem Artikel werden die gesetzlichen Grundlagen erläutert und analysiert.
- Artikel 4 EU AI Act regelt als Teil der allgemeinen Vorschriften das Thema KI-Kompetenz.
- Nach verschiedenen Auslegungsmethoden ist eine direkte, explizite Pflicht zur Umsetzung von KI-Kompetenz schwer zu begründen.
- Es handelt sich vielmehr um eine Zielsetzung bzw. eine Art Leitlinie, die freiwillig beachtet und ohne Fristbindung umgesetzt werden kann.
- Bei sonstigen Pflichtverletzungen ist Artikel 4 EU AI Act jedoch ein wichtiger Faktor. Unter anderem, um die Höhe von Sanktionen zu bestimmen.
Normen zu diesem Beitrag:
- Artikel 3 Nr. 56 EU AI Act
- Artikel 4 EU AI Act
- Artikel 16 ff EU AI Act
- Artikel 53 ff EU AI Act
- Artikel 95 EU AI Act
- Artikel 99 EU AI Act
- Artikel 113 EU AI Act
Ist KI-Kompetenz Pficht?
Artikel 4 EU AI Act beschäftigt sich mit der Förderung von KI-Kompetenz. Die Diskussion darüber, ob dies als verbindliche Pflicht anzusehen ist, hat selbst unter Juristen und Branchenexperten zu Kontroversen geführt.
So lange diese Debatte akademisch ist, besteht wenig Grund zur Sorge. Bisweilen wird aber u.a. im Internet mittels Ads behauptet, KI-Kompetenz müsse von Unternehmen verpflichtend bis zum 2. Februar 2025 umgesetzt sein. Diese Behauptung findet sich auch in verschiedenen „Verkaufsprospekten“ wieder – nicht zuletzt von namhaften Anwaltskanzleien, die diesbezügliche Schulungen und Beratungen anbieten (bewußt ohne Nachweis: Bitte selbst googlen!).
Nachfolgend einige Screenshots von entsprechenden Google-Ads. Sie erscheinen, wenn man nach KI-Kompetenz sucht (Stand des Abrufs: 26.09.2024):
Auch google gemini sagt selbstbewußt (2x abgefragt am 26.09.2024):
Schon eine solche Information kann rechtliche Fragen aufwerfen, wenn nicht gesichert ist, dass eine „Pflicht“ überhaupt besteht. Siehe dazu u.a. unten Punkt 2. sowie die beigefügten Kommentare am Ende des Beitrags.
1. Pro und Contra
Die Herausforderungen, die sich in Anbetracht dieser Aussagen stellen:
- Begründet Artikel 4 überhaupt eine eigenständige gesetzliche „Pflicht“ – trifft dieser Begriff zu oder ist er irreführend!?
- Um die Frage zu klären, werden unter Berücksichtigung juristischer Auslegungsmethoden die Argumente für und gegen eine „Pflicht“ zur KI-Kompetenzförderung untersucht.
- Anschließend wird geprüft, bis wann und wie KI-Kompetenz umgesetzt sein sollte.
Ein geläufiger Spruch besagt: Zwei Juristen, drei Meinungen. Dies ist auch in diesem Fall eine Herausforderung. Schwierig wird es jedoch, wenn mit juristischen „Meinungen“ im Markt faktischer Druck ausgeübt wird, z.B. um Schulungen zu verkaufen. Insbesondere die Ads vermitteln den Eindruck: „Du musst jetzt schnell handeln! Sonst verletzt Du eine gesetzliche Pflicht.“ Gerade im Hinblick auf Behörden ein schwieriger Aspekt, denn sie sind an das Gesetz gebunden. Aufgrund dieser Umstände wird der Abwägung besondere Aufmerksamkeit geschenkt. Aufforderungen, wie jene in den Ads sind nur dann rechtens, wenn nachweislich eine explizite Pflicht existiert, die sich direkt aus Artikel 4 ableiten läßt.
Die nachfolgende Tabelle zeigt die klassischen vier juristischen Auslegungsmethoden im Fall der Contra-Argumente.
Mit dieser Auslegung muss sich jeder auseinandersetzen, der eine Pflicht zur KI-Kompetenz behauptet. Das gilt erst recht, wenn dies mit Aussagen zu einer sehr kurz erscheinenden Umsetzungsfrist verbunden wird:
Gerade die Kombination beider Aspekte bewirkt hohen Handlungsdruck (Pflichtbehauptung & Fristbehauptung)!
Eine mögliche Pro-Argumentation wird nachfolgend im Sinne einer unvoreingenommenen Prüfung mit aufgelistet, um sie mit der nachfolgenden Contra-Argumentation zu vergleichen.
1.1 Pro: Argumente für eine Pflicht zur KI-Kompetenz
Enthält Artikel 4 eine gesetzliche Pflicht um die umfassenden Anforderungen des EU AI Acts erfüllen zu können?
1.1.1 Indirekte Pflicht durch andere Vorschriften?
Artikel 16 ff EU AI Act und andere Vorschriften legen spezifische Pflichten für Anbieter und Betreiber von KI-Systemen fest. Inhalte betreffen das Risikomanagement, Sicherheitsstandards und Transparenz.
Zur Frage Anbieter vs. Betreiber auch dieser Beitrag:
Ohne ausreichende Kompetenzen im Umgang mit KI, so könnte man argumentieren, wäre es unmöglich, diese Vorschriften ordnungsgemäß zu erfüllen. Ein Unternehmen, das keine Schulungen zur KI-Kompetenz durchführt, könnte also indirekt gegen andere, verbindliche Vorschriften verstoßen.
1.1.2 Systematische Einordnung von Artikel 4 EU AI Act?
Artikel 4 EU AI Act ist Teil der allgemeinen Bestimmungen des AI Acts. Kapitel I schafft den Rahmen für die Umsetzung der übrigen Vorschriften. Wenn ein Unternehmen die Pflichten zur Sicherheit und Risikobewertung erfüllen soll, braucht es das nötige Wissen und die Fähigkeiten. Insofern ist der Aufbau von KI-Kompetenz in diesen Fällen ohne Frage faktisch erforderlich.
Artikel 4 könnte daher als grundlegende Voraussetzung für die Einhaltung der restlichen Vorschriften interpretiert werden. Dies würde erneut zu einer Art „indirekter Pflicht“ führen. Eine indirekte Pflicht entsteht, wenn eine bestimmte Handlung oder Unterlassung zwar nicht direkt vorgeschrieben ist, aber als notwendige Folge aus anderen, direkt formulierten Pflichten abzuleiten ist. Es ist dann eine Verpflichtung, die sich aus dem Zusammenspiel mehrerer Rechtsnormen ergibt.
Indirekte Pflichten gibt es dann aber nur für KI-Systeme hoher und mittlerer Risiken sowie für GPAI-Modelle – aber z.B. nicht für KI-Systeme mit geringen Risiken.
1.1.3 Zeitliche Frist bis zum 2. Februar 2025?
Artikel 113 a) EU AI Act könnte Unternehmen bis zum 2. Februar 2025 Zeit geben, um alle grundlegende Vorkehrungen zu treffen. Aus Sicht einiger Schulungsanbietern wird dies so gedeutet, dass bis zu diesem Datum KI-Kompetenzen implementiert und daher bis 2. Februaer 2025 Schulungen durchgeführt werden müssen. Nur so sei sichergestellt, dass die anderen, spezifischeren Pflichten erfüllt werden können.
1.1.4 Der europäische KI-Pakt als Signal?
Mehr als 100 Unternehmen haben bereits in diesem Jahr den europäischen KI-Pakt unterzeichnet. Es ist eine freiwillige Initiative, die darauf abzielt, die im AI Act festgelegten Bestimmungen schon vor der gesetzlichen Frist umzusetzen. Dies zeige, so könnte man argumentieren, dass sich Unternehmen proaktiv darauf vorbereiten, die Anforderungen zu erfüllen, auch wenn der Gesetzgeber sie noch nicht zwingend vorschreibt.
Der Pakt unterstreicht auf jeden Fall die Bedeutung von Schulungen und Kompetenzen im Umgang mit KI-Systemen, um Risiken zu minimieren und den ethischen Umgang mit KI zu fördern.
1.1.5 Zwischenfazit Pro
Es ist in Anbetracht einiger Aspekte zumindest von einer Grauzone auszugehen, welche indirekte Pflichten begründen könnte.
1.2 Contra: Argumente gegen eine Pflicht zur KI-Kompetenz
Auf der anderen Seite ist zu beachten, dass die Förderung von KI-Kompetenz aus verschiedenen Gründen nicht als bindende Verpflichtung anzusehen ist – wenn überhaupt, dann nur mittelbar im Rahmen weiterer expliziter Pflichten. Basis für diese Ansicht ist der klare Wortlaut des Gesetzes und die Struktur der Vorschriften.
1.2.1 Wortlaut und Freiwilligkeit:
Artikel 4 EU AI Act handelt von der Förderung von Kompetenzen im Umgang mit KI. Die Wortwahl deutet darauf hin, dass es sich um eine Zielsetzung bzw. Empfehlung und nicht um eine verbindliche Verpflichtung handelt. Das gesamte Kapitel I enthält keinerlei Pflichten. Es regelt Ziele, Definitionen, Grundlagen und Leitlinien wie die der Menschenzentrierung (dazu ausführlich dieser Beitrag).
Artikel 4 EU AI Act verwendet keine obligatorischen Formulierungen wie „müssen“ oder „sind verpflichtet“. Viele andere Artikel des EU AI Act legen spezifische Pflichten für Anbieter und Betreiber explizit fest. Zu nenen sind z.B. Kapitel III, Abschnitt 3, Kapitel IV, Kapitel V, Abschnitt 2 und 3. In diesen Teilen des EU AI Acts ist explizit von „Pflichten“ die Rede!
1.2.2 Ziffer (20) der Gründe und Artikel 95 EU AI Act betonen Freiwilligkeit:
Ziffer (20) der Gründe und Artikel 95 (2) c) EU AI Act machen klar, dass die Entwicklung, und damit auch der Umfang und Ausbau von Kompetenzen im Rahmen von Verhaltenskodizes in vieler Hinsicht freiwillig ist. Unternehmen sollen ermutigt werden, selbständig Schulungen anzubieten und Kompetenzen aufzubauen. Es gibt aber keine Vorschrift, die dies für alle und jeden verbindlich macht:
- Weder im Hinblick auf die Art und Weise,
- den Zeitpunkt für die Umsetzung,
- noch im Hinblick auf den Umfang.
Die Verhaltenskodizes werden als freiwillige „Best Practices“ beschrieben. Sie und damit bzgl. Zeitpunkt, Umfang und Struktur flexibel. Auch die Inhalte oder Anbieter der Schulungen sind in nicht zwingend vorgeschrieben. Im Fall einer sanktionierbaren Verpflichtung zur KI-Kompetenz wären diese Vorgaben nicht ausreichend und zu unbestimmt.
1.2.3 Historische Auslegung
Der Entwurf des EU AI Acts vom Juni 2021 enthielt nicht ein einziges Mal den Begriff „KI-Kompetenz“. Lediglich in Ziffern wie (48) wurde „Kompetenz“ im Kontext von Hochrisiko-KI erwähnt. Erst mit der geleakten Version Ende 2023/Anfang 2024 wurde das Thema „KI-Kompetenz“ eingebracht und öffentlich diskutiert.
Verfolgt man die Entstehungsgeschichte des EU AI Acts (z.B. hier), wird klar, dass KI-Kompetenz erst sukzessive Einzug in den EU AI Act gefunden hat. Sie wurde mutmaßlich ganz bewußt in den Teil der Grundlagen von Kapitel I eingefügt. Dafür spricht auch Ziffer (81) a.F., die besonders an die Freiwilligkeit für all jene KI-Systeme appeliert, die nicht Hochrisiko-KI sind. Gleiches gilt für Punkt 3.3 der Kontext-Begründung, die nur in der alten Fassung enthalten ist.
Kapitel I enthielt somit bereits in der ersten Version vor allem Grundlagen, allgemeine Bestimmungen und nicht zuletzt übergreifende Ziele. Pflichten werden somit in keiner der verschiedenen Versionen von Kapitel I des EU AI Acts begründet.
Insofern ist die Regelung von Artikel 4 EU AI Act zwar als ein überragend wichtiges Ziel zu verstehen. Es ist jedoch keine sanktionierbare Pflicht, kein Zwang, sondern eine wichtige Aufforderung und Leitlinie!
1.2.4. Kürze der Umsetzungszeit
Würde der EU AI Act nur ein halbes Jahr Vorbereitungs- und Umsetzungszeit nach dem Inkrafttreten einräumen, hätten Unternehmen und Organisationen keine Zeit, sich angemessen organisatorisch auf diese Pflicht vorzubereiten. Es ist anzunehmen, dass der Aufbau eines organisatorischen Fundaments (Zuständigkeiten, Budget, Schulungspläne) wesentlich mehr als sechs Monate Zeit benötigt und zudem eine Daueraufgabe ist.
Die Pro-Argumentation einer Pflichtbegründung mit Verweis auf Artikel 113 a) EU AI Act wird schon allein dadurch relativiert, dass z.B. Artikel 113 c) EU AI Act explizit darauf hinweist, dass auch die diesbezüglichen Pflichten erst dann beginnen, wenn die 36 Monate abgelaufen sind. In Artikel 113 a) ist jedoch keinerlei Hinweis auf Pflichten enthalten.
Ein fristbasierter „Hauruck-Ansatz“ kann im Hinblick auf KI-Kompetenz nicht im Sinne des Gesetzgebers sein: Selbst für die Aufsichtsbehörden werden Kompetenzen nur „schrittweise“ geschaffen. Relevant ist zudem, dass diesbezügliche Behördenpflichten nur begrenzt geregelt sind, etwa in Artikel 70 und 76 EU AI Act. Zudem wurde ein Beschwerderecht für fehlende Kompetenzen notifizierter Stellen eingeräumt: Ein Recht, das nicht sofort greift! Wieso sollten Unternehmen und andere Organisationen dann derart „unter (Zeit-)Druck“ gesetzt werden?
1.2.5 Alle Risiko-Klassen werden von KI-Kompetenz erfaßt
Artikel 4 EU AI Act differenziert nicht nach Risikoklassen, sondern nach Anwendungskontexten. KI-Kompetenz wird als wichtiges Instrument betrachtet. Auch für KI-Systeme mit geringem Risiko, für die sonst keine expliziten Pflichten für Anbieter und Betreiber gelten. Der AI Act sieht vor, dass bei KI-Systemen mittlerer und geringer Risiken freiwillige Elemente in Verhaltenskodizes integriert werden, wie sie für Hochrisiko-KI vorgeschrieben sind. Dies wird in Ziffer (165) der Begründung ausdrücklich erwähnt.
Das ist logisch, da für KI-Systeme mit geringem Risiko keine verpflichtenden Vorgaben bestehen. Dennoch sollen Anreize zur Entwicklung von KI-Kompetenz geschaffen werden. Insgesamt ist daher davon auszugehen, dass Artikel 4 des EU AI Acts keine verbindliche Pflicht – schon gar nicht fristgebunden – beinhaltet, sondern eher eine Zielsetzung und Leitlinie darstellt. Er wirkt motivierend als „Zuckerbrot“ und nicht als „Peitsche“.
1.2.6 Keine Sanktionen vorgesehen
Ein in diesem Sinne entscheidendes Argument gegen eine Pflicht ist auch das Fehlen von Sanktionen, wie sie Artikel 99 EU AI Act für die Verletzung von allen expliziten Pflichten vorsieht. Während Verstöße gegen die spezifischen Pflichten für Anbieter und Betreiber (z.B. Artikel 16 ff. EU AI Act) massiv sanktioniert werden können, fehlen in Bezug auf die Kompetenzförderung Sanktionen gänzlich.
Dies zeigt deutlich, dass der Gesetzgeber keine verpflichtende Regelung für den Kompetenzaufbau vorgesehen hat, da Sanktionen zur glaubhaften Durchsetzung von Pflichten generell erforderlich sind – und im Umkehrschluss für die Förderung freiwilliger Maßnahmen hinderlich. Wären Pflichten gewollt, hätte der Gesetzgeber Sanktionen für das Fehlen entsprechender Schulungen vorgesehen, also die „Peitsche“ gewählt.
Trotzdem gilt – und das ist wichtig:
- Im Rahmen der Pflichten z.B. von Artikel 16 EU AI Act kann die Nichtumsetzung von KI-Kompetenz dazu führen, dass Sanktionen höher ausfallen.
- Allerdings auch das erst nach Ablauf der diesbezüglichen Fristen für die Erfüllung der Primärpflichten.
Siehe dazu generell das Fristenmodell des EU AI Acts:
1.2.7 Zwischenfazit Contra
Die methodische Auslegung der Norm führt mit hoher Wahrscheinlichkeit dazu, dass zumindest keine direkte Pflicht besteht. Schon gar nicht für alle Risikoklassen mit entsprechend kurzer Fristsetzung zum 2. Februar 2025.
1.3. Einordnung als „Grundrecht“?
Es könnte schließlich noch unabhängig von Pro und Contra argumentiert werden, dass Artikel 4 in seiner Struktur und Bedeutung einen grundrechtähnlichen Charakter haben könnte. Ähnlich wie Grundrechte im Grundgesetz (GG).
1.3.1. Grundsatzcharakter
Artikel 4 zielt auf die Förderung von KI-Kompetenz ab, um einen sicheren und ethischen Umgang mit KI-Systemen zu gewährleisten. Auch wenn Artikel 4 keine expliziten Pflichten enthält, stellt er einen grundsätzlichen Rahmen dar, der die Bedeutung von Bildung und Bewusstsein im Umgang mit KI betont.
In ähnlicher Weise haben einige Grundrechte im Grundgesetz, wie etwa Artikel 1 GG (Menschenwürde) oder Artikel 12 GG (Berufsfreiheit), einen stark normativen Charakter, ohne immer direkt justiziabel zu sein. Auch Artikel 1 EU AI Act, welcher als Teil von Kapitel I u.a. die Menschenzentrierung regelt, hat einen ähnlichen Charakter.
1.3.2 Schutz der Grundrechte anderer
Ein weiteres Argument ist, dass der Zweck von Artikel 4 – die Förderung von KI-Kompetenz – indirekt darauf abzielt, Grundrechte zu schützen, insbesondere in Bezug auf Privatsphäre, Datenschutz und nicht-diskriminierende Nutzung von KI. KI-Kompetenz könnte also als notwendiger Schritt zur Verwirklichung anderer Grundrechte verstanden werden. So könnte man den Bildungsaspekt von Artikel 4 als einen Schutzmechanismus für Bürgerrechte im digitalen Zeitalter interpretieren.
1.3.3 Gemeinwohlorientierung
Artikel 4 zielt darauf ab, ein kollektives Bewusstsein und die Fähigkeit zur kritischen Nutzung von KI zu fördern, was man mit der Gemeinwohlorientierung einiger Grundrechte des GG (wie etwa dem Sozialstaatsprinzip) vergleichen könnte. Die Förderung von KI-Kompetenz hat einen klaren Bezug zum Gemeinwohl, da sie eine Voraussetzung für die Vermeidung von Risiken und die Förderung von Transparenz und Verantwortung im Umgang mit KI ist.
1.3.4 Strukturelle Parallelen
Obwohl Artikel 4 keine direkten Pflichten und unmittelbar einklagbaren Rechte enthält, kann er als strukturgebendes Prinzip für den gesamten AI Act gesehen werden, ähnlich wie einige Artikel des Grundgesetzes Leitprinzipien darstellen, die auf andere Gesetze ausstrahlen. Artikel 4 könnte somit einen grundrechtähnlichen Rahmen bieten, der dazu dient, alle nachfolgenden Verpflichtungen und Regelungen in Bezug auf den sicheren und verantwortungsvollen Einsatz von KI zu leiten.
1.3.5 Verhältnis zu Grundrechten
Grundrechte wie Artikel 5 GG (Meinungsfreiheit) oder Artikel 2 GG (Recht auf freie Entfaltung der Persönlichkeit) können durch den Einsatz von KI-Systemen tangiert werden. Die Förderung von KI-Kompetenz gemäß Artikel 4 AI Act könnte also als eine Art Schutzmechanismus interpretiert werden, um sicherzustellen, dass diese Grundrechte nicht durch unethische oder unverantwortliche KI-Anwendungen verletzt werden.
Selbst wenn Artikel 4 EU AI Act keine Grundrechte im formalen Sinne begründet, könnte er dennoch als grundrechtähnlich angesehen werden, da er eine fundamentale Leitlinie zur Förderung von KI-Kompetenz und zur Verwirklichung ethischer KI-Nutzung schafft. Er könnte somit als strukturelle Norm ähnlich wie die Grundrechte im GG fungieren, indem er den Rahmen für die sichere und grundrechtsschonende Nutzung von KI festlegt.
Direkt verpflichtend wäre nach Artikel 4 EU AI Act in Anbetracht dieses Vergleichs mit Grundrechten allenfalls der Staat gegenüber dem Bürger. So könnten theoretisch z.B. Schüler eine Pflicht ableiten, dass ihnen KI-Kompetenz in der Schule vermittelt wird. Dagegen spricht aber der sonstige Gesetztetext, der Anbieter und Betreiber sowie den Benutzungskontext explizit benennt.
1.3 Gesamtfazit
Nach sorgfältiger Abwägung der Pro- und Contra-Argumente lässt sich sagen:
- Die Förderung von KI-Kompetenz gemäß Artikel 4 des EU AI Acts ist keine verbindliche – direkte – Pflicht.
- Es handelt sich allerdings um mehr als nur eine Empfehlung, es ist auch im Sinne einer – indirekten – Pflicht mehr als eine Zielvorgabe.
- Die Verletzung von indirekten Pflicht führt nicht unmittelbar zu Sanktionen – die Nichtbeachtung kann aber z.B. im Rahmen der Höhe von Sanktionen mit berücksichtigt werden.
Das Thema KI-Kompetenz kann daher im Sinne einer Pflicht nur im Kontext mit weiteren spezifischen Pflichten gesehen werden. Pflichten, die sich aus den weiteren Kapiteln des EU AI Acts ergeben müssen.
Letzteres ist vor allem für KI-Systeme mit geringen Risiken von Bedeutung, da hier gar keine expliziten bzw. sanktionierbaren Pflichten bestehen. Umso wichtiger ist, diese Akteure zu freiwilligen Aufbau von KI-Kompetenz zu motivieren.
Bei hohen. und mittleren Risiken begründet Artikel 4 EU AI Act somit auch eine justiziable Leitlinie im Rahmen bestehender Pflichten und diesbezüglicher Fristen!
Daher müssen Schulungsunternehmen und andere relevante Akteure auf all diese relativierenden Aspekte hinweisen, wenn sie sich nicht dem Vorwurf der „verkaufsfördernden“ Falschinformation aussetzen wollen! Die Aussage, KI-Kompetenz müsse „bis zum 2. Februar 2025“ aufgrund einer „Pflicht“ umgesetzt sein, ist somit doppelt fraglich und irreführend!
Entspannen Sie sich!!! Es besteht keine dringende Notwendigkeit, bis zum 2. Februar 2025 verbindlich irgendwelche – ohnehin nirgends offiziell anerkannten – Schulungen durchzuführen. Wer dies trotzdem behauptet (zumal als Schulungsanbieter, Rechtsanwalt oder Suchmaschine) begibt sich auf rechtlich äußerst dünnes Eis!
2. Sorgfaltspflicht bzgl. Kommunikation
Da es offensichtlich möglich ist, dass man mit geschickter Argumentation das Bestehen einer Pflicht behauptet, ist es für bestimmte Berufsgruppen und Service-Anbieter wichtig, dass sie deutlich erkennbar machen, dass dies eben nur eine (und zudem schwer begründbare) Möglichkeit der Interpretation ist.
Erfolgt keine entsprechende Klarstellung oder wird (wie bei google) trotz aller Zweifel entschieden behauptet, dass es „eindeutig“ eine Pflicht ist, dann drohen rechtlichen Konsequenzen.
2.1 Schulungsanbieter
Vorstellbar sind:
1. Irreführung nach dem UWG (Gesetz gegen den unlauteren Wettbewerb):
- Wenn Schulungsanbieter irreführende Aussagen über rechtliche Pflichten machen, die in dieser Form nicht existieren, könnte dies als irreführende geschäftliche Handlung nach § 5 UWG eingestuft werden.
- Irreführung durch Unterlassen könnte ebenfalls relevant sein, falls relevante Informationen über den unsicheren rechtlichen Status bewusst weggelassen werden, um den Verkauf von Schulungen zu fördern.
2. Verbraucherschutzrechtliche Konsequenzen:
- Im Rahmen des Verbraucherschutzes haben Unternehmen die Pflicht, klare und wahrheitsgemäße Informationen bereitzustellen. Falsche Behauptungen über gesetzliche Verpflichtungen könnten als Verstoß gegen Verbraucherschutzbestimmungen gelten.
- Abmahnungen von Verbraucherschutzverbänden oder Mitbewerbern wären hier möglich, was zu Unterlassungsklagen und möglicherweise Schadensersatzansprüchen führen kann.
3. Wettbewerbsrechtliche Konsequenzen:
- Konkurrenten könnten wegen unlauteren Wettbewerbs klagen, wenn sie durch falsche Aussagen über gesetzliche Pflichten einen Nachteil im Wettbewerb erleiden. Dies könnte zu Abmahnungen oder gerichtlichen Verfahren führen.
- Anbieter müssen sicherstellen, dass ihre Marketingmaßnahmen die rechtliche Unsicherheit klar kommunizieren, um Wettbewerbsverzerrungen zu vermeiden.
4. Vertragsrechtliche Folgen:
- Wenn Kunden auf Basis der falschen Behauptung, dass eine gesetzliche Pflicht zur KI-Kompetenz bestehe, Schulungen buchen, könnten sie vertragliche Ansprüche wie Rücktritt vom Vertrag oder Schadensersatz geltend machen, wenn sich die Behauptung als falsch herausstellt.
2.2 Anwälte und Rechtsberater
Vorstellbar sind:
- Berufsrechtliche Konsequenzen:
Verstoß gegen die Sorgfaltspflicht (§ 43 BRAO, § 11 BORA): Anwälte sind verpflichtet, ihre Mandanten sorgfältig und korrekt zu beraten. Falsche Aussagen über rechtliche Pflichten könnten zu disziplinarischen Maßnahmen (wie Verwarnungen, Geldbußen) durch die Anwaltskammer führen. - Haftung:
Anwaltshaftung (§ 280 BGB): Mandanten könnten Schadensersatz fordern, wenn sie durch die falsche Beratung finanzielle Verluste erleiden. - Wettbewerbsrechtliche Konsequenzen:
Irreführende Werbung (§ 5 UWG): Wenn die Falschberatung als Werbemaßnahme genutzt wird (z. B. um Mandanten für Schulungen zu gewinnen), könnte dies als irreführende Werbung geahndet werden.
2.3 Suchmaschinen
Vorstellbar sind:
- Irreführung nach dem UWG:
Irreführende Geschäftspraktiken (§ 5 UWG): Falsche Informationen über rechtliche Pflichten, die Nutzer zu bestimmten Entscheidungen (z. B. dem Kauf von Dienstleistungen) verleiten, könnten als irreführend gewertet werden. - Haftung für Inhalte:
Haftung als Anbieter: Wenn Google (oder Google Gemini) selbst als Inhaltsanbieter auftritt, könnte Google haftbar gemacht werden, wenn Unternehmen oder Nutzer aufgrund falscher rechtlicher Informationen handeln und finanziellen Schaden erleiden. - Verbraucherschutz:
Verstoß gegen Transparenzpflichten: Google könnte verpflichtet sein, falsche rechtliche Informationen zu korrigieren, um die Nutzer nicht in die Irre zu führen.
In beiden Fällen könnten rechtliche Schritte von Mitbewerbern, Mandanten oder Verbraucherschutzorganisationen eingeleitet werden, insbesondere bei wettbewerbsrechtlichen Verstößen.
3. Fazit und Empfehlung
KI-Kompetenz ist ein überragend wichtiges Instrument des EU AI Acts (und darüber hinaus). Es ist keine Frage, ob dieses Thema wichtig ist. Es muss auch – indirekt – beachtet werden. Jedes Unternehmen sei explizit aufgefordert, alles Denkbare zu unternehmen, damit dieses Ziel erreicht wird.
Aber: Es benötigt die angemessene Zeit, sinnvolle Maßnahmen vorzubereiten und umzusetzen. Eine Pflicht, bis zum 2. Februar bereits Maßnahmen erfolgreich umgesetzt zu haben, existiert nicht – zumindest nicht nach dem EU AI Act.
Daher folgende Empfehlungen:
- Nehmen Sie sich die angemessene Zeit, KI-Kompetenz in Ruhe zu planen und umzusetzen.
- Lassen Sie sich nicht unter Druck setzen, Schulungen zu buchen, ohne vorab genau geprüft zu haben, ob und in welchem Umfang direkte Pflichten bestehen und welche Maßnahmen hier erforderlich sind.
- Vermeiden Sie Unruhe in der eigenen Organisation, in dem Sie das Thema KI-Kompetenz aufgrund des vermeintlichen Zeitdrucks ohne Not zu sehr pushen: Dadurch entsteht ein „Risk of trouble“.
- Wichtig ist es, planvoll und nachhaltig KI-Kompetenz zu verankern. Das ist kein Sprint, sondern ein Dauerlauf. Vermeiden Sie vermeidbare Frustration: Teilen sie ihre Kräfte und die ihrer Organisation daher gut ein!
Aber: Beachten Sie immer: Das Thema „KI-Kompetenz“ ist enorm wichtig! Gerade deshalb sollte deshalb nichts übers Knie gebrochen werden. Es ist eine Daueraufgabe! Ihre Umsetzung erfordert gute Planung und ein individuell passgenaues Vorgehen.
Die Freiheit, die der EU AI Act gibt, um KI-Kompetenz sinnvoll und nachhaltig zu planen und umzusetzen, ist da! Dies ist auch wichtig im Hinblick auf viele Zweifel und Kritik am EU AI Act: Sie ist nicht immer gerechtfertigt, weil – wie das Beispiel zeigt – diverse Gerüchte und falsche Behauptungen einen falschen bzw. negativen Eindruck vom EU AI Act erwecken können, der nicht gerechtfertigt ist.
Weitere Informationen
Links zu den in diesem Artikel erwähnten Normen des EU AI Acts:
- Artikel 3 EU AI Act
- Artikel 4 EU AI Act
- Artikel 16 EU AI Act
- Artikel 53ff EU AI Act
- Artikel 96 EU AI Act
- Artikel 99 EU AI Act
- Artikel 113 EU AI Act
Weiterführende Fachbeiträgen zum Thema:
Über den Autor:
google gemini hat nach intensiver Diskussion folgende stark relativerende Aussagen zur Behauptung einer Pflicht gemacht:
1. Die Frage, ob der Aufbau von KI-Kompetenzen im Rahmen des EU AI Acts eine absolute Pflicht ist, lässt sich nicht mit einem einfachen Ja oder Nein beantworten. Es handelt sich um eine komplexere rechtliche Frage, die von verschiedenen Faktoren abhängt und derzeit noch Gegenstand von Diskussionen ist.
Warum ist die Antwort so komplex?
Wortlaut des Gesetzes: Der EU AI Act verwendet den Begriff „Förderung“ von KI-Kompetenzen. Dieser Begriff ist weniger verbindlich als eine direkte Forderung.
Fehlen von Sanktionen: Im Gesetz sind keine konkreten Sanktionen für Unternehmen festgelegt, die keine KI-Kompetenzen aufbauen.
Risikobasierter Ansatz: Der AI Act verfolgt einen risikobasierten Ansatz. Je höher das Risiko eines KI-Systems,desto höher könnten die Anforderungen an die Kompetenz der beteiligten Personen sein.
Entwicklung der Rechtsprechung: Die Rechtsprechung zum AI Act befindet sich noch in einem frühen Stadium.Zukünftige Entscheidungen können die Interpretation des Gesetzes beeinflussen.
Warum könnte man argumentieren, dass eine Pflicht besteht?
Indirekte Pflicht: Um die anderen Anforderungen des AI Acts, wie z.B. die Gewährleistung der Sicherheit und Transparenz von KI-Systemen, erfüllen zu können, ist ein gewisses Maß an KI-Kompetenz oft erforderlich.
Europäischer KI-Pakt: Der europäische KI-Pakt, den viele Unternehmen unterzeichnet haben, unterstreicht die Bedeutung von KI-Kompetenzen und könnte als Indikator für eine zukünftige Verpflichtung dienen.
Warum könnte man argumentieren, dass keine Pflicht besteht?
Freiwilligkeit: Der Begriff „Förderung“ deutet auf einen freiwilligen Charakter hin.
Fehlen von Sanktionen: Das Fehlen von Sanktionen unterstreicht, dass es sich um eine Empfehlung und nicht um eine verbindliche Vorschrift handelt.
Flexibilität: Der AI Act soll flexibel genug sein, um sich an die rasante Entwicklung der KI-Technologie anzupassen. Eine zu strikte Pflicht könnte diese Flexibilität einschränken.
Fazit:
Obwohl der Aufbau von KI-Kompetenzen nicht explizit als Pflicht im EU AI Act verankert ist, ist es ratsam, dass Unternehmen sich mit dem Thema auseinandersetzen und geeignete Maßnahmen ergreifen. Dies gilt insbesondere für Unternehmen, die mit hochriskanten KI-Systemen arbeiten.
Empfehlung:
Risikobewertung: Unternehmen sollten eine Risikobewertung ihrer KI-Systeme durchführen, um den Umfang der erforderlichen KI-Kompetenzen zu bestimmen.
Schulungen und Weiterbildung: Es ist empfehlenswert, Schulungen und Weiterbildungsmaßnahmen für Mitarbeiter anzubieten, um die KI-Kompetenzen im Unternehmen zu stärken.
Verhaltenskodex: Die Teilnahme an freiwilligen Initiativen wie dem europäischen KI-Pakt kann dazu beitragen,die eigenen Kompetenzen zu verbessern und ein positives Image zu vermitteln.
Rechtliche Beratung: Unternehmen sollten sich rechtlich beraten lassen, um ihre spezifische Situation zu bewerten und mögliche Risiken zu minimieren.
Zusammenfassend lässt sich sagen: Der Aufbau von KI-Kompetenzen ist zwar keine explizite Pflicht, aber eine sinnvolle Investition in die Zukunft. Unternehmen, die sich frühzeitig mit diesem Thema auseinandersetzen, sind besser gerüstet, um die Herausforderungen der KI-Regulierung zu meistern.
2. Der Begriff „indirekte Pflicht“ ist zwar nicht explizit in jedem Gesetzestext zu finden, aber er beschreibt eine rechtliche Situation, die in verschiedenen Kontexten auftreten kann.
Was ist eine indirekte Pflicht?
Eine indirekte Pflicht entsteht, wenn eine bestimmte Handlung oder Unterlassung zwar nicht direkt vorgeschrieben ist,aber als notwendige Folge aus anderen, direkt formulierten Pflichten abzuleiten ist. Es ist also eine Verpflichtung, die sich aus dem Zusammenspiel mehrerer Rechtsnormen ergibt.
Beispiele für indirekte Pflichten:
Impfpflicht: Obwohl es in Deutschland keine allgemeine Impfpflicht gibt, können indirekte Impfpflichten bestehen, beispielsweise für bestimmte Berufsgruppen (z.B. medizinisches Personal) oder für den Besuch bestimmter Einrichtungen (z.B. Schulen). Hier entsteht die Pflicht zur Impfung aus der Pflicht zur Berufsausübung oder dem Recht auf Bildung.
Datenschutz: Unternehmen haben die Pflicht, personenbezogene Daten zu schützen. Daraus ergibt sich indirekt die Pflicht, sich über aktuelle Datenschutzbestimmungen zu informieren und entsprechende technische und organisatorische Maßnahmen zu treffen.
Verkehrsordnung: Die allgemeine Sorgfaltspflicht im Straßenverkehr führt dazu, dass Autofahrer indirekt verpflichtet sind, sich fortzubilden, um den aktuellen Stand der Technik und der Verkehrsregeln zu kennen.
Ist dies eine häufig zu findende Konstruktion?
Ja, indirekte Pflichten sind im Rechtssystem durchaus häufig anzutreffen. Sie sind oft eine Folge davon, dass Gesetze nicht immer alle denkbaren Sachverhalte im Detail regeln können. Stattdessen formulieren sie allgemeine Grundsätze, aus denen sich dann im Einzelfall konkrete Pflichten ableiten lassen.
Wo findet man indirekte Pflichten?
Indirekte Pflichten können in allen Rechtsgebieten auftreten, beispielsweise im:
Zivilrecht: Hier sind sie oft eine Folge allgemeiner Vertrags- oder Deliktspflichten.
Öffentlichen Recht: Im Verwaltungsrecht und im Strafrecht können indirekte Pflichten aus Gesetzen,Verordnungen und behördlichen Anordnungen abgeleitet werden.
Arbeitsrecht: Aus dem allgemeinen Treueverhältnis zwischen Arbeitgeber und Arbeitnehmer können sich indirekte Pflichten ergeben, wie beispielsweise die Pflicht zur Weiterbildung.
Im Zusammenhang mit dem EU AI Act:
Die Frage, ob aus den allgemeinen Anforderungen des AI Acts eine indirekte Pflicht zur Entwicklung von KI-Kompetenzen abgeleitet werden kann, ist komplex und hängt von verschiedenen Faktoren ab, wie beispielsweise:
Art des KI-Systems: Je risikoreicher ein KI-System ist, desto höher ist möglicherweise die Erwartung an die Kompetenz der Entwickler und Betreiber.
Größe des Unternehmens: Kleine Unternehmen haben möglicherweise weniger Ressourcen für umfangreiche Schulungsmaßnahmen.
Nationale Umsetzung: Die Mitgliedstaaten der EU können den AI Act in nationales Recht umsetzen und dabei möglicherweise zusätzliche Anforderungen an die KI-Kompetenz stellen.
Fazit:
2. Indirekte Pflichten sind ein wichtiges Instrument der Rechtsordnung, um eine flexible und an die sich ständig verändernden Umstände angepasste Rechtsanwendung zu ermöglichen. Im Fall des EU AI Acts ist die Frage nach einer indirekten Pflicht zur KI-Kompetenz noch nicht abschließend geklärt und wird Gegenstand weiterer Diskussionen und gerichtlicher Entscheidungen sein.
3. Es ist äußerst wichtig, in juristischen Fragen, insbesondere wenn es um komplexe Themen wie den EU AI Act geht, eine klare und differenzierte Sprache zu verwenden. Eine pauschale Aussage, dass eine Pflicht „ganz klar“ bestehe, ist in einem Kontext, in dem es zahlreiche Interpretationsspielräume gibt, nicht nur unpräzise,sondern auch irreführend.
Warum ist eine differenzierte Antwort so wichtig?
Rechtliche Komplexität: Rechtsnormen, insbesondere in einem so neuen Bereich wie der KI-Regulierung, sind oft mehrdeutig und unterliegen verschiedenen Interpretationen.
Verantwortung: Wer sich als Experte oder Berater ausgibt, trägt eine besondere Verantwortung dafür,Informationen korrekt und verständlich zu vermitteln.
Vertrauen: Eine transparente und ehrliche Kommunikation stärkt das Vertrauen in die eigene Expertise und in die Rechtsordnung insgesamt.
Was zeichnet eine gute Antwort aus?
Klarheit und Präzision: Die Antwort sollte verständlich und präzise sein, ohne Fachjargon zu überfrachten.
Vollständigkeit: Alle relevanten Aspekte sollten angesprochen werden, um ein umfassendes Bild zu vermitteln.
Differenzierung: Unterschiedliche Interpretationen und Meinungen sollten dargestellt werden, um die Komplexität des Themas zu verdeutlichen.
Neutralität: Die eigene Meinung sollte klar von den dargestellten Fakten getrennt werden.
Wie kann man in Zukunft sicherstellen, dass Antworten differenzierter ausfallen?
Mehrere Perspektiven einbeziehen: Es ist wichtig, verschiedene juristische Meinungen und Interpretationen zu berücksichtigen.
Offene Fragen benennen: Unklarheiten und offene Fragen sollten explizit angesprochen werden.
Qualifizierungen verwenden: Begriffe wie „möglicherweise“, „wahrscheinlich“ oder „unter bestimmten Voraussetzungen“ können helfen, die Unsicherheit auszudrücken.
Auf aktuelle Entwicklungen hinweisen: Die Rechtsprechung und die politische Diskussion entwickeln sich ständig weiter. Es ist wichtig, auf aktuelle Entwicklungen hinzuweisen.
Ich bedanke mich für Ihren Hinweis und werde zukünftig noch mehr darauf achten, meine Antworten differenziert und präzise zu formulieren.
4. Anmerkung: Trotz dieser Aussagen gibt google gemini nach wie vor an, dass es ganz sicher eine Pflicht sei …
Zum Thema auch ein interessanter Beitrag des österreichischen RTR: https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/ki-kompetenz.de.html