Es gibt keine generelle Definition für KI-Modelle i.S.d. EU AI Acts. In Teil 1 dieses Beitrags wurde dargestellt, welche Herausforderungen terminologische Unklarheiten mit sich bringen. Im zweiten Teil erfolgt eine Einordnung des 5-Layer-Modells sowie eine systematische Auslegung des EU AI Acts im Hinblick auf KI-Modelle.
Link zu Teil 1/3 dieses Beitrags
- Im zweiten Teil dieses Beitrags wird dargestellt, weshalb das 5-Layer-Modell vor allem bei Hochrisiko-KI von Bedeutung ist.
- Zur Auslegung des Begriffs „KI-Modell“ wird anschließend geprüft, in welchem Kontext der Begriff im EU AI Acts genannt wird.
- Die Fundstellen werden methodisch ausgelegt (grammatikalisch, historisch, teleologisch und systematisch).
- Ergebnis u.a.: In der ersten Version des EU AI Acts gab es eine wichtige Anlage mit Definitionen. Sie wurde in der finalen Version ersatzlos gestrichen.
Normen zu diesem Beitrag, u.a.:
- Artikel 2 EU AI Act
- Artikel 3 EU AI Act
- Artikel 6 EU AI Act
- Artikel 10 EU AI Act
- Artikel 15 EU AI Act
- Artikel 25 EU AI Act
- Artikel 53 EU AI Act
- Artikel 72 EU AI Act
- Artikel 111 EU AI Act
- Anhang I a.F.
Das KI-Modell i.S.d. EU AI Acts – Teil 2
Siehe zu den Punkt 1. – 3. dieses Beitrags den ersten Teil. Es wird mit Punkt 4. fortgesetzt.
4. Diverse Herausforderungen
Der EU AI Act definiert zwar den Begriff des „KI-Systems“ (siehe Artikel 3 Nr. 1 EU AI Act), aber nicht den Begriff des „KI-Modells“. Dies führt zu operativen Herausforderungen für KI-Experten aus Forschung und Entwicklung. Gefordert sind aber auch die Juristen, denn sie müssen eine Materie regulieren und auslegen, die sie in vieler Hinsicht nicht wirklich verstehen.
4.1 Bedeutung des 5-Layer-Models
Um dem Zusammenspiel von KI und Regulierung in praxi näherzukommen, erscheint das in Teil 1 vorgestellte 5-Layer-Modell als gut geeignetes Instrument. Es hilft, die operative Wechselwirkung von rechtlichen Vorgaben und relevanten KI-Komponenten zu durchleuchten.
Dem 5-Layer-Model liegt die Veröffentlichung von Dubey, Akshat, Zewen Yang, and Georges Hattab: „A Nested Model for AI Design and Validation.“ iScience (2024) zugrunde.
Die Veröffentlichung sollte im Original gelesen werden. Der Text verdeutlicht (ebenso wie unzählige andere aktuelle KI-Veröffentlichungen), dass die Komponente des KI-Modells große Bedeutung in KI-Forschung und KI-Praxis besitzt. Dass der EU AI Act keine generelle Definition für dieses wichtige Asset anbietet, kann irritieren – zumal er den Begriff über 100 mal in unterschiedlichen Kontexten verwendet.
Das 5-Layer-Modell strukturiert layerspezfische Risiken und Validierungsansätze:
- Allgemeines 5-Layer-Modell für (medizinische) KI
- Exemplarische Nutzung im Fall einer Diabetes-Diagnose
4.2 Matching mit EU AI Act
Anhand des 5-Layer-Modells können Juristen und KI-Experten einiges voneinander lernen! Dabei muss aber auch Klarheit bestehen, ob und wie weit sich die spezifischen Begrifflichkeiten des EU AI Acts und des 5-Layer-Modells entsprechen:
Doch in welchen konkreten KI-Anwendungsfällen ist das Matching überhaupt relevant? Und welche Rolle spielt dabei die (fehlende) Definition von KI-Modellen?
4.2.1 Anforderungen an Hochrisiko-KI-Systeme
Zunächst zu Frage 1:
Relevanz hat das Matching insbesondere bei KI-Modellen, die in Hochrisiko-KI-Systemen integriert sind. Bedeutung hat das 5-Layer-Modell dabei sowohl vor Inverkehrbringung, Artikel 3 Nr. 9 EU AI Act , als auch im Laufe des Monitoring, Artikel 72 EU AI Act sowie Ziffer (74).
Zu den diesbezüglichen Details:
- KI-Modelle werden als Komponenten von Hochrisiko-KI-Systemen explizit genannt:
- In Artikel 10 (1) und (6) EU AI Act (Data Governance)
- Dabei werden zwei Varianten differenziert:
- KI-Modelle, die vom KI-System trainiert werden (Absatz 1)
- KI-Modelle, die nicht vom KI-System trainiert werden (Absatz 6)
- Dabei werden zwei Varianten differenziert:
- In Artikel 15 (5) S.3 EU AI Act (Resilience) ist von Fehlern des KI-Modells als auch von Modellmängeln die Rede.
- In Artikel 10 (1) und (6) EU AI Act (Data Governance)
Das 5-Layer-Modell ist nach der hier vertretenen Auffassung ein guter Blue-Print, um bei einem Hochrisiko-KI-System Threads zu identifizieren und zu validieren! Es hilft zu definieren, was im Hinblick auf ein einzelnes KI-Modell entlang des Life Cycles geprüft bzw. dokumentiert werden muss: Vor Inverkehrbringung als auch während des Monitorings. Es muss dafür aber auch sichergestellt sein, dass das Verständnis von KI-Modellen i.S.d. EU AI Acts dem des 5-Layer-Modells tatsächlich entspricht.
4.2.2 Übergreifende Kriterien
Damit zur zweiten Frage:
KI-Modelle werden in der KI-Verordnung in mindestens drei zentralen Bereichen unabhängig voneinander geregelt – im Hinblick auf Forschung und Testzwecke vor Inverkehrbringung, bei GPAI mit allgemeinem und last but not leas bei Hochrisiko-KI-Systemen mit spezifischem Zweck.
Schon allein deshalb besteht die Notwendigkeit übergreifend einheitlicher Basiskriterien:
- Für KI-Modelle in Hochrisiko-KI-Systemen – und zwar gleich ob diese spezifische oder GPAI-Modelle sind bzw. ob die Modelle vom KI-System trainiert werden oder nicht.
- Als auch für GPAI-Modelle – und zwar unabhängig davon, ob diese generativ sind oder nicht, und ganz gleich in welcher Risiko-Klasse eines KI-Systems sie verwendet werden.
- In beiden Fällen spielt das Thema Open Source eine wichtige Rolle:
- Es muss nachvollziehbar sein, welche Kriterien ein KI-Modell hat, um alle Aspekte von Open Source zu erfüllen – bei Hochrisiko-KI ebenso wie bei GPAI.
- Insbesondere die Frage, ob und wie weit teilgeöffnete KI-Modell bei Open Source dazuzuzählen sind, ist strittig – auch ohne den EU AI Act!
- Unabhängig davon gilt der EU AI Act nicht für Forschungs-, Test- und Entwicklungstätigkeiten zu KI-Modellen Artikel 2 EU (8) AI Act.
Natürlich wäre ein einheitliches Verständnis auch im Hinblick auf die Inhalte von Verhaltenskodizes von Bedeutung.
Da dem EU AI Act eine übergreifende Definition für KI-Modelle fehlt und auch Leitlinien bislang fehlen, müssen die Kriterien für KI-Modelle im Wege der juristischen Auslegung evaluiert werden.
4.3 Lebenszyklus
Die gesuchten Kriterien sollten zudem über den gesamten Life Cycle eines KI-Modells greifen. Das ergibt sich schon daraus, dass der Übergang von (freier) Forschung und Test zum (geregelten) Inverkehrbringen und Monitoring bei ein und dem gleichen KI-Modell bestehen kann.
Der Lebenszyklus wird im dritten Teil dieses Beitrags im Zusammenhang mit dem 5-Layer-Modell noch einmal eine wichtige Rolle spielen.
5. Methodische Auslegung
Bei der nachfolgenden Auslegung gilt es u.a. zu prüfen:
- In welchem Kontext der Begriff „KI-Modell“ oder Synonyme im Text des EU AI Acts verwendet werden und
- wie die Nennungen zu verstehen sind bzw. ob (Teil-)Kriterien in Vorgaben für KI-Modelle zu finden sind, die verallgemeinert werden können.
Punkt 5 geht u.a. auf viele juristische Details ein, die bei einer Auslegung zu beachten sind. Wer direkt die Ergebnisse der Auslegung wissen möchte, kann mit einem Klick direkt zu Punkt 6 springen.
5.1 Viele Auslegungen möglich
Das besondere der juristischen Auslegung ist, dass Gerichte den Inhalt des EU AI Acts weitgehend unabhängig auslegen können. Hintergrund ist die in der EU verankerte richterliche Unabhängigkeit. Daher können verschiedene richterliche Instanzen bei der gleichen Thematik zu unterschiedlichen Auslegungsergebnissen kommen.
Das gilt natürlich auch für die Frage, was im Einzelfall als KI-Modell i.S.d. EU AI Acts anzusehen ist und was nicht. Ähnlich ist es für die im Hinblick auf das Monitoring erforderlichen Komponenten von KI-Modellen: Auch sie sind – so lange keine Leitlinien existieren – reine Auslegungssache!
Obwohl die Vorschriften Hochrisiko-KI-Systeme erst im August 2027 erfüllt sein müssen, ist es schon jetzt in vielen Fällen wichtig, die künftigen Anforderungen für das Inverkehrbringen und das Monitoring zu beachten. In der Design- und Entwicklungsphase werden ggf. schon heute die Fundamente gelegt, die trotz Bestandsschutz i.S.v. Artikel 111 EU AI Act nicht ohne weiteres später geändert werden können (siehe die Einschränkung der konzeptionellen Änderung in Absatz 2). Ohne klare Leitlinien besteht auch auf Basis der Auslegung kaum Rechtssicherheit.
Selbst mit Leitlinien ist nicht immer sicher, wie diese ausgelegt werden. Ein in Deutschland heiß diskutierter Fall in Bezug auf die unabhängige gerichtliche Auslegung betrifft die Medical Device Regulation (MDR) – insbesondere die so genannte Regel 11. Der im Link dargestellte Fall ist im KI-Kontext durchaus aufschlussreich, da die MDR (ebenso wie der EU AI Act) eine EU-Verordnung ist. Sie gilt daher direkt in jedem EU-Mitgliedsland.
5.2 Rechtsstreitigkeiten wahrscheinlich – gerade bei KI
Die KI-Praxis sollte sich keine Illusionen machen! KI wird zu Rechtsstreitigkeiten führen – auch im Hinblick auf KI-Modelle:
- KI beinhaltet viele Risiken, was Kritiker aktiv werden läßt.
- Es geht um viel Geld, was Wettbewerbsstreitigkeiten fördert.
- Hinzu kommen potenzielle Streitigkeiten in der Lieferkette.
Am Ende landen viele dieser Streitigkeiten vor Gericht. Und ein deutsches Sprichwort besagt: „Vor Gericht und auf hoher See ist man in Gottes Hand!“
Umso wichtiger ist es, anerkannte juristische Auslegungsmethoden zu kennen, um abschätzen zu können, was im Streifall unter einem KI-Modell i.S.d. EU AI Acts verstanden werden könnte – oder nicht. Die KI-fachliche Sicht ist dabei nicht immer entscheidend!
5.3 Rechtliche „Angriffsfläche“
Im Hinblick auf Streitfällen vor Gericht sind u.a. folgende Aspekte zu beachten:
- Artikel 85 EU AI Act räumt natürlichen und juristischen Personen das Recht zur Beschwerde ein (in diesem Zusammenhang gibt es eine interessante Studie zu Beschwerden bei der BaFin seitens des Verbraucherschutzes).
- Zudem sind Hinweisgeber gemäß Artikel 87 EU AI Act besonders geschützt. So können heikle Interna aus KI-Projekten nach außen dringen und bei Aufsichtsbehörden, Wettbewerbern oder Verbraucherschützern landen.
In Anbetracht dieser Instrumente sollten Streitfälle zu KI nicht ausgeschlossen werden:
- Zivilrechtlicher Art, wenn es um Wettbewerbsstreitigkeiten geht oder es in der KI-Wertschöpfungskette zu Streitigkeiten kommt. Hier gilt im Hinblick auf die Beweislast der Beibringungsgrundsatz.
- Öffentlich-rechtlicher Art, falls eine Marktaufsichtsbehörde (nach einer Beschwerde) ein KI-Produkt sanktioniert oder dies trotz Beschwerde unterläßt (siehe u.a. Artikel 11 der Verordnung (EU) 2019/1020). Hier sind von Amts wegen alle relevanten Fakten zu organisieren
Bei all dem ist nicht zu vergessen, dass auch darüber hinaus eine neue KI-Haftungsrichtlinie (KI-HRL) bevorsteht. Diese verweist mehrfach auf den EU AI Act. Insbesondere die Vorschrift von Artikel 4 KI-HRL enthält dabei eine Verschuldensvermutung bzw. eine Beweislastumkehr.
5.4 Verschiedene Abgrenzungen notwendig
Es geht im Hinblick auf die Auslegung nicht nur um die Abgrenzung von KI-System und KI-Modell, sondern z.B. auch um die Frage der nicht immer einfachen Abgrenzung von KI-Modellen und Datenbanken. Hinzu kommen Abgrenzungen zu einer Reihe ähnlicher Assets wie leistungsstarke Algorithmen: Hier muss nicht immer KI am Werke sein!
Ein reales Beispiel zur Herausforderung klarer Abgrenzung könnte dieser Link einer medizinischen Bild-KI sein. Sie scheint universell einsetzbar zu sein. Handelt es sich vielleicht sogar um ein GPAI-Modell oder -System? Wie auch immer: Die Begriffe „KI-System“ und „KI-Modell“ werden mehrfach wild vermischt. Richtung Datenbank tendiert hingegen dieser ähnlich wirkende Service.
Ein weiterees Beispiel ist die Frage, ob und wie weit OCR als KI anzusehen ist. Sie kann auf KI beruhen, muss es aber nicht. Auch im Bereich der Medizin gibt es immer wieder Abgrenzungsfragen.
5.4.1 KI-Systeme mit multiplen Komponenten
Besonders anspruchsvoll könnte es werden, wenn unterschiedlich spezialisierte KI-Modelle in ein und dem gleichen Hochrisiko-KI-System integriert sind.
Wie auf der nachfolgenden Grafik:
- Links ein (potenzielles) GPAI Modell,
- rechts ein spezifisches KI-Modell zur Diagnose.
Juristisch sind beide Fälle in mehrfacher Hinsicht unterschiedlich zu bewerten:
- Für das GPAI-Modell links kann es einen Anbieter i.S.v. Artikel 3 Nr. 3 EU AI Act geben. Damit wäre der EU AI Act gemäß Artikel 2 (1) EU AI Act für dieses KI-Modell dem Grunde nach direkt anwendbar.
- Rechts ist hingegen stets der Anbieter des KI-Systems in der Verantwortung, weil es keine Anbieterschaft für KI-Modelle gibt, die keine GPAI-Modelle sind vgl. Artikel 2 (1) EU AI Act.
- Somit handelt es sich beim rechten KI-Modell um den Service eines „Dritten“. Dieser unterliegt nur mittelbar dem EU AI AI (vgl. Wortlaut Artikel 25 (4) EU AI Act).
Aus Sicht der Richter muss daher die erste Frage sein, ob Begriffe wie „KI-System“, „KI-Modell“ oder „Datenbank“ überhaupt richtig von den Parteien verwendet werden.
Der Jurist sagt gerne „falsa demonstratio non nocet“ – eine falsche Bezeichnung schadet nicht. Dies gilt auch im öffentlichen Recht „analog“. Schon im Verwaltungsverfahren muss gewissenhaft geprüft werden, ob Fachbegriffe tatsächlich so verwendet werden wie es vom EU AI Act angedacht ist. Dort gilt der Amtsermittlungsgrundsatz!
5.4.2 Die KI-Wertschöfpungskette
Die Auslegung sollte auch folgendes berücksichtigen:
- Der EU AI Act regelt nicht nur die Vorgaben für Hochrisiko-KI-Systeme und verschiedene KI-Modelle, sondern auch das Verhältnis verschiedener Akteure untereinander. Bei Hochrisiko-KI z.B. in Artikel 25 EU AI Act. Hinzu kommen 11 Erwägungsgründe zur KI-Wertschöpfungskette.
- Alle Fundstellen sind auslegungsbedürftige Inhalte. Man muss sie deuten, um abschätzen zu können, wie die Verantwortlichkeiten der verschiedenen Parteien ineinandergreifen.
- Zu prüfen ist dabei nicht nur der Wortlaut, sondern das eigentliche Ziel, das der Gesetzgeber mit den Regelungen erreichen will.
Die nachfolgend Grafik läßt ahnen, welche Beteiligten hier in Betracht kommen:
Die Wechselwirkung der fehlenden Definition für KI-Modelle mit den z.T. recht detaillierten Vorschriften zur KI-Wertschöpfungskette werfen nicht selten die Frage auf: „Hat der Gesetzgeber wirklich über diese oder jene Konsequenz nachgedacht? Hätte er darüber nachgedacht, was hätte er gewollt? Welchen Sinn und Zweck gilt es im Rahmen der Auslegung zu beachten?“
5.4.3 Unterschiedliche Rollen i.S.d. EU AI Acts
Entlang der zuvor skizzierten Kette einer medizinischen Hochrisiko-KI wäre u.a. zu differenzieren:
- Der Anbieter eines medizinischen „KI-Systems“ trägt grundsätzlich die gesamte Verantwortung für jedes einzelne darin verwendete KI-Modell. Egal, ob generell oder spezifisch. Zudem auch dann, wenn es nicht von ihm hergestellt wird.
- Nur das „GPAI-Modell“ (links) kann einen zusätzlichen Anbieter i.S.v. Artikel 3 Nr. 3 EU AI Act besitzen. Der Hersteller des medizinischen KI-Modells (zweites von links) gilt hingegen immer nur als „Dritter“ i.S.v. Artikel 25 (4) EU AI Act (falls das KI-Modell nicht direkt vom Anbieter des KI-Systems selbst stammt).
Achtung! Für beide KI-Modelle müssen trotz unterschiedlicher Rollen gleichermaßen die Vorgaben für zivilrechtlichen Verträge von Artikel 25 (4) EU AI Act beachtet werden. Die Vorgaben müssten wiederum vergleichbare Inhalte bzgl. der Kriterien für KI-Modelle besitzen.
Um die Vorgaben zu beachten, müssen die Parteien aber erst einmal wissen, dass es diese Vorgaben gibt! Ob die in Artikel 25 (4) S.3 EU AI Act genannten Leitlinien jemals kommen werden? Es ist lediglich eine „Kann-Vorschrift“!
5.4.4 Unterschiedliche KI-Modelle i.S.d. EU AI Acts
Werden GPAI-Modelle in Hochrisiko-KI-Systeme integriert, gelten gegenüber „sonstigen“ KI-Modellen zusätzliche Regeln – auch für den Anbieter des KI-Systems:
- Einerseits ist der Anbieter des GPAI-Modells „Dritter“ i.S.v. Artikel 25 (4) EU AI Act (s.o.).
- Der Anbieter des KI-Systems wird aber in diesem speziellen Fall zu einem „nachgelagerten Anbieter“ des GPAI-Modells (vgl. u.a. Artikel 3 Nr. 68 EU AI Act).
- Der Anbieter eines GPAI-Modells unterliegt einer Vielzahl von Transparenzvorschriften in der Wertschöpfungskette, insbesondere denen von Kapitel V. Sie gelten in vieler Hinsicht auch gegenüber dem Anbieter des KI-Systems.
Man muss sich das als Anbieter eines Hochrisiko-KI-Systems bewußt machen: Beim laufenden Monitoring des Hochrisiko-KI-Systems i.S.v. Artikel 72 EU AI Act müßte also ein ggf. integriertes GPAI-Modell genauso monitoriert werden wie das eigene spezifische KI-Modell. Nach dem Wortlaut der oben genannten Normen würde daher der Anbieter des Hochrisiko-KI-Systems dafür die Verantwortung tragen, dass bei google, Microsoft und openAI keine Modelfehler enthalten sind.
5.4.5 Mischformen wie Tranfered Learning-Modelle
Man stelle sich den durchaus realistischen Fall vor, dass der Hersteller des „sonstigen“ medizinischen KI-Modells die Technik des Tranfer Learning mit multiplen Modellen (TLM) verwendet. Darunter auch ein GPAI-Modell. Nutzt der Hersteller das dabei entstehende „TLM-Gesamtmodell“ lediglich für einen einzigen medizinischen Zweck (z.B. Detektion von Hautkrebs), dann läge streng genommen kein GPAI vor, obwohl ein GPAI angebunden ist. Der Hersteller des TLM wäre nur „Dritter“ i.S.v. Artikel 25 (4) EU AI Act:
- Als Hersteller eines KI-Modells mit spezifischen Zweck hätte er nicht die gleichen Transparenzrechte gegenüber dem Anbieter des GPAI-Modells wie der Anbieter eines Hochrisiko-KI-Systems.
- Der Wortlaut von Artikel 53 (1) b) i) EU AI Act bezieht sich nämlich explizit nur (!) auf Anbieter von KI-Systemen – nicht auf das Verbinden von KI-Modellen mit GPAI.
Die Rollen sind bereits beim Design und der Entwicklung eines KI-Systems wichtig! Die im Regulation-Layer erforderliche Identifikation von Vorgaben hängt nämlich maßgeblich davon ab, welche Rolle welche Komponenten in der KI-Wertschöpfungskette einnehmen! Für ein GPAI-Modell, das in eine Hochrisiko-KI integriert wird, bestehen im 5-Layer-Modell andere Vorgaben als bei der Integration eines spezifischen KI-Modells.
6. Methode und Ergebnisse der Auslegung
Die Kernfrage lautet vor diesem Hintergrund: Welche Kritieren für KI-Modelle lassen sich aus den Nennungen im EU AI Act ableiten. Zur Antwortsfindung werden die vier anerkannten juristischen Auslegungsmethoden verwendet:
- grammatikalisch,
- historisch,
- teleologisch und
- systematisch.
6.1 Generelles zur Auslegung
Auf wikipedia gibt es einen Artikel, der die juristische Auslegung gut umschreibt:
- Der Begriff umfaßt die Konkretisierung und Deutung eines unbestimmten Rechtsbegriffs.
- Er umfaßt aber auch die anwendungsbezogene Interpretation.
- Ziel ist es, die „zutreffende“ Bedeutung der Gesetzesworte zu ermitteln.
Der letzte Punkt macht deutlich: Man sollte erst einmal alle Fundstellen für „KI-Modell“ im EU AI Act ausfindig machen, um das „Gesetzeswort“ anschließend interpretieren zu können.
Auslegung ist in vielen Fällen „Fleißarbeit“! Vor diesem Hintergrund wurde CAIR4 von Beginn an als „Suchmaschine“ so konzipiert, dass mittels Filtern statistische Untersuchungen zum EU AI Act durchgeführt werden können: Wann, wo und wie oft wird ein (un-)bestimmter Rechtsbegriff in den Erwägungsgründen, den Artikeln oder den Anhängen erwähnt? Zum Teil geht es auch darum, die Verweise auf andere Normen zu finden.
6.1.1 Erwähnungen im EU AI Act
Damit zunächst zur reinen Statistik! Der Begriff „KI-Modell“ wird in jedem der drei großen Bereiche des EU AI Acts mehrfach erwähnt:
- Den 113 Artikeln,
- den 13 Anhängen,
- und den 180 Erwägungsgründen.
Neben dem Begriff „KI-Modell“ finden sich im Text auch noch Treffer, in denen nur vom „Modell“ gesprochen wird. Streng genommen müßte auch geklärt sein, ob und wie weit der Begriff „Modell“ stets mit „KI-Modell“ identisch ist oder nicht. Dies wird hier aus Gründen der Vereinfachung unterstellt. Insgesamt gibt es weit über 100 Nennungen in unterschiedlichen Kontexten für (KI-)Modelle.
Neben dem Begriff „KI-Modell“ gibt es noch einen weiteren Begriff, der mit diesen in direktem Zusammenhang steht: Die „KI-Technik(en)“. Diese Formulierung findet sich vor allem in der ersten Version des EU AI Acts von 2021. Er wird an einigen Stellen auch in der finalen Version genutzt. Wichtig ist dies deshalb, weil zu den „KI-Techniken“ in der ersten Version mit Anhang I a.F. umfassende Definitionen existierten, die im wesentlichen KI-Modelle umschrieben haben und in mehrfacher Hinsicht der Definition für KI-Modelle der OECD entsprechen (vgl. dazu Teil 1 ).
Eine Vielzahl von Fundstellen wurden in einer Tabelle inkl. des Kontext aufgelistet, die hier als PDF aufgerufen werden kann. Kontext bedeutet hier insbesondere die Nennung mit Bezug zu GPAI, von Hochrisiko-KI, aber auch sonstige allgemeine Nennungen u.a. im Kontext von Verhaltenskodizes.
6.1.2 Verschiedene Kriterien
Faßt man die wichtigstens Aspekte der zuvor abgebildeten Tabelle zusammen, ergibt sich ein dreiteiliges Gesamtbild im Hinblick auf die Fundstellen:
6.1.2.1 Relevante Hinweise
- KI-Modelle haben allgemeine u. besondere Merkmale (bezogen auf Wirkung u. Bestandteile)
- Bei KI-Modellen ist die Betrachtung des gesamten Lebens-Zyklus erforderlich
- KI-Modelle verwenden Trainings-, Validierungs- und Testdatensätze
- Es gibt Trainingsmodelle, die vor- und nachtrainiert werden können
- Wichtig ist Zuverlässigkeit des Modells, die Modellgerechtigkeit und Modellsicherheit
- Elemente von KI-Modellen sind: Parameter, Gewichte und Modellarchitektur
- Manche KI-Modelle können sich selbst replizieren
- Beschrieben werden muss die Modellnutzung
- Differenziert wird zwischen generativen und nicht generativen KI-Modellen
- generative KI-Modelle sind ab einer gewissen Größe als GPAI-Modelle anzusehen
- KI-Modell können verschiedene Modalitäten besitzen
- die Abgrenzung zu KI-Systemen erfolgt letztlich vor allem über die Nutzerschnittstelle
- Differenziert werden KI-Systeme, die KI-M trainieren und anderen KI-Systeme, die KI-Modelle nicht trainieren.
- Zudem gibt es Open Source und Closed Source Modelle
6.1.2.2 Besondere KI-Modelle
- KI-Modelle in Hochrisiko-KI-Systemen
- KI-Modelle mit allgemeinem Verwendungszweck
- KI-Modelle mit allgemeinem Verwendungszweck und systemischen Risiken
- Alle Varianten gibt es mit und ohne Open Source
6.1.2.3 Anhang I a.F. zu KI-Konzepten
- Konzepte des maschinellen Lernens, mit beaufsichtigtem, unbeaufsichtigtem und bestärkendem Lernen unter Verwendung einer breiten Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning);
- Logik- und wissensgestützte Konzepte, einschließlich Wissensrepräsentation, induktiver (logischer) Programmierung, Wissensgrundlagen, Inferenz- und Deduktionsmaschinen, (symbolischer) Schlussfolgerungs- und Expertensysteme;
- Statistische Ansätze, Bayessche Schätz-, Such- und Optimierungsmethoden.
6.1.3 Dimensionen von KI-Modellen
Aus den Fundstellen ergeben sich nach der hier empfohlenen Differenzierung fünf unterschiedliche Dimensionen von Kriterien für KI-Modelle i.S.d. EU AI Acts:
- Der Zweck bzw. die Nutzungsvarianz eines KI-Modells
- Die Techniken und Konzepte von KI-Modellen
- Die Komponenten eines KI-Modells
- Die Art der Weiterentwicklung von KI-Modellen
- Die Schnittstellen von KI-Modellen
Die unter Punkt 6.1.2 aufgelisteten Fundstellen lassen sich weitgehend unter diese fünf Dimensionen subsummieren.
6.1.4 Sonstige Eigenschaften
Der Lebens-Zyklus ist nach der hier vertretenen Auffassung keine eigene Dimension, sondern der Zustand bzw. der Entwicklungsgrad der jeweils einzelnen Dimensionen.
Auch Open Source ist nach der hier vertretenen Auffassung keine eigene Dimension, sondern u.a. ein lizenzrechtlicher Aspekt, welcher über die Einschlägigkeit bestimmter Vorschriften mit entscheidet.
Ähnlich verhält es sich mit den systemischen Risiken, die nach der hier vertretenen Auffassung ebenfalls kein übergreifende Kriterium für KI-Modelle darstellen.
- Sie sind vielmehr im Sinne der Wirkkraft Teil des Konzepts bzw. der Komponenten eines KI-Modells.
- Im Hinblick auf die Reichweite bzw. die Anzahl der Nutzer sind es faktische Eigenschaften, die nicht im Modell selbst liegen und daher für eine übergreifende Definition unrelevant erscheinen.
6.1.5 Graphische Ergebnisübersichten
Die zuvor skizzierten Dimensionen sind nach der hier vertretenen Auffassung allesamt Kriterien, die bei einer übergeordnete Definition für KI-Modelle berücksichtigt werden sollten. Sie können grafisch zusammen mit den Rückschlüssen und einer historischen Betrachtung wie folgt skizziert werden:
Die zuvor aufgelisteten Fundstellen erlauben zudem einige Rückschlüsse z.B.:
- Aus der expliziten Nennung spezifischer „GPAI-Modelle“ folgt der Rückschluss, dass alle anderen Verwendungszwecke „sonstige“ KI-Modelle darstellen (single oder multi purpose).
- Die Aussage, dass „große“ generative KI-Modelle ein Beispiel für „GPAI-Modelle“ sind, erlaubt den Rückschluss, dass:
- „kleine“ generative KI-Modelle und
- alle anderen, „nicht generativen“ KI-Modelle als „sonstige“ KI-Modelle zu klassifizieren sind.
- Da die Anbieterschaft i.S.d. EU AI Acts nur für GPAI-Modelle existiert, sind die Hersteller aller „sonstigen“ KI-Modelle im Rückschluss bestenfalls als „Dritte“ zu bezeichnen.
Ein weiterer Rückschluss liegt in der Herleitung, dass die in Anhang I verwendete Formulierung „KI-Konzepte“ bzw.“ KI-Techniken“ bei Hochrisiko-KI-Systemen sehr engen Bezug zu KI-Modellen haben. Daher werden sie als zweite von fünf Dimensionen gewertet.
7. Empfehlung einer Definition für KI-Modelle
In einem separaten Betrag ist ausgeführt, wie die zuvor skizzierten Ergebnisse zur Empfehlung einer Definition für KI-Modelle i.S.d. EU AI Acts umgewandelt wurden:
Die nachfolgende Kurzversion einer übergreifenden Definition für KI-Modelle i.S.d. EU AI Act orientiert sich im Hinblick auf Sprache und Umfang an der Definition für KI-Systeme i.S.v. Artikel 3 Nr. 1 EU AI Act:
Ein „KI-Modell“ ist eine rechnerische Einheit, die zur Verarbeitung von Daten entwickelt wurde, um gezielte Vorhersagen, Entscheidungen, Klassifikationen oder Inhalte zu generieren. Es besitzt einen oder mehrere Zwecke, es nutzt Algorithmen, Daten und Parameter, um diese Ergebnisse zu erzielen und kann sich durch Updates, Neutraining und Lernen in Echtzeit weiterentwickeln. Als Baustein von KI-Systemen agieren KI-Modelle nur indirekt mit Nutzern.
Das Zusammenspiel von KI-Modell und KI-System kann wie folgt skizziert werden:
8. Übertragung auf das 5-Layer-Modell
Die Auslegung hat unter Verwendung anerkannter Methoden fünf übergreifende Dimensionen für KI-Modelle i.S.d. EU AI Acts zu Tage gefördert. Ebenfalls entstanden ist eine Empfehlung für eine schriftliche Definition von KI-Modellen i.S.d. EU AI Acts.
Die weitere Aufgabe liegt nun darin, die Ergebnisse mit dem 5-Layer-Modell abzugleichen. Dies ist Kerninhalt des dritten Teils dieses Beitrags.
Links zu den in diesem Artikel erwähnten Normen des EU AI Acts:
- Artikel 2 EU AI Act
- Artikel 3 EU AI Act
- Artikel 6 EU AI Act
- Artikel 10 EU AI Act
- Artikel 15 EU AI Act
- Artikel 25 EU AI Act
- Artikel 53 EU AI Act
- Artikel 72 EU AI Act
- Artikel 111 EU AI Act
- Anhang I a.F. 2021
Über den Autor:
Be First to Comment