Bis zum 2. Mai 2025 muss das Büro für Künstliche Intelligenz einen Code of Practice für GPAI-Modelle konkretisieren. Nachfolgend fünf plus 1 Empfehlungen, was in dem Praxisleitfaden nicht fehlen sollte. Die Empfehlungen betreffen u.a. die wichtige Rolle eines Glossars. Hinzu kommt eine methodische Empfehlung zur operativen Umsetzung.
- Der Code of Practice für GPAI-Modelle hat eine hohe mittelbare rechtliche Relevanz: Zivilrechtlich ebenso wie aufsichtsrechtlich.
- Der GPAI-Praxisleitfaden sollte daher gezielt mehrere bislang unbestimmte Aspekte von GPAI aufgreifen – z.B. in einem Glossar.
- Im Sinne einer Matrix werden für das Glossar vier inhaltliche Empfehlungen gegeben, u.a. für fehlende Definitionen als auch für unbestimmte Begriffe.
- Abschließend erfolgt ein Hinweis auf die Förderung operativer Umsetzbarkeit mittels innovativer Tools wie dem des 5-Layer-Modells.
Normen zu diesem Beitrag, u.a.:
- Artikel 3 EU AI Act
- Artikel 25 EU AI Act
- Artikel 53 EU AI Act
- Artikel 55 EU AI Act
- Artikel 56 EU AI Act
- Anhang XI
Praxisleitfaden für GPAI-Modelle bis 2. Mai 2025
Eine der kürzesten Fristen des EU AI Acts betrifft das Büro für Künstliche Intelligenz in Brüssel. Es muss in einem iterativen Prozess zusammen mit wichtigen Stakeholdern einen Code of Practice für GPAI-Modelle erstellen. Geregelt ist dies in Artikel 56 (9) EU AI Act. Zur Partizipation hat die EU bereits aufgefordert, siehe u.a. hier und hier.
Der nachfolgende Zeitplan zeigt, was alles bis wann geplant ist – eine ambitionierte Herausforderung!
Die folgende Übersicht skizziert 5 plus 1 Empfehlungen für den geplanten GPAI Code of Practice. Sie werden in diesem Beitrag konkretisiert.
Doch vorab ein paar Worte zur rechtlichen Einordnung von Praxisleitfäden im allgemeinen – und dem Code of Practice für GPAI-Modelle im besonderen.
1. Rechtliche Bedeutung von Praxisleitfäden
Anders als Verordnungen oder Richtlinien haben Praxisleitfäden in der Regel keine unmittelbare Rechtsverbindlichkeit. Sie sind als Orientierungshilfe für die Umsetzung rechtlicher Vorgaben gedacht. Sie können bei der Interpretation von Gesetzen und Vorschriften herangezogen werden. Vor allem dann, wenn unklar ist, wie eine Vorschrift anzuwenden ist.
1.1 Zivilrechtliche Bedeutung
Zunächst ist die zivilrechtliche Bedeutung zu erwähnen. Der GPAI-Praxisleitfaden kann u.a. im Zusammenspiel von GPAI-Anbietern und nachgelagerten Anbietern eine durchaus wichtige Rolle spielen:
- Zur vertraglichen Festlegung von fachlichen KI-Standards:
- Der Praxisleitfaden kann als Orientierung dienen, um sicherzustellen, dass alle Parteien auf dem gleichen Stand sind und nach denselben Kriterien arbeiten.
- Er kann auch dazu beitragen, Missverständnisse zu vermeiden und Klarheit darüber zu schaffen, welche technischen und ethischen Standards eingehalten werden müssen.
- Als Leitlinie für Allgemeine Geschäftsgrundlagen innerhalb der KI-Wertschöpfungskette:
- Ein einheitlicher Leitfaden kann sicherstellen, dass alle Akteure entlang der Kette nach ähnlichen Prinzipien arbeiten.
- Dies kann die Effizienz und die Sicherheit und Verlässlichkeit der gesamten Lieferkette erhöhen.
- Zur Abschätzung von zivilrechtlichen Haftungs-Risiken durch Anbieter von KI-Systemen, die GPAI-Modelle integrieren:
- Der Leitfaden kann u.a. als eine Art Absicherung dienen, indem man belegt, dass man nach anerkannten Standards vorgegangen ist.
- Er kann auch dazu beitragen, Verantwortlichkeiten in einem komplexen KI-Ökosystem, in dem mehrere Akteure beteiligt sind (z. B. Entwickler, Anbieter, Integratoren), zu klären.
Die Relevanz dieses Aspekts ist insbesondere für KMU nicht zu unterschätzen: Kleine Unternehmen oder StartUps, die ein GPAI-Modell in ihr KI-System integrieren, haben meist weder eigene juristische Ressourcen, noch die Möglichkeit, teure externe juristische Beratung einzukaufen. Der Praxisleitfaden kann in diesem Sinne auch die Basis von GPAI-Musterverträgen sein. In eine ähnliche Richtung geht Artikel 25 (4) S. 3 EU AI Act für Hochrisiko-KI-Systeme. Der GPAI-Praxisleitfaden dürfte dabei sicherlich auch eine Rolle spielen.
1.2 Gerichtliche Relevanz
In Anbetracht der vielfach kritisierten Unbestimmtheit des EU AI Acts kommt dem GPAI-Praxisleitfaden auch diesbezüglich eine potenziell hohe Bedeutung zu. So kann er auch im Fall von Rechtsstreitigkeiten u.a. als Hilfsmittel zur Interpretation herangezogen werden:
- Gerichte könnten ihn berücksichtigen, um zu entscheiden, wie bestimmte Rechtsvorschriften verstanden oder angewendet werden sollten.
- Ein Gericht könnte ihn insofern auch heranziehen, um festzustellen, ob ein Marktteilnehmer im Einklang mit den von der Aufsichtsbehörde formulierten Vorgaben gehandelt hat.
1.3 Aufsichtsrechtliche Aspekte
Der Code of Praxis für GPAI-Modelle kann zudem in aufsichtsrechtlichen Kontexten Bedeutung gewinnen. Insbesondere die nationalen Aufsichtsbehörden könnten Unternehmen, die sich nicht an ihn halten, zur Rechenschaft ziehen. Insbesondere dann, falls die Nichtbeachtung der Praxisleitlinie einem Verstoß gegen den EU AI Act vermuten läßt.
Zusammenfassend läßt sich sagen: Obwohl der Code of Practice für GPAI-Modelle an sich nicht rechtsverbindlich ist, kann er bei der Bewertung der Einhaltung der gesetzlichen Vorgaben berücksichtigt werden. Er wird mit hoher Wahrscheinlichkeit eine wichtige unterstützende Rolle bei der Anwendung und Auslegung des EU AI Acts spielen, u.a. bei der Harmonisierung der Aufsichtspraktiken in den einzelnen Mitgliedstaaten. Dies gilt umso mehr, weil bereits der Gesetztext konkrete Hinweise auf den zu klärenden fachlichen Inhalt gibt.
2. Inhalte des GPAI-Praxisleitfadens
Damit zum fachlichen Inhalt, der in dem Code of Practice für GPAI-Modelle präzisiert werden muss bzw. sollte:
- Gesetzlich vorgeschrieben ist die Konkretisierung der Pflichten gemäß Artikel 53 und 55 EU AI Act. Hinzu kommt die Konkretisierung spezifisicher Themen rund um Anhang XI.
- Wie sich aus der zuvor genannten Übersicht ergibt, sollen auch systemische Risiken, Risikobewertung und Maßnahmen zur Risikominderung im GPAI-Praxisleitfaden behandelt werden.
- Keine Pflicht, aber sinnvoll wären ergänzende Inhalte. Sie könnten dazu beitragen, bestehende und bereits erkannte Regelungslücken oder Unbestimmtheiten im GPAI-Kontext vergleichsweise unbürokratisch zu schließen.
2.1 Pflichtinhalte gemäß Artikel 56 EU AI Act
Konkretisert werden muss in diesem Prozess laut Artikel 56 (1) EU AI Act vor allem folgendes (Wortlaut des Artikels):
Das Büro für Künstliche Intelligenz und das KI-Gremium streben an, sicherzustellen, dass die Praxisleitfäden mindestens die in den Artikeln 53 und 55 vorgesehenen Pflichten abdecken, einschließlich der folgenden Aspekte:
a) Mittel, mit denen sichergestellt wird, dass die in Artikel 53 Absatz 1 Buchstaben a und b genannten Informationen vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden;
b) die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte;
c) die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene, gegebenenfalls einschließlich ihrer Ursachen;
d) die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene, einschließlich ihrer Dokumentation, die in einem angemessenen Verhältnis zu den Risiken stehen, ihrer Schwere und Wahrscheinlichkeit Rechnung tragen und die spezifischen Herausforderungen bei der Bewältigung dieser Risiken vor dem Hintergrund der möglichen Arten der Entstehung und des Eintretens solcher Risiken entlang der KI-Wertschöpfungskette berücksichtigen.
Diese Inhalte, die auch Anhang XI betreffen, sind ohne Frage das Herz des Praxisleitfadens. Auf sie wird nachfolgend nur am Rande eingegangen. Dieser Beitrag bezieht sich vor allem auf die ergänzenden Inhalte, die ein GPAI-Praxisleitfaden enthalten sollte.
Die Erarbeitung der Pflichtinhalte ist vor allem Aufgabe der unterschiedlichen Stakeholder in der KI-Wertschöpfungskette. Diesbezüglich ist eine hohe KI-Expertise u.a. zu operativen GPAI-Themen und technischen Details erforderlich.
Es gibt aber aus juristischer Sicht einige Elemente, die ein Code of Practice beinhalten sollte. Sie betreffen den Brückenschlag von juristischen und technischen Themen. Welche dies nach der hier vertretenen Auffassung sein könnten, ist Inhalt dieses Beitrags.
2.2 Ergänzende Inhalte zur Förderung der Rechtsklarheit
Der Fokus des vorliegenden Fachbeitrags liegt auf den ergänzenden Inhalten. Sie bieten eine Art formellen Rahmen für die zuvor aufgelisteten, vom EU AI Act vorgegebenen KI-fachlichen Inhalte.
Die nachfolgenden Empfehlungen sind daher auch in vieler Hinsicht rein formaler Natur. Das gilt insbesondere im Hinblick auf die Ergänzung der Basisdefinition für GPAI-Modelle gemäß Artikel 3 Nr. 63 EU AI Act. Sie steht mehr oder weniger im Zentrum der fünf plus 1 Empfehlungen.
Jede Unklarheit, die bereits bei der Definition von GPAI-Modellen besteht, führt wie von selbst bei den darauf aufbauenden technischen Details der Artikel 53 bis 55 sowie Anhang XI EU AI Act zu weiteren Herausforderungen. Daher sollte aus pragmatischen Gründen diesem schnell zu übersehenden Aspekt der Klärung von offenen Grundfragen rund um GPAI-Modelle die notwendige Aufmerksamkeit geschenkt werden!
3. Fünf Empfehlungen zu ergänzenden Inhalten
Nachfolgend werden Empfehlungen gegeben, welche die ergänzenden Inhalte des Code of Practice betreffen. Dieser sollte die folgenden fünf aufeinander aufbauenden Elemente integrieren:
- Ein „GPAI-Glossar“, das wichtige Begriffe konkretisiert. Es beinhaltet u.a. die Antwort auf vier Fragen im Kontext von Artikel 3 Nr. 63 EU AI Act:
- Was versteht der EU Act ganz allgemein unter einem „KI-Modell“?
- Was eine „erhebliche allgemeine Verwendbarkeit“ im GPAI-Kontext?
- Was ist im gleichen Kontext ein „breites Spektrum unterschiedlicher Aufgaben“?
- Wann werden diese „kompetent“ erfüllt, wann nicht?
Unklarheiten, die bei den Punkten 2-5 bestehen, sorgen wie von selbst dafür, dass die spezifischen Inhalte der Artikel 53ff EU AI Act und Anhang XI auf wackeligen Füßen stehen: Bei all den spezifischen Normen stellt sich nämlich aus juristischer Sicht immer zuerst die Grundfrage: Ist der Tatbestand einer Norm von Kapitel V überhaupt eröffnet? Schon landet man zu allererst bei der Definition von Artikel 3 Nr. 63 EU AI Act – und den damit verbundenen vielfach kaum bestimmten Inhalten. Juristisch ist die Konkretisierung für alle zuvor unter Punkt 1 genannten Varianten von hoher praktischer Bedeutung.
3.1 Das GPAI-Glossar
Die erste Empfehlung betrifft die schlichte Aufnahme eines GPAI-Glossars in den Code of Practice für GPAI-Modelle. In diesem Glossar wirde eine Reihe von GPAI-bezogenen Begriffen präzisiert. Insbesondere solche, die bislang im EU AI Act vergleichsweise unbestimmt sind.
Die Tatsache, dass es sich beim Praxisleitfaden um eine Leitlinie handelt, ermöglicht die vergleichsweise flexible Anpassung des Glossars an neue Entwicklungen im Bereich der KI-Modelle. Ein deutlicher Vorteil gegenüber der Alternative: Der Anpassung des Gesetzestexts.
In der EU finden sich viele verschiedene Beispiele entsprechender Glossare in Praxisleitlinien, u.a.:
Es wird davon ausgegangen, dass der Code of Practice für GPAI-Modelle auch ohne diesen Hinweis ein Glossar enthalten wird. Insofern ist dieser Punkt adressiert! Nachfolgend geht vor allem um die Frage, welche Begriffe und Themen im Glossar nicht fehlen sollten!
3.2 Übergreifende Definition von KI-Modellen
Die zweite Empfehlung betrifft den materiellen Inhalt des Glossars: Dem EU AI Act fehlt nämlich eine übergreifende Definition für KI-Modelle. Diesem Thema wurden auf CAIR4 gleich mehrere Artikel gewidmet. Die fehlende Definition hat nach der hier vertretenen Auffassung hohe Praxisrelevanz – nicht zuletzt für die gesamte Wertschöpfungskette mit und ohne GPAI-Modelle!
Die Frage ist, wie diese Lücke gefüllt werden kann. Nach der hier vertretenen Auffassung in dem zuvor empfohlenen Glossar des zu erstellenden GPAI-Praxisleitfadens. Anregungen, wie die fehlende Definition inhaltlich ausgestaltet werden könnte, finden sich in diesem Beitrag:
Fachlicher Aufhänger für die Integration der Definition für allgemeine KI-Modelle im GPAI-Praxisleitfaden ist der explizite Wortlaut von Artikel 3 Nr. 63 EU AI Act:
- Dort werden klare Kritieren für die Bestimmung allgemeiner KI-Modelle vorausgesetzt.
- Leider sind diese Kriterien (bislang) nirgendwo im finalen Gesetzestext zu finden
- Der in der Vorversion von 2021 enthaltene Anhang mit der Definition von KI-Techniken wurde ersatzlos gestrichen.
Der empfohlene Beitrag gibt Anregungen, wie eine Definition für „KI-Modelle“ im Glossar aufgenommen werden könnte. Vorstellbar wäre z.B. eine Kurzdefinition. Es findet sich dort aber auch eine unter Verwendung von GPAI-Tools erstellte Langversion für eine Definition von KI-Modellen. Am Ende ist es aber gleich, welche Art von Definition im Glossar aufgenommen wird. Hauptsache ist, dass dies in irgendeiner Form erfolgt!
3.3 Konkretisierung von „erheblicher allgemeiner Verwendbarkeit“
Die in vieler Hinsicht unbestimmte Definition für GPAI-Modelle in Artikel 3 Nr. 63 EU AI Act ist zugleich der Aufhänger für die dritte Empfehlung. Das betrifft u.a. die Formulierung „erheblicher allgemeiner Verwendbarkeit“.
Das Kriterium der „erheblichen allgemeinen Verwendbarkeit“ ermöglicht einerseits die Erfassung von GPAI-Modellen, die in einer Vielzahl von Kontexten und für verschiedene Zwecke eingesetzt werden können. Diese breite Verwendbarkeit unterscheidet GPAI-Modelle von KI-Systemen, die speziell für einen eng umgrenzten Anwendungsbereich entwickelt wurden. Es müssen aber auch Regeln existieren, die aufzeigen, wo die Grenze zwischen einem allgemein verwendbaren GAPI-Modell und einem spezialisierten KI-Modell verläuft. Diesbezügliches Vorbild könnte u.a. das Prinzip der regelbasierten Klassifizierung in der Medical Device Regulation sein (MDR). Ergänzend zu dem Modell der MDR sollte dann aber stärker betont werden, dass jede Regel auch Ausnahmen kennt!
3.3.1 Abgrenzungsfragen
Die bisherige Formulierung erschwert nach der hier vertretenen Auffassung u.a. die Abgrenzung von GPAI-Modellen und universell einsetzbaren Domain-bezogenen Foundation-Modellen. Weshalb dies so ist, wird in diesem CAIR4-Beitrag erläutert:
3.3.2 Empfehlung
Nachfolgend einige Aspekte, die im Code of Practice aufgenommen werden könnten – gleich ob im Rahmen eines Glossars oder im Rahmen eines Regel-Modells:
- Es sollte klarer definiert werden, welche spezifischen Merkmale ein Modell aufweisen muss, um als „allgemein verwendbar“ zu gelten.
- Auch eine Risikobewertung für unterschiedliche (allgemeine) Einsatzkontexte könnte beigefügt werden, z.B. für wichtige Domänen mit vielerlei Sektoren wie Medizin, Finance, Legal etc. Gerade die Formulierung der „Erheblichkeit“ könnte so konkretisiert werden.
- Es könnte festgelegt werden, in welchem Ausmaß Modifikationen oder Feinanpassungen erforderlich sind, bevor ein Modell als „spezifisch“ und nicht mehr als „allgemein verwendbar“ betrachtet wird (und umgekehrt).
- Schließlich sollte klarer geregelt werden, wer die Verantwortung trägt, wenn ein GPAI-Modell in einem neuen, nicht vorgesehenen Kontext verwendet wird:
- Kritisch ist in dieser Hinsicht die Formulierung der „Verwendbarkeit“, die über den intendierten Verwendungszweck hinausgehen kann.
- Dies könnte beinhalten, dass Anbieter klare Nutzungsrichtlinien und Risikohinweise bereitstellen müssen, oder dass Betreiber oder Anbieter von KI-Systemen, die das GPAI-Modell in neuen Kontexten einsetzen, bestimmte Sorgfaltspflichten einhalten müssen.
3.4 Konkretisierung des „breiten Spektrums unterschiedlicher Aufgaben“
Nicht anders ist es im Hinblick auf die schwer greifbare Formulierung eines „breiten Spektrums unterschiedlicher Aufgaben“. Zwar ist diese Anforderung eine zentrale Charakteristik, um GPAI-Modelle von spezialisierteren KI-Systemen zu unterscheiden. Doch erneut ergeben sich Abgrenzungsprobleme zu Domain-bezogenen Foundation-Modellen:
- Müssen diese Aufgaben zwingend über verschiedene Industrien hinweg erfüllbar sein?
- Reicht es aus, dass sie über mehrere Sektoren einer Fachdomäne hinweg erfüllbar sind?
So sehr diese Formulierung zur Abgrenzung zu hoch spezifischen KI-Modellen notwendig ist, so sehr benötigt sie ebenfalls eine weiterführende Konkretisierung.
Bei den „Aufgaben“ könnte u.a. erläutert werden, in welchem Verhältnis dieser Begriff zu den ansonsten im EU AI Act verwendeten Begriff des „Zwecks“ steht. Auch hier ist es am Ende gleich, ob die Konkretisierung im Rahmen eines Glossars oder besser im Rahmen eines regelbasierten Klassifikationsmodells erfolgt.
Um noch einmal auf Domain-bezogene Foundation-Modelle zurückzukommen: So könnte z.B. das „breite Spektrum unterschiedlicher Aufgaben“ einer medizinischen Bilderkennung darin bestehen, unzählige spezifische medizinische KI-Systeme zu unterstützen: Für die Erkennung einzelner Krebsarten ebenso wie für die Detektion von Knochenbrüchen oder als Basis für die Individualisierung von Therapien aller Art. Nicht anders bei der Verwendung im Rahmen klinischer Studien oder im ärztlichen Alltag. All das kann auch als „breites Spektrum unterschiedlicher Aufgaben“ verstanden werden. Nach der hier vertretenen Auffassung ist dies u.a. unter Berücksichtung des vorhergigen Punkts 3.3 anzunehmen.
3.5 Konkretisierung von „kompetenter“ Erfüllung der Aufgaben
Im Hinblick auf die Abgrenzung zu spezialisierten KI-Modellen und Domain-bezogenen Foundation-Modellen ist die Konkretisierung des Begriffs „kompetent“ vermutlich am wichtigsten.
3.5.1 Das Kompetenz-Dilemma
- Einerseits zeichnen sich gerade die spezialisierten KI-Modelle innerhalb einer bestimmten Domäne durch eine besonders hohe Kompetenz aus. Genau das schützt sie im Zweifel davor, als GPAI-Modell eingestuft zu werden. Hier steht ja gerade der allgemeine Verwendungszweck im Fokus.
- Andererseits sind universelle KI-Modelle offenbar dann nicht als GPAI einzustufen, wenn sie eine Vielzahl von Aufgaben „inkompetent“ erfüllen.
- Das vermutlich jedes GPAI-Modell einige Aufgaben „kompetent“ und andere Aufgaben „nicht kompetent“ erfüllen dürfte, ergeben sich speziell in dieser Hinsicht viele Fragen – erneut in Abgrenzung zu Domain-bezogenen Foundation-Modellen.
3.5.2 Kriterien und Validierung
Eine Kritik an ChatGPT lautet bisweilen, dass es mathematisch „inkompetent“ sei:
„ChatGPT löst zwar Mathematikaufgaben bis zu einem gewissen Grad, aber nur auf Grund gewaltiger Datenmengen, die statistisch rekombiniert werden. Ein begabter Schüler löst aber Aufgaben logisch, ohne vorher alle möglichen Textbücher verschlungen zu haben. ChatGPT kennt Zahlen nur, wenn sie von eintrainierten Texten extrahiert werden können. So könnte die Definition einer Primzahl reproduziert werden, wenn dieser Text irgendwo im Speicher von ChatGPT auftaucht. Aber daraus Schlüsse ziehen und entscheiden, ob eine vorliegende Zahl eine Primzahl ist oder nicht, kann ChatGPT nur, wenn entsprechendes Vorwissen eintrainiert wurde. Rechnen, logisches und kausales Denken sind ihm fremd.“
Umgekehrt wird u.a. von Peter Thiel behauptet, dass gerade Mathematiker von KI bedroht sein dürften – und bezogen ist dies nicht nur auf spezifische, sondern auch auf generelle KI-Modelle. Diese können u.a. durch die Erweiterung der Modellarchitektur mittels Hybrider Ansätze mit dedizierten mathematischen Modulen kombiniert werden. Auch die Kombination von Machine Learning und deterministischen Algorithmen wäre ein Ansatz.
Das Thema soll an dieser Stelle nicht weiter vertieft werden! Wenn aber im EU AI Act schon ein derart unscharfer Begriff verwendet wird, sollte man ihn mittels Leitlinien „irgendwie“ konkretisieren. Das Beispiel der Mathematik als „harte Wissenschaft“ verdeutlicht allerdings auch, wie schwer es in naher Zukunft sein dürfte, „Kompetenz“ zu definieren bzw. zu validieren. Bei vergleichsweise „unscharfen“ Themen dürfte dies noch schwerer fallen.
4. Übersicht zu den fünf Empfehlungen
Hier noch einmal die fünf Empfehlungen für den Code of Pratice für GPAI-Modelle in tabellarischer Übersicht:
5. Praxisorientierte Tools berücksichtigen
Abschließend sei noch auf einen Aspekt hingewiesen: Das Wort „Praxisleitfaden“ enthält den Begriff „Praxis“ insofern ist die möglichst praxisorientiert Ausgestaltung von Leitlinien besonders wichtig. Worauf es dabei ankommt, verdeutlicht eine aktuelle Veröffentlichungng von Dubey, Akshat, Zewen Yang, and Georges Hattab: „A Nested Model for AI Design and Validation.“ Darin wird u.a. ein 5-Layer-Modell vorgestellt.
5.1 Das 5-Layer-Model als Beispiel
Dabei handelt es sich um ein Tool, das aus Sicht der KI-Wissenschaft eine an der Praxis orientierte Methodik empfiehlt, um die Fragen zu beantworten, die auch bei den vorherigen fünf Empfehlungen eine Rolle gespielt haben:
- Umgang mit z.T. unklaren terminologischen Anforderungen (Bezug zum Glossar)
- Notwendigkeit klarer Definitionen (z.B. für KI-Modelle)
- Die Differenzierung und das Validieren von „allgemeinen“ und „spezifischen“ Aufgaben (Domain und Data)
- Das Validieren des Kriteriums der „Kompetenz“ (Domain, Data, Model und Prediction)
5.2 Empfehlung
Die zusätzliche Emfpfehlung im Hinblick auf den Code of Practice für GPAI-Modelle lautet:
- Praxisgerechte Leitlinien für GPAI-Modellen können und sollten auch innovative Tools wie das 5-Layer-Modell mit an die Hand geben!
- Neben noch mehr Text, kommt es daher auch darauf an, komplexe Zusammenhänge mittels grafischer Elemente methodisch nachvollziehbar zu machen.
- Dies ist bereits dann sinnvoll, wenn es sich um ein spezifisches KI-Modell handelt. Noch wichtiger ist es aber, wenn hoch komplexe Abgrenzungen wie im Fall von sich dynamisch weiterentwickelnder GPAI-Modelle erforderlich sind
Hier geht es zu Teil 1 des Beitrags, in dem das 5-Layer-Modell initial thematisiert wird:
Hier geht es zum zweiten Teil des Beitrags, der auch das Thema „Richtlinien“ beleuchtet:
Links zu den in diesem Artikel erwähnten Normen des EU AI Acts:
- Artikel 3 EU AI Act
- Artikel 25 EU AI Act
- Artikel 53 EU AI Act
- Artikel 55 EU AI Act
- Artikel 56 EU AI Act
Über den Autor:
Be First to Comment