Die vier Risiko-Klassen des EU AI Acts

Lesedauer 6 Minuten

Der EU AI Act folgt einem risikobasierten Ansatz. Danach sind KI-Systeme in vier Risiko-Klassen eingeteilt. Eine Übersicht zu den wichtigsten Vorgaben und Konsequenzen.

Die Kenntnis der vier Risiko-Klassen des EU AI Acts zählt zu den wichtigsten Grundlagen. Es ist zwischen verbotenen, hohen, mittleren und geringen Risiken von KI-Systemen zu unterscheiden. Am Ende des Beitrags gibt es noch ein kurzes Quiz.

Normen zu diesem Beitrag:

  • Artikel 3 Nr. 1 EU AI Act
  • Artikel 5 EU AI Act
  • Artikel 6 EU AI Act
  • Artikel 10 EU AI Act
  • Artikel 50 EU AI Act
  • Anhänge I, II, III EU AI Act

Vier Risiko-Klassen

Diese vier Risikoklassen sind im Sinne des EU AI Acts zu unterscheiden:

  • inakzeptables Risiko (verbotene KI-Praktiken),
  • hohes Risiko (Hochrisiko-KI-Systeme),
  • mittleres Risiko (KI-Systeme, die mit Menschen interagieren) und
  • minimal und/oder kein Risiko (alle anderen KI-Systeme).

Alle vier Risikoklassen beziehen sich auf KI-Systeme i.S.v. Artikel 3 Nr. 1 EU AI Act. KI-Modelle unterliegen anderen Kriterien, dazu mehr in einem anderen Beitrag.

Die vier Risiko-Klassen des EU AI Acts als farbliche Übersicht:

Die vierstufige Risiko-Klassen-Pyramide ist mittlerweile zu einem ikonischen Symbol für den EU AI Act geworden. Man sollte sie in jedem Fall kennen und verinnerlichen. Auch wenn die meisten KI-Anwendungen am Ende eher mittlere und vor allem geringe Risiken bergen (und diese für Anbieter und Betreiber vergleichsweise geringe Vorgaben enthalten), so ist es doch gerade für die Allgemeinheit wichtig zu wissen, dass sie in gestaffelter Form gut geschützt ist. Pro Stufe wird die Abwägung von Interessen der Allgemeinheit und den Interessen von KI-Akteuren individuell gewichtet.

1. Verbotene KI-Systeme

Gemäß Artikel 5 EU AI Act sind bestimmte KI-Praktiken in der EU in ihrer Gesamtheit verboten. Diese KI-Systeme gefährden europäische Werte in inakzeptabler Weise.

Dies gilt u.a. für folgende KI-Systeme:

  1. Solche zum Zwecke des sozialen Scoring,
  2. KI-Systeme zum Zwecke der kognitiven Verhaltensmanipulation,
  3. Biometrische Identifikationssysteme in öffentlich zugänglichen Räumen zum Zwecke der Strafverfolgung,
  4. KI-Systeme, die Gesichtserkennungsdatenbanken durch das Analysieren von Gesichtsbildern aus dem Internet erstellen oder erweitern,
  5. KI-Systeme für Emotionserkennung in Arbeitsplatz- und Bildungseinrichtungen.

Ausnahmen gelten bezüglich Identifikation (Punkt 3), z. B. für gezielte Durchsuchungen nach bestimmten potenziellen Opfern von Straftaten, siehe dazu auch Anhang II.

Hier noch einmal als grafische Übersicht:

In der Wirtschaft werden vor allem die Themen Bildung und Arbeitsplatz bzw. Mitarbeiterschutz eine wichtige Rolle spielen. Jeder sollte den Fall von HR-Software kennen, die beim Recruiting aufgrund von einem unconcious Bias, also einem unbewußten Vorurteil, bestimmte Bewerber bevorzugt und andere benachteiligt (Geschlecht, Hautfarbe, Alter, Soziale Herkunft etc.). Diese und ähnliche Risiken will der EU AI Act durch gezielte Verbote reduzieren.

2. Hochrisiko-KI

Die meisten Bestimmungen des EU AI Acts beziehen sich auf KI-Systeme, die ein erhebliches Risiko für die Gesundheit, Sicherheit oder die Grundrechte von Einzelpersonen darstellen. Diesbezüglich wichtigste Normen sind die Artikel 6 ff EU AI Act inkl. der Anhänge I und III).

2.1 Zwei Kategorien

Hochrisiko-KI-Systeme sind in zwei Hauptkategorien unterteilt:

  1. Die erste Kategorie umfasst KI-Systeme, die entweder als Sicherheitskomponenten in Produkten verwendet werden oder selbstständig betrieben werden und in Anhang I aufgeführt sind. Produkte, die diese KI-Systeme enthalten, müssen einer Konformitätsbewertung durch Dritte unterzogen werden. Typische Beispiele hierfür sind KI-Systeme, die als Sicherheitskomponenten in medizinischen Geräten, Aufzügen, bestimmten Fahrzeugen und Flugzeugen dienen.

  2. Die zweite Kategorie umfasst eigenständige KI-Systeme, die direkte Auswirkungen auf die Grundrechte haben. Diese sind in Anhang III aufgeführt und umfassen beispielsweise:

    • KI-Systeme, die zur Sicherung kritischer Infrastrukturen eingesetzt werden,
    • Systeme im Kontext von Bildungseinrichtungen, z.B. der Bewertung von Schülern und der Durchführung von Zulassungstests,
    • KI-Systeme im Bereich der Beschäftigung, einschließlich Rekrutierung, Beförderungen und Leistungsüberwachung von Mitarbeitern, sowie
    • Systeme zur Kreditwürdigkeitsbewertung von Einzelpersonen, ausgenommen solche zur Betrugsbekämpfung.

Hier noch einmal als grafische Übersicht:

Die Hochrisiko-KI-Anwendungen sind ein zentrales Thema im EU AI Act. Ihnen ist das gesamte Kapitel III (= Artikel 6-49) gewidmet – das ist mehr als ein Drittel von allen Normen des EU AI Acts. Hinzu kommen die Anhänge I & III. In der Praxis wird Kapitel III nicht allzu viele Wirtschaftsakteure als Anbeiter eines KI-Systems betreffen. Von generell hoher Relevanz ist aber die Betroffenheit im Rahmen der „KI-Wertschöpfungskette“, die in Artikel 25 EU AI Act geregelt ist. Dieses wichtige Thema wird in einem separten Beitrag behandelt.

2.2 Ausnahmen

Ausnahmen von der Hochrisikobewertung gemäß Anhang III sind möglich, z. B. wenn das KI-System lediglich unterstützende oder vorbereitende Aufgaben ausführt oder das Ergebnis menschlicher Tätigkeit verbessert. Diese Ausnahmen erfordern jedoch eine dokumentierte Bewertung und die Meldung des KI-Systems an die EU-Datenbank für Hochrisiko-KI-Systeme.

Unter Berücksichtigung eines risikobasierten Ansatzes dürfen Hochrisiko-KI-Systeme auf dem europäischen Markt angeboten werden, sofern sie bestimmte verbindliche Anforderungen erfüllen und einer vorherigen Konformitätsbewertung unterliegen.

2.3 Anforderungen

Anbieter müssen:

  • ein Qualitätsmanagementsystem i.S.v. Artikel 17 EU AI Act etablieren, das die Einhaltung des EU AI Acts gewährleistet,
  • sowie ein Risikomanagementsystem i.S.v. Artikel 9 EU AI Act, das den gesamten Lebenszyklus des KI-Systems abdeckt.
  • Technische Dokumentationen i.S.v. Artikel 11 EU AI Act sind ebenfalls erforderlich.
  • Auch für Cybersecurity bestehen erhöhte Vorgaben gemäß Artikel 15 EU AI Act.

Die Verwendung von Daten zum Training von KI-Modellen muss darüber hinaus den Anforderungen von Artikel 10 EU AI Act entsprechen. Technische Anforderungen für risikoreiche KI-Systeme umfassen beispielsweise die Protokollierung während des Betriebs zur Rückverfolgbarkeit und die Implementierung von Mechanismen zur Benutzerüberwachung und -kontrolle.

Die Anforderungen sind für die betroffenen Anbieter in vielen Fällen erheblich. Insbesondere die Medizintechnik ist aufgrund des Zusammenspiels von EU AI Act mit der Medical Device Regulation (MDR) „keine leichte Kost“ für die Betroffenen. Für die diesbezüglichen Auflagen ist aber auch aus diesem Grund eine besonders lange Übergangsfrist von 36 Monaten nach Inkrafttreten des EU AI Acts vorgesehen (siehe Artikel 113 EU AI Act).

2.4 Bevollmächtigte und Anweisungen

Anbieter außerhalb der EU, die KI-Systeme auf dem EU-Markt anbieten, müssen einen bevollmächtigten Vertreter innerhalb der EU ernennen. Hersteller von Produkten, die Hochrisiko-KI-Systeme enthalten, und Importeure und Händler dieser Systeme, haben ebenfalls spezifische Verpflichtungen.

Endbenutzer müssen risikoreiche KI-Systeme gemäß den Anweisungen verwenden, sorgfältig Eingabedaten auswählen, den Betrieb überwachen und Protokolle führen. Einige Nutzer, wie öffentliche Einrichtungen und private Betreiber öffentlicher Dienstleistungen, müssen eine Folgenabschätzung der Grundrechte durchführen, bevor sie solche Systeme nutzen.

Die vielleicht in der Praxis wichtigste Norm ist die der Betreiberpflichten gem. Artikel 26 EU AI Act, dies sind die Pflichten der Nutzer von Hochrisiko-KI. Betroffen davon sind z.B. Ärzte, die eine Hochrisiko-KI am Patienten anwenden. Insofern sind die Anweisungen und Bedienungsanleitungen von großer Bedeutung, aber auch die Art, wie Informationen vom Nutzer zum Anbieter zurückgespielt werden können.

3. Mittleres Risiko

Der EU AI Act definiert Transparenzanforderungen für bestimmte Systeme, die mit Menschen interagieren. Diesbezügliche Vorgaben regelt insbesondere die Artikel 50ff EU AI Act. Dies betrifft vor allem drei Arten von KI-Systemen mit mittlerem Risiko:

  1. Anbieter von KI-Systemen, die eine direkte Interaktionen mit Personen ermöglichen, wie etwa KI-basierte Chatbots. Hier muss sichergestellt werden, dass Nutzer klar darüber informiert werden, dass bzw. wann sie mit einem KI-System interagieren – es sei denn, dies ist offensichtlich aus dem Kontext ersichtlich.
  2. Anbieter von KI-Systemen, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen sicherstellen, dass die Ausgaben in einem maschinenlesbaren Format als künstlich erstellt oder manipulierbar gekennzeichnet sind, es sei denn, es liegt eine Ausnahmeregelung vor (z. B. wenn das KI-System lediglich eine unterstützende Rolle bei der Standardbearbeitung übernimmt oder die Eingabedaten nicht wesentlich verändert).
  3. Betreiber von Emotionserkennungs- oder biometrischen Kategorisierungssystemen müssen die betroffenen Personen über den Betrieb des KI-Systems informieren.

Der „Klassiker“ dieser Risikoklasse ist sicherlich der KI-Chatbot, der in der Praxis vieler Unternehmen schon jetzt eine wichtige Rolle spielt. Aufgrund der Übergangsfristen ist hier noch etwas Zeit, um alle KI-Chatbots „safe“ zu machen. Man sollte aber schon früh damit beginnen, dieses Thema u.a. zusammen mit einem KI-Dienstleister detailliert zu klären. Stichwort: Sanktionen

Zusätzlich müssen Anbieter von KI-Systemen, welche in der Lage sind, sogenannte Deep Fakes zu erstellen, offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Medienschaffende und ebenso Blogger sollten zu diesem Thema folgenden Beitrag lesen.

4. Geringes Risiko

Die allermeisten KI-Systeme werden wohl mit „geringem Risiko“ eingestuft. Bisher gibt es für solche Anwendungen keine gesetzlichen Vorschriften. Es gibt aber eine Empfehlung zur freiwilligen Erstellung bzw. Einhaltung eines Verhaltenskodex, siehe dazu u.a. Artikel 95 EU AI Act.


Zum Schluss noch ein kurzer Abschlusstest zum Thema Risiko-Klassen im Sinne des EU AI Acts:

Quiz zu den Risiko-Klassen des EU AI Act

In diesem Quiz haben wir fünf Fragen zum Thema "Risikoklassen" des EU AI Acts für Dich zusammengestellt.

1 / 5

Welchen Ansatz verfolgt der EU AI Act?

2 / 5

Wie viele Risikoklassen enthält der EU AI Act?

3 / 5

Welche Norm ist bei Hochrisiko-KI von hoher Bedeutung?

4 / 5

Stimmt es, dass der Artikel 6 EU AI Act eine widerlegbare Vermutung für eine Hochrisiko-KI enthält?

5 / 5

Zu welcher Risiko-Klasse zählen in der Regeln KI-basierte Chatbots?

Your score is

Die durchschnittliche Punktzahl ist 0%

0%

Links zu den in diesem Artikel erwähnten Normen des EU AI Acts:


Über den Autor:

Schreibe den ersten Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert