KURZFASSUNG
EU AI ACT: Verordnung zur Regulierung Künstlicher Intelligenz in der EU (KI-Verordnung)
- Finale Version des EU AI Acts von März 2024
- Inkrafttreten voraussichtlich Mai 2024
- Vier Risikogruppen
- Vertrauen stärken
- Sanktionen bei Verstößen
- Ergänzung durch Haftungsrichtlinie
- Viele Akteure betroffen
Erforsche die Kurzfassung des EU AI Acts:
Alle Artikel des EU AI Acts sind in kurzer, allgemeinverständlicher Sprache verfaßt. Am Ende jedes Kapitels kannst Du zum Analyzer wechseln und dort detaillierte Informationen vertiefen.
GESAMTÜBERSICHT
Am 13. März 2024 stimmte das EU-Parlament dem AI Act zu, dem weltweit ersten Gesetz zur Regulierung künstlicher Intelligenz (KI).
Das KI-Gesetz tritt 20 Tage nach der Veröffentlichung im Amtsblatt der Europäischen Union in Kraft. Vermutlich im Mai 2024.
Der AI Act unterteilt KI-Anwendungen in vier Risikogruppen, wobei höhere Risiken strengere Anforderungen und Pflichten nach sich ziehen.
Ziel ist es, das Vertrauen in KI zu stärken und die größten Risiken für Nutzerinnen und Nutzer zu minimieren. Ein weiteres Ziel ist die Stärkung des EU-Binnenmarktes.
Verstöße können mit Geldstrafen von bis zu 35 Millionen Euro oder bis zu sieben Prozent des weltweiten Jahresumsatzes geahndet werden.
Begleitet wird der AI Act von einer KI-Haftungsrichtlinie, und die EU-Kommission plant auch die Aktualisierung der Produkthaftungsrichtlinie.
Die Pflichten des AI Act betreffen Hersteller, Anbieter, Händler von KI-Systemen sowie Produkthersteller und Nutzer von KI-Systemen. Betroffen ist aber auch der öffentliche Sektor.
KAPITEL I: ALLGEMEINE BESTIMMUNGEN (1-4)
Artikel 1 EU AI Act (Kurzfassung): Gegenstand
|
|
Der EU AI Act zielt darauf ab, den Binnenmarkt zu verbessern und die Einführung von vertrauenswürdiger künstlicher Intelligenz zu fördern. Er bietet ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte. Er legt harmonisierte Vorschriften für KI-Systeme fest, verbietet bestimmte Praktiken, stellt Anforderungen an Hochrisiko-KI-Systeme und definiert Transparenzvorschriften. Zusätzlich enthält er Bestimmungen zur Marktüberwachung, Governance, Durchsetzung und Innovationsförderung, insbesondere für KMU.
|
|
Artikel 2 EU AI Act (Kurzfassung): Anwendungsbereich
|
|
Der EU AI Act gilt für Anbieter, Betreiber, Einführer, Händler, Produkthersteller und andere betroffene Personen von KI-Systemen in der EU oder mit Auswirkungen auf die EU. Er legt harmonisierte Vorschriften, Transparenzregeln und Anforderungen an Hochrisiko-KI-Systeme fest. Militärische, Verteidigungs- und Sicherheitszwecke sind ausgenommen. Internationale Organisationen, Forschungszwecke und persönliche Anwendungen sind ebenfalls von der Verordnung ausgenommen. Datenschutzbestimmungen bleiben gültig. Forschungstests werden reguliert. Die Verordnung beeinträchtigt nicht die Verbraucherschutzgesetze der EU und erlaubt Mitgliedstaaten, zusätzliche Schutzmaßnahmen zu ergreifen.
|
|
Artikel 3 EU AI Act (Kurzfassung): Begriffsbestimmungen
|
|
Definiert werden Begriffe im Zusammenhang mit künstlicher Intelligenz (KI) und deren Regulierung. Darunter die Begriffe "KI-System", "Risiko", "Anbieter", "Betreiber", "Bevollmächtigter", "Inverkehrbringen", "Zweckbestimmung", "Test unter realen Bedingungen" und viele weitere Begriffe, die spezifische Aspekte der KI und ihrer Regulierung abdecken.
|
|
Artikel 4 EU AI Act (Kurzfassung): KI-Kompetenz
|
|
Anbieter und Betreiber von KI-Systemen sollen sicherstellen, dass ihr Personal und andere beteiligte Personen über ausreichende KI-Kompetenz verfügen. Dabei sollen technische Kenntnisse, Erfahrung, Ausbildung, der Einsatzkontext der KI-Systeme und die Nutzergruppen berücksichtigt werden.
|
Hier kannst Du Kapitel I des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL II: VERBOTENE PRAKTIKEN IM BEREICH DER KÜNSTLICHEN INTELLIGENZ (5)
Artikel 5 EU AI Act (Kurzfassung): Verbotene Praktiken im Bereich der Künstlichen Intelligenz
|
|
Verschiedene Praktiken im Bereich der Künstlichen Intelligenz (KI) sind verboten, darunter der Einsatz von KI-Systemen, die manipulative Techniken einsetzen, um das Verhalten von Personen zu beeinflussen.
Weiterhin werden das Ausnutzen von Schwächen oder Schutzbedürftigkeit von Personen, die Nutzung von KI-Systemen zur Bewertung von Personen aufgrund ihres sozialen Verhaltens sowie die Verwendung von Gesichtserkennungs- und Emotionserkennungssystemen eingeschränkt. Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme zu Strafverfolgungszwecken ist ebenfalls eingeschränkt und erfordert eine Genehmigung sowie Berichterstattung über deren Nutzung. Mitgliedstaaten können zusätzliche Regelungen einführen. |
Hier kannst Du Kapitel II des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL III: HOCHRISIKO-KI-SYSTEME (6-49)
Abschnitt 1: Einstufung von KI-Systemen als Hochrisiko-KI-Systeme
|
|
Artikel 6 EU AI Act (Kurzfassung): Einstufungsvorschriften für Hochrisiko-KI-Systeme
|
|
Hochrisiko-KI-Systeme können Sicherheitskomponenten in Produkten oder eigenständige KI-Produkte sein. Sie unterliegen einer Konformitätsbewertung.
Zusätzlich werden KI-Systeme als hochriskant eingestuft, wenn sie bestimmte Kriterien erfüllen, z.B. ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte beinhalten. |
|
Artikel 7 EU AI Act (Kurzfassung): Änderungen des Anhangs III
|
|
Die EU kann delegierte Rechtsakte erlassen, um Anhang III des EU AI Acts zu ändern und Hochrisiko-KI-Systeme hinzuzufügen oder zu ändern. Dabei werden Kriterien wie Zweckbestimmung, Datenverarbeitung, mögliche Schädigung von Gesundheit und Sicherheit sowie Grundrechten berücksichtigt.
Die Kommission kann Rechtsakte erlassen, um Hochrisiko-KI-Systeme aus der Liste zu streichen, wenn sie keine erheblichen Risiken mehr aufweisen und das allgemeine Schutzniveau nicht senken. |
Abschnitt 2: Anforderungen an Hochrisiko-KI-Systeme | |
Artikel 8 EU AI Act (Kurzfassung): Einhaltung der Anforderungen | |
Hochrisiko-KI-Systeme müssen die Anforderungen dieser Verordnung erfüllen und dem Stand der Technik entsprechen. Anbieter von Produkten mit integrierten KI-Systemen müssen sicherstellen, dass ihre Produkte alle geltenden Anforderungen sonstiger Gesetze der EU erfüllen. Dabei können sie vorhandene Test- und Berichterstattungsverfahren integrieren, um Doppelarbeit zu vermeiden und zusätzliche Belastungen zu minimieren. | |
Artikel 9 EU AI Act (Kurzfassung): Risikomanagementsystem | |
Das Risikomanagementsystem ist ein kontinuierlicher Prozess, der den gesamten Lebenszyklus des Hochrisiko-KI-Systems abdeckt. Es umfasst die Identifizierung und Analyse von Risiken, die Abschätzung von potenziellen Auswirkungen und die Ergreifung von Maßnahmen zur Risikobewältigung. Diese Maßnahmen sollen sicherstellen, dass das KI-System gemäß seiner Zweckbestimmung funktioniert und die Gesundheit, Sicherheit und Grundrechte nicht gefährdet. Dabei werden Tests unter realen Bedingungen durchgeführt. Das Risikomanagementsystem muss vor dem Inverkehrbringen oder der Inbetriebnahme implementiert werden. Anbieter müssen mögliche Auswirkungen auf schutzbedürftige Gruppen berücksichtigen. | |
Artikel 10 EU AI Act (Kurzfassung): Daten and Daten Governance | |
Für Hochrisiko-KI-Systeme, die Modelle mit Daten trainieren, unterliegen Anforderungen für die Entwicklung von Trainings-, Validierungs- und Testdatensätzen. Diese Anforderungen umfassen Steuerungsverfahren für Daten, einschließlich Datenerfassung, -aufbereitung und -bewertung, um Verzerrungen zu vermeiden. Die Datensätze müssen relevant, repräsentativ und fehlerfrei sein und den typischen Merkmalen der Anwendungsumgebung entsprechen. In bestimmten Fällen dürfen besondere Kategorien personenbezogener Daten verarbeitet werden, sofern angemessene Schutzmaßnahmen getroffen werden. Wenn keine Trainingsdaten verwendet werden, gelten die Anforderungen nur für Testdaten. | |
Artikel 11 EU AI Act (Kurzfassung): Technische Dokumentation | |
Die technische Dokumentation eines Hochrisiko-KI-Systems muss vor der Markteinführung erstellt und regelmäßig aktualisiert werden. Sie dient dazu, den Behörden und Prüfern klar und verständlich zu zeigen, wie das System die Anforderungen erfüllt. Kleine Unternehmen können eine vereinfachte Dokumentation verwenden. Bei KI-Systemen, die mit einem Produkt verbunden sind, wird eine übergreifende Dokumentation erstellt.Die EU kann den Anhang IV anpassen, um sicherzustellen, dass die Dokumentation den aktuellen Anforderungen entspricht. | |
Artikel 12 EU AI Act (Kurzfassung): Aufzeichnungspflichten | |
Hochrisiko-KI-Systeme müssen Protokollierungsfunktionen haben, um Ereignisse während ihres Lebenszyklus aufzuzeichnen. Diese Funktionen erfassen Ereignisse, die relevant sind für die Identifizierung von Risikosituationen, die Beobachtung nach dem Inverkehrbringen und die Überwachung des Betriebs. Mindestens müssen Datum und Uhrzeit der Nutzung, die Referenzdatenbank, Eingabedaten und die Identität der an der Ergebnisüberprüfung beteiligten Personen aufgezeichnet werden. | |
Artikel 13 EU AI Act (Kurzfassung): Transparenz und Bereitstellung von Informationen für die Betreiber | |
Hochrisiko-KI-Systeme müssen transparent gestaltet sein, um Betreibern die angemessene Interpretation und Nutzung der Ergebnisse zu ermöglichen. Dazu werden klare und vollständige Gebrauchsanweisungen bereitgestellt, die Informationen über den Anbieter, die Leistungsgrenzen des Systems, die notwendigen Ressourcen, Wartungsmaßnahmen und Mechanismen zur Protokollierung enthalten. Hochrisiko-KI-Systeme müssen transparent gestaltet sein, um Betreibern die angemessene Interpretation und Nutzung der Ergebnisse zu ermöglichen. Dazu werden klare und vollständige Gebrauchsanweisungen bereitgestellt, die Informationen über den Anbieter, die Leistungsgrenzen des Systems, die notwendigen Ressourcen, Wartungsmaßnahmen und Mechanismen zur Protokollierung enthalten. |
|
Artikel 14 EU AI Act (Kurzfassung): Menschliche Aufsicht | |
Hochrisiko-KI-Systeme müssen so gestaltet sein, dass sie effektiv von Menschen überwacht werden können, um Gesundheits-, Sicherheits- und Grundrechtsrisiken zu verhindern oder zu minimieren. Die Aufsicht kann durch verschiedene Maßnahmen gewährleistet werden. Die Nutzer müssen angemessene Fähigkeiten haben, um das System zu verstehen, seine Leistung zu überwachen, Ergebnisse richtig zu interpretieren und bei Bedarf einzugreifen. In einigen Fällen ist eine Überprüfung von Identifizierungsergebnissen durch mindestens zwei Personen erforderlich, es sei denn, dies wäre unverhältnismäßig. | |
Artikel 15 EU AI Act (Kurzfassung): Genauigkeit, Robustheit und Cybersicherheit | |
Hochrisiko-KI-Systeme werden so entwickelt, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit gewährleisten und während ihres gesamten Lebenszyklus stabil funktionieren. Die EU fördert die Entwicklung von Benchmarks und Messmethoden in Zusammenarbeit mit relevanten Interessengruppen. Die Gebrauchsanweisungen der Systeme geben die Genauigkeitsmaße und relevante Leistungskennzahlen an. Robustheit wird durch technische und organisatorische Maßnahmen gewährleistet. Hochrisiko-KI-Systeme müssen gegen unbefugte Eingriffe durch Ausnutzung von Schwachstellen geschützt sein. Dies umfasst Maßnahmen zur Vorbeugung, Erkennung, Reaktion und Kontrolle von Angriffen sowie zur Verhinderung von Datenvergiftung, Modellvergiftung und anderen KI-spezifischen Schwachstellen. |
Abschnitt 3: Pflichten der Anbieter und Betreiber von Hochrisiko-KI-Systemen und anderer Beteiligter | |
Artikel 16 EU AI Act (Kurzfassung): Pflichten der Anbieter von Hochrisiko-KI-Systemen | |
Anbieter von Hochrisiko-KI-Systemen müssen sicherstellen, dass ihre Systeme die festgelegten Anforderungen erfüllen. Dazu gehören die Bereitstellung von Kontaktdaten, ein Qualitätsmanagementsystem, die Aufbewahrung von Dokumentation und Protokollen, die Durchführung eines Konformitätsbewertungsverfahrens, die Ausstellung einer EU-Konformitätserklärung und die Anbringung der CE-Kennzeichnung. Sie müssen sich registrieren, Korrekturmaßnahmen ergreifen und auf Anfrage den Nachweis erbringen, dass ihre Systeme den Anforderungen entsprechen. Darüber hinaus müssen sie sicherstellen, dass ihre Systeme barrierefrei sind. | |
Artikel 17 EU AI Act (Kurzfassung): Qualitätsmanagementsystem | |
Anbieter von Hochrisiko-KI-Systemen müssen ein Qualitätsmanagementsystem einrichten. Dieses System umfasst u.a. die Einhaltung von Regulierungsvorschriften, Entwurfskontrolle, Qualitätssicherung, Risikomanagement, Datenmanagement und die Meldung schwerwiegender Vorfälle. Die Umsetzung muss in angemessenem Verhältnis zur Größe der Organisation des Anbieters erfolgen. Anbieter, die branchenspezifischen Rechtsvorschriften unterliegen, können diese Aspekte in bestehende Qualitätsmanagementsysteme integrieren. | |
Artikel 18 EU AI Act (Kurzfassung): Aufbewahrung von Dokumentation | |
Anbieter eines Hochrisiko-KI-Systems müssen für zehn Jahre ab dem Inverkehrbringen oder der Inbetriebnahme des Systems folgende Unterlagen bereithalten: U.a. die technische Dokumentation, Dokumentation zum Qualitätsmanagementsystem, genehmigte Änderungen und die EU-Konformitätserklärung. Näheres wird von den EU-Mitgliedstaaten festgelegt. | |
Artikel 19 EU AI Act (Kurzfassung): Automatisch erzeugte Protokolle | |
Anbieter von Hochrisiko-KI-Systemen müssen automatisch erzeugte Protokolle aufbewahren. Die Aufbewahrungsfrist beträgt mindestens sechs Monate. | |
Artikel 20 EU AI Act (Kurzfassung): Korrekturmaßnahmen und Informationspflicht | |
Anbieter von Hochrisiko-KI-Systemen müssen bei fehlender Konformität unverzüglich Korrekturmaßnahmen ergreifen, um diese herzustellen oder das KI-System gegebenenfalls zurücknehmen, deaktivieren oder zurückzurufen. Sie informieren alle betroffenen Parteien, einschließlich Händler, Betreiber, Bevollmächtigte und Einführer. Wenn das System ein "Risiko-Produkt" i.S.v. Art. 79 ist, gelten besondere Regeln. Anbieter von Hochrisiko-KI-Systemen müssen bei fehlender Konformität unverzüglich Korrekturmaßnahmen ergreifen, um diese herzustellen oder das KI-System gegebenenfalls zurücknehmen, deaktivieren oder zurückzurufen. Sie informieren alle betroffenen Parteien, einschließlich Händler, Betreiber, Bevollmächtigte und Einführer. Wenn das System ein "Risiko-Produkt" i.S.v. Art. 79 ist, gelten besondere Regeln. |
|
Artikel 21 EU AI Act (Kurzfassung): Zusammenarbeit mit den zuständigen Behörden | |
Anbieter von Hochrisiko-KI-Systemen müssen auf Anfrage Informationen und Dokumentationen bereitstellen, um die Konformität des Systems nachzuweisen. Diese Informationen müssen in einer leicht verständlichen Sprache vorliegen. Alle erhaltenen Informationen unterliegen strengen Vertraulichkeitspflichten. | |
Artikel 22 EU AI Act (Kurzfassung): Bevollmächtigte der Anbieter von Hochrisiko-KI-Systemen | |
Anbieter von Hochrisiko-KI-Systemen, die außerhalb der EU ansässig sind, müssen einen in der EU niedergelassenen Bevollmächtigten benennen. Dieser Bevollmächtigte übernimmt unter anderem die Überprüfung der Konformität des Systems, die Bereitstellung von Informationen an nationale Behörden sowie die Zusammenarbeit mit Behörden. Wenn der Bevollmächtigte feststellt, dass der Anbieter gegen seine Pflichten verstößt, muss er den Auftrag beenden und die zuständigen Behörden informieren. | |
Artikel 23 EU AI Act (Kurzfassung): Pflichten der Einführer | |
Bevor Einführer ein Hochrisiko-KI-System in Verkehr bringen, stellen sie sicher, dass es dieser Verordnung entspricht. Bei Bedenken bezüglich der Konformität informieren die Einführer relevante Parteien und Behörden. Während des Vertriebs gewährleisten sie die Aufrechterhaltung der Konformität und stellen die Verfügbarkeit von Dokumentation sicher. Sie arbeiten eng mit den zuständigen nationalen Behörden zusammen. | |
Artikel 24 EU AI Act (Kurzfassung): Pflichten der Händler | |
Vor der Bereitstellung eines Hochrisiko-KI-Systems auf dem Markt überprüfen Händler, ob es die erforderliche CE-Kennzeichnung hat und ob die EU-Konformitätserklärung und Gebrauchsanweisungen beigefügt sind. Sie arbeiten mit den zuständigen nationalen Behörden zusammen und übermitteln auf Anfrage alle relevanten Informationen und Dokumentationen. | |
Artikel 25 EU AI Act (Kurzfassung): Verantwortlichkeiten entlang der KI-Wertschöpfungskette | |
In bestimmten Fällen gelten Händler, Einführer, Betreiber oder sonstige Dritte als Anbieter eines Hochrisiko-KI-Systems.Sie unterliegen dann den entsprechenden Pflichten von Anbietern z.B. bei wesentlicher Änderung des KI-Systems oder dessen Zweckbestimmung. | |
Artikel 26 EU AI Act (Kurzfassung): Pflichten der Betreiber von Hochrisiko-KI-Systemen | |
Die Betreiber von Hochrisiko-KI-Systemen haben die Verpflichtung, das KI-System entsprechend den Gebrauchsanweisungen und den Vorschriften der Verordnung zu verwenden. Sie müssen qualifiziertes Personal einsetzen und sicherstellen, dass die Eingabedaten den Zweck des Systems erfüllen. Die Betreiber überwachen den Betrieb des Systems und informieren über potenzielle Risiken. Sie bewahren automatisch generierte Protokolle für einen festgelegten Zeitraum auf. Arbeitgeber müssen ihre Mitarbeiter über den Einsatz solcher KI-Systeme informieren. | |
Artikel 27 EU AI Act (Kurzfassung): Grundrechtliche Folgenabschätzung für KI-Systeme mit hohem Risiko | |
Öffentlich-rechtliche Betreiber von Hochrisiko-KI-Systemen müssen vor der ersten Verwendung eine Folgenabschätzung der Auswirkungen auf Grundrechte durchführen. Diese umfasst u.a. die Beschreibung der Nutzung, der potenziell betroffenen Personen, Schadensrisiken, Maßnahmen der menschlichen Aufsicht und Regelungen für Risikosituationen. Falls eine Datenschutz-Folgenabschätzung bereits erfolgt ist, ergänzt diese die Grundrechte-Folgenabschätzung. |
Abschnitt 4: Notifizierte Behörden und notifizierte Stellen | |
Artikel 28 EU AI Act (Kurzfassung): Notifizierende Behörden | |
Jeder EU-Mitgliedstaat muss mindestens eine Behörde benennen, die für die Bewertung, Benennung und Überwachung von Konformitätsprüfern zuständig ist. Diese Behörden müssen frei von Interessenkonflikten sein und ihre Entscheidungen objektiv und unparteiisch treffen. Die Behörden dürfen keine Tätigkeiten anbieten, die im Wettbewerb mit Prüfern stehen. Sie müssen die Vertraulichkeit erhaltener Informationen sicherstellen. Sie müssen über ausreichend kompetente Mitarbeiter verfügen, die über Fachwissen in Informationstechnologie, KI und Recht verfügen. | |
Artikel 29 EU AI Act (Kurzfassung): Antrag einer Konformitätsbewertungsstelle auf Notifizierung | |
Notifizierende Stellen beantragen ihre Benennung bei der zuständigen Behörde ihres MitgliedstaatsSie reichen eine Beschreibung ihrer Tätigkeiten, Bewertungsmodule und die Kategorien von KI-Systemen ein. Sie müssen Unterlagen vorlegen, um ihre Kompetenz zu belegen. Dokumente aus früheren Benennungen nach anderen EU-Vorschriften können ebenfalls genutzt werden. Alle Unterlagen müssen regelmäßig aktualisiert werden. | |
Artikel 30 EU AI Act (Kurzfassung): Notifizierungsverfahren | |
Behörden dürfen nur Notifizierende Stellen benennen, die den in der Verordnung genannten Anforderungen entsprechen. Sie informieren die Kommission und Mitgliedsstaaten über jeden benannten Prüfer. Erforderlich sind Angaben zu Bewertungstätigkeiten, Modulen, KI-Systemen und Bestätigungen der Kompetenz. Der benannte Prüfer kann erst tätig werden, wenn keine Einwände erhoben wurden. | |
Artikel 31 EU AI Act (Kurzfassung): Anforderungen an notifizierte Stellen | |
Die benannten notifizierenden Stellen müssen über eine Rechtspersönlichkeit verfügen. Sie müssen die Anforderungen an Organisation, Qualitätsmanagement, Ressourcen und Verfahren erfüllen, um Vertrauen in ihre Leistung zu gewährleisten. Die Unabhängigkeit von Anbietern und anderen Interessenparteien sowie die Vermeidung von Interessenkonflikten ist essenziell. Mitarbeiter dürfen nicht an der Entwicklung oder Vermarktung von KI-Systemen beteiligt sein und müssen Vertraulichkeit wahren. Die Organisation muss über angemessene Fachkompetenz und interne Ressourcen verfügen.Die benannten Prüfer müssen an der Normung mitwirken. | |
Artikel 32 EU AI Act (Kurzfassung): Vermutung der Konformität mit den Anforderungen an notifizierte Stellen | |
Bei notifizierenden Stellen, welche die Kriterien sektorspezifischer Normen erfüllen, wird vermutet, dass sie auch die Anforderungen für KI-Prüfer erfüllen.Die gilt nur insoweit die Anforderungen dieser Verordnung auch in den spezifischen Normen mit enthalten sind | |
Artikel 33 EU AI Act (Kurzfassung): Zweigstellen von notifizierten Stellen und Vergabe von Unteraufträgen durch notifizierte Stellen | |
Notifizierende Stellen müssen sicherstellen, dass Unterauftragnehmer oder Zweigstellen die erforderlichen Anforderungen erfüllen. Sie tragen die Verantwortung für deren Arbeit. Der Einsatz von Unterauftragnehmern erfordert die Zustimmung der Anbieter. | |
Artikel 34 EU AI Act (Kurzfassung): Operative Pflichten notifizierter Stellen | |
Notifizierende Stellen überprüfen entlang eines Verfahrens die Konformität von Hochrisiko-KI-Systemen. Sie vermeiden unnötige Belastungen für die Anbieter, indem sie Faktoren wie Anbietergröße, Sektor und Systemkomplexität berücksichtigen. Dabei halten sie strenge Schutzstandards ein, die für die Konformität mit den Verordnungsanforderungen erforderlich sind. Die notifizierenden Stellen stellen der notifizierendenden Behörde alle einschlägigen Dokumente zur Verfügung, um deren Überwachungs- und Bewertungstätigkeiten zu erleichtern. | |
Artikel 35 EU AI Act (Kurzfassung): Kennnummern und Verzeichnisse notifizierter Stellen | |
Die EU vergibt jeder notifizierenden Stellen eine eindeutige Kennnummer, selbst wenn sie nach mehreren EU-Rechtsakten benannt wurde. Sie veröffentlicht ein aktualisiertes Verzeichnis aller Pürfer samt Kennnummern und den zugewiesenen Tätigkeiten. | |
Artikel 36 EU AI Act (Kurzfassung): Änderungen der Notifizierungen | |
Notifizierende Behörden informieren die Kommission über Änderungen der notifizierenden Stellen. Bei Einstellung von Bewertungstätigkeiten müssen notifizierende Stellen die notifizierende Behörde und betroffene Anbieter frühzeitig informieren. Zertifizierungen können für bis zu neun Monate nach Einstellung gültig bleiben, sofern eine andere notifizierende Stelle die Verantwortung übernimmt. Wenn eine notifizierende Stelle die Anforderungen nicht erfüllt, kann die Benennung eingeschränkt, ausgesetzt oder widerrufen werden. Die notifizierende Behörde sorgt dafür, dass relevante Dokumente zugänglich sind, und informiert die Kommission und andere Mitgliedstaaten über die Maßnahmen. Zertifizierungen können unter bestimmten Bedingungen vorläufig gültig bleiben oder von anderen notifizierenden Stellen übernommen werden. | |
Artikel 37 EU AI Act (Kurzfassung): Anfechtung der Kompetenz notifizierter Stellen | |
Die Kommission prüft bei Bedarf alle Fälle von Zweifeln an der Kompetenz einer notifizierten Stelle. Die notifizierende Behörde muss der Kommission auf Anfrage alle relevanten Informationen zur Verfügung stellen, die vertraulich behandelt werden. Wenn die Kommission feststellt, dass eine notifizierende Stelle die Anforderungen nicht erfüllt, informiert sie den Mitgliedstaat und fordert geeignete Maßnahmen. Wenn der Mitgliedstaat nicht handelt, kann dies durch die Kommission erfolgen. | |
Artikel 38 EU AI Act (Kurzfassung): Koordinierung der notifizierten Stellen | |
Die Kommission gewährleistet die Einrichtung und ordnungsgemäße Fortführung von branchenspezifischen Gruppen notifizierender Stellen für Hochrisiko-KI-Systeme. Notifizierende Behörden stellen sicher, dass notifizierende Stellen an den Gruppen teilnehmen. Die Kommission fördert den Austausch von Wissen und bewährten Verfahren zwischen den notifizierenden Behörden der Mitgliedstaaten. | |
Artikel 39 EU AI Act (Kurzfassung): Konformitätsbewertungsstellen in Drittländern | |
Notifizierende Stellen aus Drittländern mit EU-Abkommen, können zur Prüfung ermächtigt werden, wenn sie das gleiche Maß an Konformität gewährleisten. |
Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung | |
Artikel 40 EU AI Act (Kurzfassung): Harmonisierte Normen und Normungsdokumente | |
Hochrisiko-KI-Systeme gelten als konform mit der Verordnung, wenn sie mit harmonisierten Normen übereinstimmen, die entsprechenden Anforderungen abdecken. Die Kommission vergibt Normungsaufträge, um die Ressourceneffizienz von KI-Systemen zu verbessern. Die Beteiligten des Normungsprozess fördern Investitionen und Innovationen im Bereich der KI, stärken die Rechtssicherheit und Wettbewerbsfähigkeit und tragen zur weltweiten Normungsarbeit bei. Sie verbessern die Multi-Stakeholder-Governance, um eine ausgewogene Vertretung relevanter Interessenträger zu gewährleisten. | |
Artikel 41 EU AI Act (Kurzfassung): Gemeinsame Spezifikationen | |
Die Kommission kann Durchführungsrechtsakte erlassen, um gemeinsame Spezifikationen festzulegen, falls keine entsprechend harmonisierten Normen verfügbar sind. Hochrisiko-KI-Systeme, die gemeinsamen Spezifikationen entsprechen, gelten als konform mit den Anforderungen dieses Kapitels. Wenn eine harmonisierte Norm angenommen und im Amtsblatt der EU veröffentlicht wird, kann die Kommission Durchführungsrechtsakte teilweise aufheben. Anbieter von Hochrisiko-KI-Systemen müssen nachweisen, dass ihre technischen Lösungen die Anforderungen erfüllen, wenn sie von den gemeinsamen Spezifikationen abweichen. Mitgliedstaaten können der Kommission mitteilen, wenn sie der Meinung sind, dass gemeinsame Spezifikationen nicht vollständig den Anforderungen entsprechen. Die Kommission überprüft diese Information und kann die entsprechenden Durchführungsrechtsakte ändern. | |
Artikel 42 EU AI Act (Kurzfassung): Vermutung der Konformität mit bestimmten Anforderungen | |
Für Hochrisiko-KI-Systeme, die bzgl. Cybersicherheit zertifiziert wurden oder für die eine entsprechende Konformitätserklärung vorliegt, gilt die Vermutung, dass sie die Cybersicherheitsanforderungen dieser Verordnung erfüllen.sofern diese von der Zertifizierung oder der Konformitätserklärung abgedeckt sind. | |
Artikel 43 EU AI Act (Kurzfassung): Konformitätsbewertung | |
Anbieter von Hochrisiko-KI-Systemen können zur Bestätigung der Einhaltung der Anforderungen harmonisierte Normen oder gemeinsame Spezifikationen anwenden. Bei Hochrisiko-KI-Systemen gemäß Anhang I Abschnitt A erfolgt die Bewertung gemäß den Konformitätsbewertungsverfahren und berücksichtigt die Anforderungen des vorliegenden Kapitels sowie einige Bestimmungen von Anhang VII. Wesentliche Änderungen an bereits bewerteten KI-Systemen erfordern eine neue Konformitätsbewertung. Die Kommission aktualisiert die Anhänge VI und VII durch delegierte Rechtsakte, um den technischen Fortschritt widerzuspiegeln. Sie kann auch Änderungen am Konformitätsbewertungsverfahren vornehmen, um die Wirksamkeit der Risikominimierung und Ressourcenausstattung zu verbessern. | |
Artikel 44 EU AI Act (Kurzfassung): Bescheinigungen | |
Bescheinigungen von notifizierenden Stellen gem. Anhang VII werden in leicht verständlicher Sprache ausgestellt. Sie haben eine maximale Gültigkeitsdauer von fünf Jahren für Hochrisiko-KI-Systeme gemäß Anhang I und vier Jahren für solche gemäß Anhang III. Die Gültigkeitsdauer kann auf Antrag des Anbieters verlängert werden. Wenn eine notifizierende Stelle feststellt, dass ein KI-System nicht mehr den Anforderungen entspricht, kann sie die Bescheinigung aussetzen, widerrufen oder einschränken. Die notifizierende Stelle muss ihre Entscheidung begründen. Ein Einspruchsverfahren ist vorgesehen. | |
Artikel 45 EU AI Act (Kurzfassung): Informationspflichten der notifizierten Stellen | |
Notifizierende Stellen informieren Behörden über Unionsbescheinigungen, Verweigerungen, Aussetzungen oder Rücknahmen von Bescheinigungen, Auswirkungen auf die Notifizierung, Auskunftsersuchen und KonformitätsbewertungstätigkeitenJede notifizierende Stelle informiert andere notifizierende Stellen über Genehmigungen von Qualitätsmanagementsystemen und Bescheinigungen der Union sowie deren Verweigerungen oder Einschränkungen. Notifizierende Stellen teilen anderen Prüfern mit ähnlichen Konformitätsbewertungstätigkeiten ihre Ergebnisse mit. | |
Artikel 46 EU AI Act (Kurzfassung): Ausnahme vom Konformitätsbewertungsverfahren | |
Marktüberwachungsbehörden können Hochrisiko-KI-Systeme unter außergewöhnlichen Umständen vorübergehend genehmigen. Strafverfolgungs- oder Katastrophenschutzbehörden können in Notfällen Hochrisiko-KI-Systeme vorübergehend betreiben und müssen danach eine Genehmigung beantragen. Genehmigungen erfolgen nur, wenn das System den Anforderungen entspricht, und werden an die Kommission und andere Mitgliedstaaten gemeldet. Für Hochrisiko-KI-Systeme i.S.v. Anhang I Abschnitt A gelten nur deren Ausnahmen. | |
Artikel 47 EU AI Act (Kurzfassung): EU-Konformitätserklärung | |
Anbieter benötigen für jedes Hochrisiko-KI-System eine Konformitätserklärung. Diese ist für 10 Jahre nach dem Inverkehrbringen oder der Inbetriebnahme bereitzuhalten. Die EU-Konformitätserklärung bestätigt, dass das KI-System die Anforderungen erfüllt. Wenn Hochrisiko-KI-Systeme anderen Unionsvorschriften unterliegen, wird eine einzige EU-Konformitätserklärung ausgestellt, die sich auf alle relevanten Vorschriften bezieht. Durch Konformitätserklärung übernimmt der Anbieter die Verantwortung für die Einhaltung der Anforderungen und aktualisiert sie bei Bedarf. Die Kommission kann Rechtsakte erlassen, um die Konformitätserklärung an den technischen Fortschritt anzupassen. | |
Artikel 48 EU AI Act (Kurzfassung): CE-Kennzeichnung | |
Die CE-Kennzeichnung folgt allgemeinen Grundsätzen. Kennzeichnungen für digitale Hochrisiko-KI-Systeme müssen über eine Schnittstelle oder einen Code verfügbar sein. Die CE-Kennzeichnung wird sichtbar, lesbar und dauerhaft am Hochrisiko-KI-System oder ggf. der Verpackung angebracht. | |
Artikel 49 EU AI Act (Kurzfassung): Registrierung | |
Anbieter von Hochrisiko-KI-Systemen registrieren sich in einer EU-Datenbank. Wird angenommen, dass ein Hochrisiko-KI-System nicht als hochriskant einzustufen ist, erfolgt ebenfalls eine Registrierung in der EU-Datenbank. Betreiber von Hochrisiko-KI-Systemen, die Behörden, öffentliche Einrichtungen oder in ihrem Namen handelnde Personen sind, registrieren sich vor der Inbetriebnahme oder Verwendung in der EU-Datenbank. Bestimmte Hochrisiko-KI-Systeme im Bereich Strafverfolgung, Migration, Asyl und Grenzkontrolle werden in einem sicheren nicht öffentlichen Teil der EU-Datenbank registriert und enthalten spezifische Informationen. Zugriff darauf haben nur die Kommission und bestimmte nationale Behörden. Hochrisiko-KI-Systeme gemäß Anhang III Nummer 2 werden auf nationaler Ebene registriert. |
Hier kannst Du Kapitel III des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL IV: TRANSPARENZPFLICHTEN FÜR ANBIETER UND BETREIBER BESTIMMTER KI-SYSTEME (50)
Artikel 50 EU AI Act (Kurzfassung): Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme | |
Anbieter von KI-Systemen müssen sicherstellen, dass natürliche Personen darüber informiert werden, wenn sie mit einem KI-System direkt interagieren. Diese Pflicht gilt nicht für Straftatenaufdeckungssysteme. Anbieter von KI-Systemen, die synthetische Inhalte erzeugen, müssen sicherstellen, dass diese als solche erkennbar und technisch zuverlässig sind. Ausnahmen gelten für unterstützende Funktionen und Straftatenaufdeckungssysteme. Für Betreiber von Emotionserkennungs- oder biometrischen Kategorisierungssystemen gelten besondere Vorschriften. Betreiber von Deepfake-Systemen müssen offenlegen, dass Inhalte künstlich erzeugt oder manipuliert wurden. Ausnahme: Es ist gesetzlich erlaubt, künstlerisch oder satirisch. Texte, die die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse informieren, müssen ebenfalls gekennzeichnet werden, es sei denn, sie wurden redaktionell überprüft. Die müssen bereits bei der ersten Interaktion klar und deutlich angeboten werden und Barrierefreiheitsanforderungen entsprechen. Diese Pflichten gelten zusätzlich zu anderen Transparenzpflichten in den EU- und nationalen Rechtsvorschriften. Das Amt für künstliche Intelligenz unterstützt die Entwicklung von Verhaltenskodizes zur Umsetzung dieser Pflichten. Die Kommission kann Durchführungsrechtsakte zur Genehmigung dieser Kodizes erlassen. |
Hier kannst Du Kapitel IV des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL V: KI-MODELLE MIT ALLGEMEINEM VERWENDUNGSZWECK (51-56)
Abschnitt 1: Einstufungsvorschriften | |
Artikel 51 EU AI Act (Kurzfassung): Einstufung von KI-Modellen mit allgemeinem Verwendungszweck als KI-Modelle mit allgemeinem Verwendungszweck mit systemischem Risiko | |
Bei universellen KI-Modellen wird ein systemisches Risiko angenommen, wenn es hochwirksame Fähigkeiten aufweist, die technisch bewertet werden oder von der Kommission oder einem wissenschaftlichen Gremium als entsprechend eingestuft werden. Ein Modell gilt als hochwirksam, wenn die kumulative Berechnungsmenge während des Trainings über 10^25 FLOPs beträgt. Die Kommission kann die Schwellenwerte und Benchmarks anpassen. | |
Artikel 52 EU AI Act (Kurzfassung): Verfahren | |
Anbieter von universellen KI-Modellen, welche systemische Risiken aufweisen können, müssen die Kommission unverzüglich darüber informieren. Anbieter können begründen, warum ihre Modelle keine systemischen Risiken darstellen. Die Kommission prüft die vorgebrachten Argumente und kann Modelle gleichwohl als risikobehaftet einstufen. Anbieter können unter Vorbringung neuer objektiver Gründe eine Neubewertung beantragen.Die Kommission veröffentlicht eine Liste risikobehafteter KI-Modelle. |
Abschnitt 2: Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck
|
|
Artikel 53 EU AI Act (Kurzfassung): Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck
|
|
Anbieter von KI-Modellen mit allgemeinem Verwendungszweck müssen technische Dokumentation erstellen und aktualisieren Sie müssen Informationen und Dokumentation für Anbieter von KI-Systemen bereitstellen und eine Strategie zur Einhaltung des Urheberrechts entwickeln sowie eine Zusammenfassung der für das Training verwendeten Inhalte veröffentlichen. Die Pflichten gelten nicht für Anbieter von Open Source-KI-Modellen, außer für solche mit systemischen Risiken.
|
|
Artikel 54 EU AI Act (Kurzfassung): Bevollmächtigte der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck
|
|
Anbieter aus Drittländern müssen einen in der Union niedergelassenen Bevollmächtigten benennen, der die vom Anbieter erhaltenen Aufgaben wahrnimmt. Der Bevollmächtigte überprüft die Einhaltung der Pflichten dieser Verordnung und fungiert als Ansprechpartner für Behörden. Der Bevollmächtigte beendet den Auftrag, falls der Anbieter gegen die Verordnung verstößt, und informiert die Behörden. Die Pflichten gelten nicht für Anbieter von Open-Source-Modellen, außer wenn diese systemische Risiken bergen.
|
Abschnitt 3: Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko | |
Artikel 55 EU AI Act (Kurzfassung): Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko | |
Anbieter von universellen KI-Modellen mit systemischem Risiko müssen eine Modellbewertung durchführen, inklusive Angriffstests und der Bewertung systemischer Risiken. Sie müssen Informationen über Vorfälle und Abhilfemaßnahmen erfassen an Behörden weiterleiten und angemessene Cybersicherheit für das Modell und die Infrastruktur gewährleisten. Die Anbieter können sich vor der Veröffentlichung harmonisierter Normen auf Verhaltenskodizes stützen, um die Einhaltung der Pflichten nachzuweisen. Die Einhaltung einer harmonisierten europäischen Norm gilt als Erfüllung der Pflichten. Informationen und Dokumentation unterliegen der Vertraulichkeit. | |
Artikel 56 EU AI Act (Kurzfassung): Verhaltenskodizes | |
Das Amt für künstliche Intelligenz (KI) unterstützt die Entwicklung von Verhaltenskodizes. Diese Kodizes sollen verschiedene Aspekte berücksichtigen, darunter die Aktualität von Informationen, die Genauigkeit der Zusammenfassung von Trainingsinhalten, die Bewertung und Bewältigung von Risiken sowie die Berichterstattung über Maßnahmen und Ergebnisse.Das Amt überwacht und bewertet regelmäßig die Umsetzung der Kodizes. Anbieter von universellen KI-Modellen können gebeten werden, den Kodizes zu folgen. Die Einhaltung ist bei universellen KI-Modellen ohne systemische Risiken optional. Falls keine Kodizes innerhalb eines bestimmten Zeitrahmens erstellt werden können, kann die Kommission Durchführungsrechtsakte erlassen. |
Hier kannst Du Kapitel V des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL VI: MASSNAHMEN ZUR INNOVATIONSFÖRDERUNG (57-63)
Artikel 57 EU AI Act (Kurzfassung): KI-Reallabore | |
Die Mitgliedstaaten müssen bis zu 24 Monate nach Inkrafttreten dieser Verordnung mindestens ein KI-Reallabor einrichten. Diese dienen dazu, Innovationen zu fördern und die Entwicklung, das Training, das Testen und die Validierung von KI-Systemen vor deren Markteinführung zu unterstützen. Die Einrichtung und der Betrieb dieser Reallabore können durch technische Unterstützung der Kommission erfolgen. Die Reallabore sollen zur Verbesserung der Rechtssicherheit, Förderung von Innovationen und Wettbewerbsfähigkeit beitragen. Die zuständigen Behörden überwachen die Reallabore und berichten regelmäßig über ihre Aktivitäten und Ergebnisse. Sie bieten auch Anleitung und Unterstützung für Risikominderungsmaßnahmen im Zusammenhang mit den getesteten KI-Systemen. Die am KI-Reallabor beteiligten Anbieter sind für Schäden haftbar, die Dritten infolge der Erprobung. Die Einrichtung von KI-Reallaboren soll die grenzüberschreitende Zusammenarbeit zwischen den Mitgliedstaaten erleichtern. | |
Artikel 58 EU AI Act (Kurzfassung): Detaillierte Regelungen für KI-Reallabore und deren Funktionsweise | |
Die Kommission erlässt Rechtsakte für die Einrichtung, Entwicklung, Umsetzung, den Betrieb und die Beaufsichtigung von KI-Reallaboren. Diese umfassen gemeinsame Grundsätze für Auswahlkriterien für die Beteiligung, Verfahren für Antragstellung und Überwachung, Anforderungen an die Beteiligten und die Gewährleistung des gleichberechtigten Zugangs zu den Reallaboren. Die Reallabore sollen die Entwicklung von Instrumenten für das Testen, Benchmarking und die Bewertung von KI-Systemen erleichtern und Maßnahmen zur Risikominderung fördern. Die Behörden arbeiten zusammen, um einheitliche Verfahren und angemessene Schutzvorkehrungen für Grundrechte, Gesundheit und Sicherheit zu erarbeiten, die Tests unter realen Bedingungen betreffen. | |
Artikel 59 EU AI Act (Kurzfassung): Weiterverarbeitung personenbezogener Daten zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse im KI-Reallabor | |
Personenbezogene Daten, die rechtmäßig für andere Zwecke erhoben wurden, dürfen nur im KI-Reallabor für die Entwicklung, das Training und das Testen bestimmter KI-Systeme verwendet werden, wenn bestimmte Bedingungen erfüllt sind. Dazu gehören u.a. das Vorliegen eines erheblichen öffentlichen Interesses, die Notwendigkeit der Daten für die jeweiligen Anforderungen, effektive Überwachungsmechanismen und Schutzmaßnahmen für die Daten. Die Verarbeitung darf keine Auswirkungen auf die betroffenen Personen haben und muss Datenschutzbestimmungen entsprechen. Für die Verarbeitung von Daten durch Strafverfolgungsbehörden gelten zusätzliche Bedingungen. | |
Artikel 60 EU AI Act (Kurzfassung): Tests von Hochrisiko-KI-Systemen unter realen Bedingungen außerhalb von KI-Reallaboren | |
Hochrisiko-KI-Systeme können außerhalb von KI-Reallaboren vor deren Inverkehrbringen oder Inbetriebnahme unter realen Bedingungen getestet werden. Dabei sind bestimmte Bedingungen einzuhalten und es muss ein genehmigter Plan vorliegen, zudem müssen spezifische ethische Prüfungen berücksichtigt werden. Die Durchführung erfordert die Registrierung, die Einhaltung von Datenschutzbestimmungen sowie Schutzmaßnahmen für Teilnehmer und die Möglichkeit, den Test jeder Zeit ohne Angabe von Gründen zu beenden. Behörden haben Befugnisse zur Prüfung und Überwachung. Schwerwiegende Vorfälle während der Tests müssen gemeldet werden, und Anbieter haften gemäß Unions- und nationalem Recht für entstandene Schäden. | |
Artikel 61 EU AI Act (Kurzfassung): Sachkundige Einwilligung zur Teilnahme an einem Test unter realen Bedingungen außerhalb von KI-Reallaboren |
|
Vor der Teilnahme an Tests unter realen Bedingungen müssen die Testteilnehmer eine sachkundige Einwilligung einholen. Dazu werden sie mit präzisen, klaren, relevanten und verständlichen Informationen über verschiedene Details des Tests informiert. | |
Artikel 62 EU AI Act (Kurzfassung): Maßnahmen für Anbieter und Betreiber, insbesondere KMU, einschließlich Start-up-Unternehmen | |
Die Mitgliedstaaten ergreifen Maßnahmen zugunsten von KMU und Start-up-Unternehmen, wie den vorrangigen Zugang zu KI-Reallaboren, Sensibilisierungs- und Schulungsmaßnahmen sowie die Förderung der Normenentwicklung. Die Gebühren für Konformitätsbewertungen werden zudem an die konkreten Bedürfnisse von KMU angepasst. Das Amt für künstliche Intelligenz betreibt eine Informationsplattform, führt Informationskampagnen durch und fördert bewährte Verfahren bei KI-bezogenen Vergabeverfahren. | |
Artikel 63 EU AI Act (Kurzfassung): Ausnahmen für bestimmte Akteure | |
Kleinstunternehmen können Elemente des Qualitätsmanagementsystems in vereinfachter Weise einhalten, sofern sie keine Partner- oder verbundenen Unternehmen haben. Die Kommission erstellt dazu Leitlinien. Dies entbindet nicht vom Einhalten bestimmter Anforderungen oder Pflichten dieser Verordnung. |
Hier kannst Du Kapitel VI des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL VII: GOVERNANCE (64-70)
Abschnitt 1: Governance auf Unionsebene | |
Artikel 64 EU AI Act (Kurzfassung): Amt für künstliche Intelligenz | |
Die Kommission nutzt das Amt für künstliche Intelligenz, um das Wissen und die Fähigkeiten bzgl. KI weiterzuentwickeln. Die Mitgliedstaaten unterstützen das Amt dabei. | |
Artikel 65 EU AI Act (Kurzfassung): Einrichtung und Struktur des Europäischen Ausschusses für künstliche Intelligenz | |
Es wird ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet. Mitglieder sind je ein Vertreter pro Mitgliedstaat und der Europäische Datenschutzbeauftragten. Das Amt für künstliche Intelligenz nimmt als nicht abstimmendes Mitglied teil. Die Vertreter werden für drei Jahr ernannt und benötigen die erforderlichen Kompetenzen. Der Ausschuss wird objektiv und unparteiisch organisiert und geführt. Der Vorsitz des Ausschusses liegt bei einem Vertreter der Mitgliedstaaten, unterstützt vom Amt für künstliche Intelligenz. | |
Artikel 66 EU AI Act (Kurzfassung): Aufgaben des Ausschusses | |
Der Ausschuss berät und unterstützt die Kommission und die Mitgliedstaaten bei der einheitlichen Anwendung der Verordnung. U.a. sammelt und verbreitet er technisches und regulatorisches Fachwissen, berät zur Durchführung und der Harmonisierung und fördert die KI-Kompetenz und die sensibilisiert die Öffentlichkeit. Zudem wird die Entwicklung Leitfäden gefördert und die Kommission in internationalen Angelegenheiten im Bereich der KI beraten. Ebenfalls erfolgen Stellungnahmen zu Warnungen bei universellen KI-Modellen und KI-Systemen. | |
Artikel 67 EU AI Act (Kurzfassung): Beratungsforum | |
Ein Beratungsforum wird eingerichtet, um technisches Fachwissen bereitzustellen, den Ausschuss und die Kommission zu beraten und zu den Aufgaben im Rahmen der Verordnung beizutragen. Die Mitglieder repräsentieren eine ausgewogene Auswahl von Interessenträgern, einschließlich Industrie, Start-ups, KMU, Zivilgesellschaft und Wissenschaft. Die Mitglieder haben eine Amtszeit von zwei Jahren. Bestimmte Agenturen und Normungsinstitute sind ständige Mitglieder. Es kann Untergruppen einsetzen, um spezifische Fragen zu prüfen. | |
Artikel 68 EU AI Act (Kurzfassung): Wissenschaftliches Gremium unabhängiger Sachverständiger | |
Die Kommission erlässt Durchführungsrechtsakte zur Einrichtung eines unabhängigen wissenschaftlichen Gremiums, das bei der Durchsetzung der Verordnung unterstützen soll. Das Gremium besteht aus Experten mit Fachkenntnissen in KI, die unabhängig von KI-Anbietern sind und objektiv arbeiten können. Es berät und unterstützt das Amt für künstliche Intelligenz in verschiedenen Aufgaben, darunter die Identifizierung von systemischen Risiken, die Entwicklung von Bewertungsinstrumenten und die Unterstützung der Marktüberwachungsbehörden. Die Mitglieder des Gremiums handeln unparteiisch und vertraulich. Rechtsakte regeln die Ausgabe von Warnungen und den Austausch von Unterstützung zwischen dem Gremium und dem Amt für künstliche Intelligenz. | |
Artikel 69 EU AI Act (Kurzfassung): Zugang zum Pool von Sachverständigen durch die Mitgliedstaaten | |
Die Mitgliedstaaten können Experten des wissenschaftlichen Gremiums zur Unterstützung ihrer Aktivitäten hinzuziehen. Sie können verpflichtet werden, Gebühren für diese Beratungs- und Unterstützungsdienste zu zahlen. Die Kommission gewährleistet einen rechtzeitigen Zugang zu den Sachverständigen. |
Abschnitt 2: Zuständige nationale Behörden | |
Artikel 70 EU AI Act (Kurzfassung): Benennung von zuständigen nationalen Behörden und zentrale Anlaufstelle | |
Jeder Mitgliedstaat muss mindestens eine notifizierende Behörde und eine Marktüberwachungsbehörde benennen. Die Behörden müssen unabhängig handeln. Eine Marktüberwachungsbehörde wird als zentrale Anlaufstelle benannt. Die Behörden müssen über angemessene Mittel, Personal und Infrastruktur verfügen. Sie müssen auch geeignete Cybersicherheitsmaßnahmen ergreifen. Die Behörden unterliegen Vertraulichkeitspflichten. Die Kommission unterstützt den Erfahrungsaustausch zwischen den Behörden und fördert ihre Beratungstätigkeiten, insbesondere für KMU. Der Europäische Datenschutzbeauftragte überwacht die Einhaltung dieser Verordnung durch die Organe der EU. |
Hier kannst Du Kapitel VII des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL VIII: EU-DATENBANK FÜR HOCHRISIKO-KI-SYSTEME (71)
Artikel 71 EU AI Act (Kurzfassung): EU-Datenbank für die in Anhang III aufgeführten Hochrisiko-KI-Systeme | |
Die Kommission richtet in Zusammenarbeit mit den Mitgliedstaaten eine EU-Datenbank für Hochrisiko-KI-Systeme ein. Details dazu werden festgelegt. Die in Anhang VIII aufgeführten Daten werden in die Datenbank eingetragen. Die Datenbank muss benutzerfreundlich und öffentlich zugänglich sein. Nur Marktüberwachungsbehörden und die Kommission haben Zugriff auf bestimmte Informationen. Personenbezogene Daten werden erfasst, die für die Erfassung und Verarbeitung gemäß dieser Verordnung erforderlich sind. Die Kommission ist für die EU-Datenbank verantwortlich. Die Datenbank muss den Barrierefreiheitsanforderungen entsprechen. |
Hier kannst Du Kapitel VIII des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL IX: BEOBACHTUNG NACH DEM INVERKEHRBRINGEN, INFORMATIONSAUSTAUSCH, MARKTÜBERWACHUNG (72-94)
Abschnitt 1: Beobachtung nach dem Inverkehrbringen | |
Artikel 72 EU AI Act (Kurzfassung): Beobachtung nach dem Inverkehrbringen durch die Anbieter und Plan für die Beobachtung nach dem Inverkehrbringen für Hochrisiko-KI-Systeme | |
Anbieter müssen ein geeignetes System zur Beobachtung nach dem Inverkehrbringen für Hochrisiko-KI-Systeme einrichten und dokumentieren. Es muss relevante Leistungsdaten über die gesamte Lebensdauer aktiv erfassen, dokumentieren und analysieren, um die fortlaufende Einhaltung der Anforderungen zu bewerten. Das Beobachtungssystem basiert auf einem Plan, der Teil der technischen Dokumentation ist. Anbieter von Hochrisiko-KI-Systemen, die bereits einem anderen Unionsrecht unterliegen und über ein Beobachtungssystem verfügen, können die erforderlichen Elemente dieses Systems integrieren, sofern ein gleichwertiges Schutzniveau gewährleistet ist. |
Abschnitt 2: Austausch von Informationen über schwerwiegende Vorfälle | |
Artikel 73 EU AI Act (Kurzfassung): Meldung schwerwiegender Vorfälle | |
Anbieter von Hochrisiko-KI-Systemen müssen schwerwiegende Vorfälle unverzüglich melden – spätestens 15 Tagen nach Kenntniserlangung. Bei weitverbreiteten Verstößen sofort oder spätestens in zwei Tagen. Im Falle des Todes einer Person muss die Meldung sofort erfolgen. Anbieter führen nach der Meldung sofort Untersuchungen durch, einschließlich einer Risikobewertung und der Umsetzung von Korrekturmaßnahmen. Die Kommission erstellt Leitlinien zur Erleichterung der Meldung und Überprüfung der Meldungen. |
Abschnitt 3 Durchsetzung | |
Artikel 74 EU AI Act (Kurzfassung): Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt | |
Die Verordnung zur Konformität von Produkten gilt auch für KI-Systeme. Gleiches gilt für Verweise auf Wirtschaftsakteure und Produkte in dieser Verordnung.Marktüberwachungsbehörden, die für Produkte gemäß Anhang I Abschnitt A zuständig sind, werden auch als Marktüberwachungsbehörden für diese Verordnung betrachtet, sofern keine andere Behörde benannt wird. Marktüberwachungsbehörden können Befugnisse aus der Ferne ausüben, um die wirksame Durchsetzung dieser Verordnung sicherzustellen. Marktüberwachungsbehörden und die Kommission können gemeinsame Tätigkeiten zur Förderung der Konformität und Sensibilisierung für Hochrisiko-KI-Systeme vorschlagen und durchführen.Anbieter von Hochrisiko-KI gewähren Marktüberwachungsbehörden Zugang zu relevanten Dokumenten und Daten, ggf. auch des Quellcodes. Informationen und Dokumentation, die Marktüberwachungsbehörden erhalten, unterliegen der Vertraulichkeit. | |
Artikel 75 EU AI Act (Kurzfassung): Amtshilfe, Marktüberwachung und Kontrolle von KI-Systemen mit allgemeinem Verwendungszweck | |
Das Amt für künstliche Intelligenz kann die Konformität von KI-Systemen mit allgemeinem Verwendungszweck überwachen und beaufsichtigen, wenn das System auf einem entsprechenden KI-Modell basiert und beide vom selben Anbieter entwickelt wurden. Wenn Marktüberwachungsbehörden Grund zur Annahme haben, dass KI-Systeme mit allgemeinem Verwendungszweck, die direkt von Betreibern für hochriskante Zwecke verwendet werden können, nicht konform sind, arbeiten sie mit dem Amt für künstliche Intelligenz zusammen, um Konformitätsbewertungen durchzuführen | |
Artikel 76 EU AI Act (Kurzfassung): Beaufsichtigung von Tests unter realen Bedingungen durch Marktüberwachungsbehörden | |
Behörden müssen sicherstellen, dass Tests unter realen Bedingungen gemäß den Vorgaben dieser Verordnung durchgeführt werden. Sie können gegebenenfalls Ausnahmen von bestimmten Bedingungen gestatten. Behörden können Tests aussetzen, abbrechen oder Änderungen verlangen, wenn sie schwerwiegende Vorfälle oder Verstöße feststellen. | |
Artikel 77 EU AI Act (Kurzfassung): Befugnisse der für den Schutz der Grundrechte zuständigen Behörden | |
Behörden können auf alle relevanten Dokumente zugreifen, um ihre Aufgaben wirksam auszuüben. Die erhaltenen Informationen und Dokumente unterliegen der Vertraulichkeit. | |
Artikel 78 AIA Vertraulichkeit | |
Alle beteiligten Parteien müssen die Vertraulichkeit von Informationen wahren, insbesondere im Hinblick auf geistiges Eigentum, Geschäftsgeheimnisse, öffentliche Sicherheit und vertrauliche Daten. Behörden dürfen nur Daten anfordern, die für die Bewertung von Risiken von KI-Systemen und die Ausübung ihrer Befugnisse unbedingt erforderlich sind, und müssen dafür angemessene Cybersicherheitsmaßnahmen ergreifen. | |
Artikel 79 EU AI Act (Kurzfassung): Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko bergen | |
Behörden prüfen KI-Systeme, die Gesundheits-, Sicherheits- oder Grundrechtsrisiken bergen, auf Konformität mit den Verordnungen. Besondere Aufmerksamkeit gilt Systemen, die für schutzbedürftige Gruppen ein Risiko darstellen. Der Akteur muss Korrekturmaßnahmen ergreifen, andernfalls kann die Bereitstellung des Systems eingeschränkt werden. | |
Artikel 80 EU AI Act (Kurzfassung): Verfahren für den Umgang mit KI-Systemen, die vom Anbieter gemäß Anhang III als nicht hochriskant eingestuft werden | |
Marktüberwachungsbehörden prüfen KI-Systeme i.S.v. Anhang III, die vom Anbieter fälschlich als nicht hochriskant eingestuft wurden, auf ihre tatsächliche Hochrisikoeinstufung. Wenn das System als hochriskant eingestuft wird, muss der Anbieter sofort Korrekturmaßnahmen ergreifen, um die Konformität sicherzustellen. Wenn der Anbieter die Konformität nicht innerhalb der vorgegebenen Frist herstellt, können Geldbußen verhängt werden. Der Anbieter muss sicherstellen, dass alle erforderlichen Maßnahmen ergriffen werden, um die Konformität seiner KI-Systeme sicherzustellen. Wenn festgestellt wird, dass der Anbieter das KI-System fälschlich als nicht hochriskant eingestuft hat, um Anforderungen zu umgehen, können Geldbußen verhängt werden. | |
Artikel 81 EU AI Act (Kurzfassung): Union-Schutzverfahren | |
Die Kommission prüft innerhalb von sechs Monaten nach Kenntnis einer nationalen Maßnahme, ob sie mit dem Unionsrecht vereinbar ist. Sie informiert die Marktüberwachungsbehörde des Mitgliedstaats und die betroffenen Akteure.
Hält die Kommission die Maßnahme für gerechtfertigt, müssen alle Mitgliedstaaten geeignete Maßnahmen ergreifen, um das betreffende KI-System einzuschränken. Wenn die Maßnahme als ungerechtfertigt betrachtet wird, muss der betreffende Mitgliedstaat die Maßnahme zurücknehmen. |
|
Artikel 82 EU AI Act (Kurzfassung): Konforme KI-Systeme, die ein Risiko bergen | |
Wenn eine Behörde feststellt, dass ein Hochrisiko-KI-System trotz Einhaltung der Verordnung ein Risiko für die Gesundheit, Sicherheit oder Grundrechte darstellt, fordert sie den Anbieter auf, geeignete Maßnahmen zu ergreifen, um das Risiko innerhalb einer Frist zu beseitigen. | |
Artikel 83 EU AI Act (Kurzfassung): Formale Nichtkonformität | |
Behörden fordern den Anbieter auf, Nichtkonformitäten zu beheben, u.a. das Fehlen der CE-Kennzeichnung, der EU-Konformitätserklärung, der Registrierung in der EU-Datenbank, die Ernennung eines Bevollmächtigten oder das Fehlen technischer Dokumentation. Wenn die Nichtkonformität weiterhin besteht, ergreift die Behörde verhältnismäßige Maßnahmen. | |
Artikel 84 EU AI Act (Kurzfassung): Unionsstrukturen zur Unterstützung der Prüfung von KI | |
Die Kommission bestimmt eine oder mehrere Unionsstrukturen zur Unterstützung der Prüfung von KI i.S.d. EU-Produktverordnung. |
Abschnitt 4: Rechtsbehelfe | |
Artikel 85 EU AI Act (Kurzfassung): Recht auf Beschwerde bei einer Marktüberwachungsbehörde | |
Jede natürliche oder juristische Person, die glaubt, dass gegen die Verordnung verstoßen wurde, kann eine Beschwerde einreichen. | |
Artikel 86 EU AI Act (Kurzfassung): Recht auf Erläuterung der Entscheidungsfindung im Einzelfall | |
Personen, die von Entscheidungen betroffen sind, die von einem Hochrisiko-KI-System getroffen wurden und ihre Rechte, Gesundheit, Sicherheit oder Grundrechte erheblich beeinträchtigen, haben das Recht, klare Erläuterungen zur Rolle des KI-Systems und den wichtigen Entscheidungselementen zu erhalten. | |
Artikel 87 EU AI Act (Kurzfassung): Meldung von Verstößen und Schutz von Hinweisgebern | |
Details zu Verfahren bei Meldung von Verstößen. |
Abschnitt 5: Aufsicht, Ermittlung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen mit allgemeinem Verwendungszweck | |
Artikel 88 EU AI Act (Kurzfassung): Durchsetzung der Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck | |
Die Kommission hat exklusive Befugnisse zur Überwachung und Durchsetzung von Kapitel V der Verordnung. Sie überträgt diese Aufgaben dem Amt für künstliche Intelligenz. | |
Artikel 89 EU AI Act (Kurzfassung): Überwachungsmaßnahmen | |
Das Amt für künstliche Intelligenz kann Maßnahmen ergreifen, um die Einhaltung der Verordnung durch Anbieter von KI-Modellen mit allgemeinem Verwendungszweck zu überwachen, einschließlich der Verhaltenskodizes. Nachgelagerte Anbieter haben das Recht, Beschwerden wegen Verstößen gegen die Verordnung einzureichen. | |
Artikel 90 EU AI Act (Kurzfassung): Warnungen des wissenschaftlichen Gremiums vor systemischen Risiken | |
Das wissenschaftliche Gremium eine Warnung übermitteln, wenn es Grund zur Annahme hat, dass ein KI-Modell mit allgemeinem Verwendungszweck ein konkretes Risiko birgt. Die Warnung muss angemessen begründet sein. | |
Artikel 91 EU AI Act (Kurzfassung): Befugnis zur Anforderung von Dokumentation und Informationen | |
Die Kommission kann den Anbieter eines KI-Modells mit allgemeinem Verwendungszweck auffordern, Dokumentation oder zusätzliche Informationen vorzulegen. Der Anbieter stellt die angeforderten Informationen bereit. | |
Artikel 92 EU AI Act (Kurzfassung): Befugnis zur Durchführung von Bewertungen | |
Das Amt für künstliche Intelligenz kann Bewertungen von KI-Modellen mit allgemeinem Verwendungszweck durchführen, um die Einhaltung der Verordnung zu prüfen oder systemische Risiken zu identifizieren. | |
Artikel 93 EU AI Act (Kurzfassung): Befugnis zur Aufforderung zu Maßnahmen | |
Die Kommission kann Anbieter auffordern, Maßnahmen zur Einhaltung der Verordnung zu ergreifen, Risikominderungsmaßnahmen durchzuführen oder die Bereitstellung des KI-Modells einzuschränken. | |
Artikel 94 EU AI Act (Kurzfassung): Verfahrensrechte der Wirtschaftsakteure des KI-Modells mit allgemeinem Verwendungszweck | |
Regelung von Vorgaben für Verfahren von Anbietern von KI-Modellen i.S.d. EU-Produktverordnung. |
Hier kannst Du Kapitel IX des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL X: VERHALTENSKODIZES UND LEITLINIEN (95-96)
Artikel 95 EU AI Act (Kurzfassung): Verhaltenskodizes für die freiwillige Anwendung bestimmter Anforderungen | |
Das Amt für künstliche Intelligenz und die Mitgliedstaaten unterstützen die Entwicklung von Verhaltenskodizes für KI-Systeme, die kein hohes Risiko bergen, unter Berücksichtigung technischer Lösungen und bewährter Verfahren der Branche. Dies gilt für Verhaltenskodizes aller KI-Systeme, einschließlich klarer Ziele und Leistungsindikatoren zur Messung der Zielerreichung, z. B. Ethik-Leitlinien der Union, ökologische Nachhaltigkeit, Förderung von KI-Kompetenz, Vielfalt und Inklusion sowie Schutz schutzbedürftiger Personen. Verhaltenskodizes können von Einzelpersonen, Interessenvertretungen oder einer Kombination davon erstellt werden und können sich auf einzelne oder mehrere KI-Systeme erstrecken. Bedürfnisse von KMU werden dabei besonders berücksichtigt. | |
Artikel 96 EU AI Act (Kurzfassung): Leitlinien der Kommission zur Durchführung dieser Verordnung | |
Die Kommission erstellt Leitlinien zur Umsetzung, einschließlich Anwendungsanforderungen, verbotener Praktiken, Transparenzpflichten, Harmonisierungsrechtsvorschriften der Union und Definitionen von KI-Systemen. Die Leitlinien berücksichtigen den aktuellen Stand der Technik und harmonisierte Normen. Die Kommission aktualisiert diese Leitlinien, wenn notwendig. |
Hier kannst Du Kapitel X des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL XI: BEFUGNISÜBERTRAGUNG UND AUSSCHUSSVERFAHREN (97-98)
Artikel 97 EU AI Act (Kurzfassung): Ausübung der Befugnisübertragung | |
Die Kommission erhält die Befugnis zum Erlass von Rechtsakten für fünf Jahre. Diese Befugnis kann vom Europäischen Parlament oder vom Rat jederzeit widerrufen werden. | |
Artikel 98 EU AI Act (Kurzfassung): Ausschussverfahren | |
Die Unterstützung der Kommission erfolgt durch einen Ausschuss. |
Hier kannst Du Kapitel XI des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL XII: SANKTIONEN (99-101)
Artikel 99 EU AI Act (Kurzfassung): Sanktionen | |
Die Mitgliedstaaten erlassen Vorschriften für Sanktionen und Durchsetzungsmaßnahmen bei Verstößen gegen die Verordnung. Diese umfassen Geldbußen von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstöße gegen verbotene KI-Praktiken und bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes für andere Verstöße. Bei falschen Informationen drohen Geldbußen von bis zu 7,5 Millionen Euro oder 1% des Jahresumsatzes. KMU haben reduzierte Geldbußen. | |
Artikel 100 EU AI Act (Kurzfassung): Verhängung von Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union | |
Der Europäische Datenschutzbeauftragte kann Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union verhängen. Bei Verstößen gegen verbotene KI-Praktiken können Geldbußen von bis zu 1,5 Millionen Euro verhängt werden.Bei Nichtkonformität mit anderen Anforderungen drohen Geldbußen von bis zu 750.000 Euro. | |
Artikel 101 EU AI Act (Kurzfassung): Geldbußen für Anbieter von KI-Modellen für allgemeine Zwecke | |
Die Kommission kann gegen Anbieter von KI-Modellen mit allgemeinem Verwendungszweck Geldbußen von bis zu 3 % ihres weltweiten Jahresumsatzes oder 15 Millionen Euro verhängen. Dies geschieht, wenn der Anbieter vorsätzlich oder fahrlässig gegen die Verordnung verstößt, Dokumentationsanforderungen nicht erfüllt, Maßnahmen nicht umsetzt oder der Kommission keinen Zugang zum Modell gewährt. |
Hier kannst Du Kapitel XII des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
KAPITEL XIII: SCHLUSSBESTIMMUNGEN (102-113)
Artikel 102 EU AI Act (Kurzfassung): Änderung der Verordnung (EG) Nr. 300/2008 | |
Betrifft Zivilluftfahrt | |
Artikel 103 EU AI Act (Kurzfassung): Änderung der Verordnung (EU) Nr. 167/2013 | |
Betrifft forstwirtschaftliche Fahrzeuge | |
Artikel 104 EU AI Act (Kurzfassung): Änderung der Verordnung (EU) Nr. 168/2013 | |
Betrifft vierrädrige Kraftfahrzeuge | |
Artikel 105 EU AI Act (Kurzfassung): Änderung der Richtlinie 2014/90/EU | |
Betrifft Schiffsausrüstung | |
Artikel 106 EU AI Act (Kurzfassung): Änderung der Richtlinie (EU) 2016/797 | |
Betrifft Eisenbahnen | |
Artikel 107 EU AI Act (Kurzfassung): Änderung der Verordnung (EU) 2018/858 | |
Betrifft Kraftfahrzeuge | |
Artikel 108 EU AI Act (Kurzfassung): Änderung der Verordnung (EU) 2018/1139 | |
Betrifft Zivilluftfahrt und Flugüberwachung | |
Artikel 109 EU AI Act (Kurzfassung): Änderung der Richtlinie (EU) 2019/2144 | |
Betrifft Typengenehmigung von KFZ | |
Artikel 110 EU AI Act (Kurzfassung): Änderung der Richtlinie (EU) 2020/1828 | |
Betrifft den Verbraucherschutz | |
Artikel 111 EU AI Act (Kurzfassung): Bereits in Verkehr gebrachte oder in Betrieb genommene KI-Systeme | |
KI-Systeme, die Komponenten von IT-Großsystemen sind und 36 Monate vor Inkrafttreten der Verordnung in Verkehr gebracht wurden, müssen bis zum 31. Dezember 2030 mit dieser Verordnung in Einklang gebracht werden. Für Hochrisiko-KI-Systeme, die 24 Monate davor in Verkehr gebracht wurden, gilt dies dann, wenn sie danach erheblich verändert wurden. Bei Hochrisiko-KI-Systemen für Behörden müssen Anbieter und Betreiber die Anforderungen bis zu sechs Jahre nach dem Inkrafttreten der Verordnung erfüllen. Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, die 12 Monate vorher in Verkehr gebracht wurden, müssen bis zu 36 Monate nach dem Inkrafttreten der Verordnung die erforderlichen Maßnahmen zur Erfüllung der Pflichten gemäß dieser Verordnung treffen. | |
Artikel 112 EU AI Act (Kurzfassung): Bewertung und Überprüfung | |
Die Kommission überprüft jährlich die Listen in Anhang III und der verbotenen Praktiken. Alle vier Jahre bewertet die Kommission die Notwendigkeit von Änderungen. Die Kommission führt alle vier Jahre eine Bewertung der Fortschritte bei der Normung von KI-Systemen durch. Alle drei Jahre führt die Kommission eine Bewertung der freiwilligen Verhaltenskodizes durch. Das KI-Amt entwickelt eine Methode zur Bewertung von Risikoniveaus und zur Einbeziehung neuer Systeme in die relevanten Listen. Die Kommission führt nach sieben Jahren eine umfassende Bewertung der Durchsetzung der Verordnung durch und erstattet dem Europäischen Parlament, dem Rat und dem Europäischen Wirtschafts- und Sozialausschuss Bericht. | |
Artikel 113 EU AI Act (Kurzfassung): Inkrafttreten und Geltungsbeginn | |
Die Verordnung tritt am 20. Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft. Sie gilt 24 Monate nach dem Inkrafttreten.Andere Fristen gelten u.a. für verbotene KI (9 Monate) und Hochrisiko-KI (36 Monate) |
Hier kannst Du Kapitel XIII des EU AI Act mit allen Artikeln, den betreffenden Erwägungsgründen, Anhängen und Verweisen interaktiv erforschen
Weiterführende Informationen zum EU AI Act:
Be First to Comment