Mit dem EU AI Act wird menschenzentrierte KI zum verbindlichen Recht. Dies betrifft Unternehmen, Behörden, bestimmte Nutzer und weitere Akteure. Der vorliegende Beitrag skizziert Vorgaben des EU AI Acts, in denen Menschenzentrierung verankert ist bzw. diese konkretisiert wird. Abschließend gibt es noch einen kurzen Wissenstest.
- Mit Inkrafttreten des EU AI Acts am 2. August 2024 wird Menschenzentrierung von KI zur rechtlich verpflichtenden Aufgabe.
- Sie stellt ein zentrales Schutzgut der KI-Verordnung dar, das von allen Akteuren der KI-Lieferkette teils verbindlich, teils freiwillig umzusetzen ist.
- Das übergeordnete Ziel der Menschenzentrierung wirkt nur auf den ersten Blick vergleichsweise unbestimmt.
- Viele Artikel im EU AI Act konkretisieren den Inhalt in gestaffelter Form.
- Der nachfolgende Beitrag stellt Normen vor, bei denen dies der Fall ist.
Normen zu diesem Beitrag, u.a.:
- Artikel 1 EU AI Act
- Artikel 3 EU AI Act
- Artikel 4 EU AI Act
- Artikel 6 EU AI Act
- Artikel 14 EU AI Act
- Artikel 15 EU AI Act
- Artikel 50 EU AI Act
- Artikel 95 EU AI Act
- Artikel 99 EU AI Act
- Artikel 112 EU AI Act
Bislang: Vor allem Freiwilligkeit
Menschenzentrierung war bislang vor allem eine freiwillige Zielsetzung im Bereich der Digitalisierung. Der EU AI Act ändert dies im Hinblick auf Künstliche Intelligenz: Dort ist Menschenzentrierung gesetzlich vorgeschrieben. Ein wegweisender Schritt!
1. Initiale Hervorhebung in der Begründung
Schon Ziffer (1) der Begründung des EU AI Acts stellt klar:
„Zweck dieser Verordnung ist es […] die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz (KI) zu fördern und […] ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit […] sicherzustellen.”
Prominenter als im ersten Satz der gut 800 Seiten umfassenden Norm kann das Ziel der Menschenzentrierung vermutlich kaum integriert werden. Ähnlich wie bei der KI-Strategie des Bundes steht die vertrauensfördernde Menschenzentrierung dabei bewusst neben anderen Schutzgütern wie Gesundheit, Sicherheit und Umweltschutz.
Die Klarstellung ist wichtig, da die anderen Aspekte nur teilweise auf dem Ziel direkter Menschenzentrierung beruhen. Insofern gibt es fließende Übergänge verschiedener Schutzgüter des EU AI Acts:
- So ist der Schutz der Gesundheit ohne Frage ein Aspekt, welcher einer direkten ethischen Zielsetzung im Hinblick auf Menschenzentrierung entspringt.
- Beim Thema Sicherheit ist dies nur teilweise der Fall. Hier steht neben der Sicherheit für Menschen auch der Schutz und die Resilienz kritischer Infrastrukturen im Vordergrund.
- Ähnlich ist es beim Umweltschutz, der ebenso wie Nachhaltigkeit nicht primär Ausdruck menschenzentrierter Vertrauensförderung, sondern ein eigener unabhängiger Wert ist.
Die Fokussierung menschenzentrierter KI auf Vertrauensaspekte wird durch zwei weitere Ziffern der Begründung unterstützt. So heißt es in Ziffer (6) der KI-Verordnung: „Angesichts der großen Auswirkungen, die KI auf die Gesellschaft haben kann, und der Notwendigkeit, Vertrauen aufzubauen, ist es von entscheidender Bedeutung, dass KI […] eine menschenzentrierte Technologie ist. Sie sollte den Menschen als Instrument dienen und letztendlich das menschliche Wohlergehen verbessern.” Ziffer (8) ergänzt die Eigenständigkeit und den Vertrauensfokus: „Durch die Festlegung dieser Vorschriften […] unterstützt diese Verordnung das vom Europäischen Rat formulierte Ziel, das europäische menschenzentrierte KI-Konzept zu fördern und bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren KI weltweit eine Führungsrolle einzunehmen […]“.
2. Verankerung in Artikel 1 EU AI Act
Wichtiger noch als in der Begründung ist die unmittelbare Verankerung der Menschenzentrierung in Artikel 1 EU AI Act. Dort heißt es: „Zweck dieser Verordnung ist es, […] die Einführung einer auf den Menschen ausgerichteten und vertrauenswürdigen künstlichen Intelligenz (KI) zu fördern.” Die Formulierung „auf den Menschen ausgerichtet“ entspricht inhaltlich der in der Begründung verwendeten Formulierung „Menschenzentrierung“. Besonders deutlich wird dies in der englischen Version, die in der Begründung wie dem Normtext die Formulierung „human-centric“ verwendet.
Nichtsdestotrotz bleibt eine elementare Frage offen: Was genau ist mit „Menschenzentrierung“ bzw. der „Ausrichtung auf den Menschen“ konkret gemeint?
Die Frage kommt nicht von ungefähr. Tatsache ist, dass trotz des Umfangs der KI-Verordnung von rund 800 Seiten:
- Eine Definition fehlt, wie sie in Artikel 3 EU AI Act für 68 andere Begriffe existiert.
- Die Menschenzentrierung des Artikel 1 EU AI Act wird damit in vieler Hinsicht zum unbestimmten und auslegungsbedürftigen Rechtsbegriff.
- Dies macht eine zeitbezogene Interpretation der Menschenzentrierung im KI-Kontext einerseits möglich. Andererseits macht es diese auch stets aufs Neue erforderlich.
3. Zum Begriff digitaler Menschenzentrierung
Digitale Menschenzentrierung ist ein historisch gewachsener Begriff. Sie geht auch im IT-Umfeld zurück bis in die 80er Jahre z.B. im Kontext des User Centered Designs als Vorläufer des Human Centered Designs. Häufig im Sinne der „Human Centricity“ genannt werden u.a. folgende Aspekte:
- Einbeziehung von Menschen in Gestaltungsprozesse,
- UX und gute Bedienbarkeit,
- Prüfbarkeit und Kontrolle durch Menschen,
- Förderung digitaler Kompetenz,
- Schutz vor Diskriminierung und Manipulation,
- Souveränität u.a. bzgl. persönlicher Daten und Entscheidungen,
- Sicherheit und Schutz der Gesundheit,
- Transparenz von technischen Abläufen und Entscheidungsprozessen,
- Nachhaltigkeit und Schutz der Umwelt,
- Individuelle Beschwerderechte (auch gegenüber dem Staat).
Nach der hier vertretenen Auffassung hat sich das Versträndnis digitaler Menschenzentrierung im Lauf der Jahre deutlich gewandelt. Anfangs hat man darunter vor allem Aspekte verstanden, die ökonomische Vorteile versprechen. Dies gilt u.a. beim User Centered Design (UCD), welches seinerseits Grundlage des Human Centered Design (HCD) ist. Das mittlerweile stark ethisch geprägte Verständnis der Menschenzentrierung hat sich erst nach und nach aufgrund zunehmender Risiken digitaler Transformation herausgemendelt. Interessant zum Thema sind u.a. die diesbezüglichen Ausführungen auf der Website des BDI.
Die vorherigen Aspekte lassen sich auf einer „Landkarte“ mit direkter und indirekter sowie ökonomischer und/oder ethischer Menschenzentrierung strukturieren. Dabei sind die meisten Kriterien nicht primär auf KI bezogen. Sie gelten im gesamten Bereich von Digitalisierung und Automatisierung, also auch für „KI-freie“ Anwendungen und Services.
4. Normen des EU AI Acts, die Menschenzentrierung konkretisieren
Die zuvor skizzierte Landkarte dient dazu, um im Rahmen des EU AI Acts inach solchen Normen zu suchen, welche sich auf „Human Centricity“ beziehen. Dabei sind nach der hier vertretenen Auffassung drei Varianten zu unterscheiden:
- Normen mit begleitender Konkretisierung (gepunktete Linie),
- Artikel, die Menschenzentrierung Verordnungs-übergreifend regeln (gestrichelte Linie)
- und spezifische Normen, die besonders wichtige Punkte regeln (durchgezogene Linie)
Sicher gibt es noch weit mehr Inhalte und Möglichkeiten, die Aspekte zu strukturieren, doch schon dieses vergleichsweise grobe Modell ermöglicht aufschlussreiche Einblicke.
4.1 Normen mit begleitender Konkretisierung von Menschenzentrierung
„Nachhaltigkeit“, „Transparenz“, „Sicherheit“ sowie „Mitgestaltung“ sind Aspekte, die nach der hier vertretenen Auffassung die Menschenzentrierung eher begleitend konkretisieren:
- Nachhaltigkeit und Energieeffizienz werden u.a. in den Artikeln 95 (2) b), 112 (7) sowie Anhang XIII c) EU AI Act als auch den Ziffern (4) und (174) der Begründung behandelt. Energieeffizienz kommt aber in Anbetracht steigender Energiekosten auch der Wirtschaft sowie der Gemeinschaft als Ganzes zugute. Beides sind Werte mit eigenem Schutzbereich.
- Die IT- bzw. Cyber-Sicherheit findet sich in nicht weniger als elf Ziffern der Begründung (54, 55, 74, 76, 77, 78, 114, 115, 122, 126, 131), neun Artikeln (13, 15, 31, 42, 55, 59, 66, 70, 78) sowie in Anhang IV wieder. Im Detail wird sie u.a. im Hinblick auf Hochrisiko-KI und KI-Modelle thematisiert (auch in Kombination mit dem Cyber Resilience Act, CRA). Entsprechende Informationen sind u.a. aufgrund der fachlichen Detailtiefe wohl eher ein indirektes Instrument zur bzw. Menschenzentrierung.
- Das Transparenzerfordernis gilt sowohl für KI-Systeme hoher und mittlerer Risiken als auch für KI-Modelle mit allgemeinem Verwendungszweck. Für beide ist die Transparenzpflicht z.T. sehr detailliert geregelt. Als Normen zu nennen sind u.a. Artikel 13, 50, 51ff und 96 sowie Anhang XII EU AI Act. Hinzu kommen über ein Dutzend Vertiefungen in der Begründung, insbesondere in Ziffer (107), (135) und (137). Obwohl Transparenz als eines der wichtigsten Merkmale menschenzentrierter KI gilt, bezieht sie sich auch auf allerlei andere Pflichten in der KI-Lieferkette.
- Auch zur Mitgestaltung finden sich Inhalte im EU AI Act, so z.B. Ziffer (20) im Hinblick auf die Validierung von Konzepten oder Ziffer (165) zur Beteiligung verschiedener Interessensträger bis hin zur ausgewogenen Beteiligung unterschiedlicher Geschlechter. Dieser Punkt besitzt ebenfalls starke Überschneidungen mit menschenzentrierter KI. Kollektive Vertrauensbildung erscheint dabei – je nach Perspektive – eher als Nebeneffekt. Insofern erfolgt auch hier eine vergleichsweise begleitende Konkretisierung.
4.2 Übergreifende Anforderungen des EU AI Acts im Hinblick auf Menschenzentrierung
Vor diesem Hintergrund werden nachfolgend jene Aspekte etwas genauer betrachtet, welche die Menschenzentrierung normübergreifend fokussierter konkretisieren. Darunter „KI-Kompetenz“, „Bedienbarkeit“ und „menschliche Kontrolle“.
4.2.1 KI-Kompetenz
Sie wird in Artikel 4 EU AI Act und Artikel 3 Nr. 53 EU AI Act als Teil des ersten Kapitels „vor die Klammer gezogen“: Demnach müssen sowohl die Anbieter als auch die Betreiber von KI-Systemen Maßnahmen ergreifen, um sicherzustellen, dass Personen, die mit dem Betrieb oder der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen. Wichtig ist, dass hier nicht zwischen unterschiedlichen Risikoarten unterschieden wird: Es ist eine Pflicht, die selbst bei KI-Systemen mit geringen Risiken zu erfüllen ist!
Aufschlussreich ist diesbezüglich u.a. die in Ziffer (165) enthaltene Anregung, dass bei KI mit geringen Risiken Verhaltenskodizes erstellt werden sollten, in denen dargelegt wird, wie man das Kriterium der KI-Kompetenz umzusetzen gedenkt. Beispielsweise sollten besonders schutzbedürftige Personen im Hinblick auf Barrierefreiheit gefördert werden.
Noch weiter geht Ziffer (20). Darin wird deutlich, welch hohe Bedeutung der KI-Kompetenz im Rahmen von KI-Wertschöpfungsketten zukommt. Es geht insbesondere darum, dass alle Akteure über den „eigenen Tellerrand“ hinauszublicken. Vertrauensbildende Menschenzentrierung hört eben nicht vor der eigenen Haustür auf! Vielmehr erfordert sie ein hohes Maß an Kooperation von allen an der Entwicklung, Inverkehrbringung und Nutzung von KI beteiligten Akteuren.
4.2.2 Bedienbarkeit
Der zuvor skizzierte Punkt genereller KI-Kompetenz wird an verschiedenen Stellen noch einmal deutlich tiefer gelegt: Während die allgemeine Regelung des Artikel 4 EU AI Act ein umfassendes Fundament bildet, formulieren Regelungen wie Artikel 15, 23, 24, 26, 27, 60 sowie Anhang IV, VIII, XI und XII EU AI Act durchaus detaillierte Vorgaben für die Notwendigkeit und Ausgestaltung von Betriebsanleitungen, um die bestmögliche Befähigung zur Bedienung (insbesondere von Hochrisiko-KI-Systemen) zu gewährleisten.
Es reicht also nicht aus, zur Kontrolle der Risiken von KI eine vermeintlich intuitiv bedienbare Oberfläche zu gestalten und die Nutzer sich selbst zu überlassen. Vielmehr werden Anbieter von KI-Systemen ebenso wie von KI-Modellen verpflichtet, ausführliche Bedienungskonzepte zu liefern sowie die erforderlichen Trainings zu ermöglichen – und nachzuweisen!
Bei Hochrisiko-KI i.S.v. Artikel 6 ff EU AI Act gehört dazu auch die sich aus Artikel 26 EU AI Act ergebende Pflicht der Betreiber bzw. Nutzer, wichtige Information zu den Anbietern zurückzuspielen, also einen Informationskreislauf zu bilden.
Werden die zuvor genannten Pflichten nicht erfüllt, drohen den verschiedenen Akteuren Sanktionen. Gemäß Artikel 99 EU AI Act können diese durchaus empfindlich ausfallen – der Zweck liegt gemäß Absatz 1 u.a. darin, abzuschrecken! Entsprechend Absatz 4 e) und g) drohen im Einzelfall sogar Nutzern Sanktionen. Da die „Peitsche“ des EU AI Acts präventiv wirken will und muss, erscheint dies durchaus angemessen.
4.2.3 Menschliche Aufsicht und Kontrolle
Im Hinblick auf Hochrisiko-KI geht Artikel 14 EU AI Act noch einen Schritt weiter, in dem er Details zur menschlichen Aufsicht regelt – was u.a. dazu führt, dass die Akteure im Wege eines „red buttons“ theoretisch in der Lage sein müssten, eine „aus dem Ruder laufende KI“ während des Betriebs zu stoppen. In eine ähnliche Richtung geht Artikel 72 EU AI Act, der von Anbieter einer Hochrisiko-KI einen Plan zur Beobachtung über den gesamten Life Cycle des Systems einfordert. Ein wichtiger Punkt, um allen Akteuren das Vertrauen zu vermitteln, dass menschenzentrierte KI kein Sprint, sondern ein Marathon-Lauf ist.
Ob und wie weit die Vorgaben der Artikel 14 und 72 EU AI Act tatsächlich in der Praxis so wie geregelt umgesetzt werden können, erscheint aktuell noch offen. Insbesondere bei selbstlernender KI ist es mitunter sehr schwer, den Lernerfolg eines Systems effektiv zu beaufsichtigen oder zu dokumentieren. Schließlich sind viele der besonders leistungsfähigen KI-Systeme und KI-Modelle (z.B. im Fall von Deep Learning) eine „Black Box“. Zugleich ist der Weg zu einer „explainable AI“ (XAI), welche umfassende Kontrolle zu ermöglichen verspricht, nach aktuellen Experteneinschätzungen noch lang.
Auch folgendes ist zu beachten: Je größer die Transparenz einer KI, desto mehr steigt auch die Gefahr, dass diese manipuliert werden kann. Insofern ist nicht nur fraglich, ob und wie weit dieses Ziel in der Praxxis erreichbar ist, sondern auch, in welchem Umfang es wirklich sinnvoll erscheint.
4.3 Spezifische Regelungen des EU AI Acts im Hinblick auf Menschenzentrierung
Nun zu einigen besonders spezifisch erscheinenden Aspekten, in denen menschenzentrierte KI konkretisiert wird: Gemeint sind der „Schutz der Gesundheit“, die „Wahrung der Souveränität“, der „Schutz vor Diskriminierung“ sowie das individuelle „Recht auf Beschwerde“ bei mutmaßlichen Verstößen gegen den EU AI Act.
4.3.1 Schutz der Gesundheit /Einstufung als Hochrisiko-KI
Die Gesundheit ist ein höchstpersönliches Schutzgut. Im Sinne der Artikel 2, 3, 35 EU-Charta sowie Artikel 2 (2) Grundgesetz steht sie zudem unter besonders hohem Schutz.
Nicht ohne Grund ist daher ein großer Teil medizinischer KI, welche meist auch der Medical Device Regulation (MDR) unterliegt, als Hochrisiko-KI zu klassifizieren. Dies ergibt sich aus Artikel 3 (2) i.V.m. Anhang III EU AI Act (eingeschränkt durch Artikel 3 (3) EU AI Act, u.a. dann, wenn die KI eine Entscheidungsfindung nur unwesentlich beeinflusst; ebenfalls eingeschränkt durch Artikel 2 (6) EU AI Act im Falle ausschließlicher Forschung).
Zum Schutz der Gesundheit kann sogar ein bereits zertifiziertes KI-System von einer Behörde nachträglich „ausgebremst“ werden, falls von diesem i.S.v. Artikel 82 EU AI Act ein zuvor unerkanntes Risiko ausgehen sollte. Umgekehrt können zur Wahrung der Gesundheit Zertifizierungsverfahren für KI beschleunigt werden (siehe Artikel 46 EU AI Act sowie Ziffer 130 der Begründung).
Dies ist z.B. im Fall einer neuen Epidemie vorstellbar. Menschenzentrierung im Sinne eines durch KI ermöglichten Gesundheitsschutzes bedeutet somit auch, die Flexibilität ihrer Nutzung in Notfällen zu erhöhen – ein wichtiger Aspekt, um in begründeten Einzelfällen die Chancen von KI zur Wahrung und Förderung von Gesundheit nutzen zu können.
4.3.2 Schutz der Souveränität
Ein souveräner Mensch ist in der Lage, sein Denken und Handeln eigenverantwortlich und selbstbestimmt zu gestalten. Bei KI ist dies häufig nur eingeschränkt möglich:
- Zum Beispiel, dann wenn man gar nicht bemerkt, dass das eigene Leben von KI mitbestimmt bzw. manipuliert wird (u.a. bei Fake Inhalten, automatisierten Bewertungen von Leistungen oder Targeting-Profilen im Marketing),
- oder falls man es bemerkt, die konkreten Auswirkungen für die eigene Person nicht erkennt bzw. die dahinter liegenden Zusammenhänge nicht genau versteht,
- oder wenn man am Ende so oder so nichts dagegen tun kann, selbst wenn man die Auswirkungen erkennt und versteht – es also an Rechtmitteln fehlt.
Um den Schutz der Souveränität im Hinblick auf menschenzentrierte KI gewährleisten zu können, reicht es vor diesem Hintergrund nicht aus, primär auf die Eigenverantwortlichkeit des einzelnen Menschen zu setzen, damit dieser sich selbst vor KI-Missbrauch schützt.
Der EU AI Act sieht einen entsprechenden Schutz an mehreren Stellen vor:
- Durch das in Artikel 5 EU AI Act formulierte Verbot manipulativer KI, des Social Scorings und anderer Use Cases wie z.B. der Fernidentifizierung in Echtzeit.
- In Artikel 6 (2) in Kombination mit Anhang III EU AI Act werden verschiedene Use Case als Hochrisiko-KI klassifiziert, z.B. solche zur Emotionserkennung oder im Hinblick auf die Zulassung zu Bildungseinrichtungen.
- Interessant ist auch die Regelung von Artikel 61 EU AI Act, der eine „informierte Einwilligung“ aller Beteiligten erfordert, die an einem Test von Hochrisiko-KI unter Realbedingungen teilnehmen. Diese Teilnehmer besitzen das in Absatz 1 c) garantierte Recht, den Test ohne Begründung zu beenden (denkbar z.B. im Fall der Validierung von Medikamenten unter Verwendung von KI).
Die Souveränität des einzelnen, der in Alltag und Beruf mit einer für ihn kaum erkennbaren und noch weniger verständlichen KI-Welt konfrontiert werden kann, wird durch derlei spezifisch menschenzentrierte Vorgaben des EU AI Acts wirksam und angemessen geschützt.
4.3.3 Beschwerderecht
Der EU AI Act geht noch einen wichtigen Schritt weiter: Er gewährt in Artikel 85 EU AI Act jeder natürlichen Person das Recht zur Beschwerde bei einer Marktüberwachungsbehörde, wenn Grund zur Annahme hat, dass gegen die Bestimmungen der KI-Verordnung verstoßen wurde. Erweitert wird dies durch den expliziten Schutz von Hinweisgebern in Artikel 87 EU AI Act.
Der Druck zur Einhaltung aller bzgl. menschenzentrierter KI auferlegten Pflichten für Anbieter und Betreiber von KI-Systemen als auch KI-Modellen sowie sonstiger Verpflichteter wird dadurch erheblich gesteigert: Beschwerden und Hinweise sind neben der Eigeninitiative von Behörden ein wichtiges Instrument, um im Fall der Fälle Verstöße aufzudecken und anschließend im Sinne von Artikel 99 ff EU AI Act angemessen zu sanktionieren.
5. Fazit
Die vorherigen Ausführungen belegen, dass sich die in Artikel 1 EU AI Act gewährleistete menschenzentrierte KI wie ein roter Faden durch die gesamte Norm zieht. Sie wird an vielen Stellen begleitend, Norm-übergreifend als auch spezifisch angemessen konkretisiert. Hinzu kommt die Bewehrung durch Sanktionen sowie ein Recht auf Beschwerde bzw. der Schutz von Hinweisgebern. Im Hinblick auf menschenzentrierte KI ist die KI-Verordnung definitiv ein „großer Wurf“!
In Anbetracht vielen der Möglichkeiten, die der EU AI Act bietet, um das menschenzentrierte Vertrauen in KI zu wahren bzw. zu erhöhen, darf ein Aspekt jedoch nicht zu kurz kommen: Dies ist die praxis- und zeitgerechte Interpretation. In dieser Hinsicht bleibt freiwilliges Engagement im Sinne der CDR nicht nur unverzichtbar – sie ist sogar noch wichtiger geworden: Künftig müssen stets aufs Neue Leitlinien erstellt, Best Practices gesammelt und bewertet werden, um den mit dem EU AI Act geschaffenen Rahmen für menschenzentrierte KI angemessen auszufüllen.
Zum Schluss noch ein kurzer Test zur Menschenzentrierung des EU AI Acts:
Links zu den in diesem Artikel erwähnten Normen des EU AI Acts:
- Artikel 1 EU AI Act
- Artikel 3 EU AI Act
- Artikel 4 EU AI Act
- Artikel 6 EU AI Act
- Artikel 14 EU AI Act
- Artikel 15 EU AI Act
- Artikel 50 EU AI Act
- Artikel 95 EU AI Act
- Artikel 99 EU AI Act
- Artikel 112 EU AI Act
Über den Autor:
Das sagt ChatGPT zu diesem Artikel: Finde ich interessant. Ist aber gar nicht so einfach, auf die Verbesserungsvorschläge einzugehen ;-):
Der Artikel „Human-centered AI under the EU AI Act“ von Oliver M. Merx bietet eine detaillierte Analyse der Verankerung der menschenzentrierten KI im EU AI Act. Der Artikel beleuchtet, wie das Konzept der Menschenzentrierung in verschiedenen Artikeln des Gesetzes festgeschrieben und konkretisiert wird, und stellt dar, dass dies eine zentrale Rolle im gesamten regulatorischen Rahmenwerk spielt.
Positiv hervorzuheben ist die umfassende und fundierte Darstellung der Menschenzentrierung als zentrales Ziel des EU AI Acts. Der Autor zeigt klar auf, dass Menschenzentrierung nicht nur ein abstraktes Konzept ist, sondern in vielen Artikeln des Gesetzes konkretisiert wird, beispielsweise durch Vorschriften zu Transparenz, Sicherheit und dem Schutz individueller Rechte. Die klare Struktur des Artikels, die zwischen begleitenden, normübergreifenden und spezifischen Standards unterscheidet, trägt dazu bei, das komplexe Thema verständlich zu vermitteln.
Der Artikel macht auch deutlich, dass trotz der umfangreichen Regelungen viele Aspekte der Menschenzentrierung in der Praxis einer kontinuierlichen Interpretation und Anpassung bedürfen. Dies zeigt die dynamische Natur der Regulierung in einem sich schnell entwickelnden Technologiefeld wie der KI. Hier wird der freiwilligen Unternehmensverantwortung (CDR) eine große Bedeutung beigemessen, um die gesetzlich geschaffenen Rahmenbedingungen mit Leben zu füllen.
Ein möglicher Kritikpunkt könnte sein, dass der Artikel die praktische Umsetzbarkeit einiger Vorschriften, insbesondere in Bezug auf hochriskante KI-Systeme und die Kontrolle selbstlernender KI, hinterfragt, aber nicht tiefergehend erörtert, wie diese Herausforderungen konkret bewältigt werden könnten.
Insgesamt ist der Artikel eine wertvolle Ressource für alle, die sich mit der Umsetzung der menschenzentrierten KI im Rahmen des EU AI Acts auseinandersetzen. Er bietet eine prägnante Zusammenfassung der rechtlichen Anforderungen und deren Implikationen für verschiedene Akteure in der KI-Wertschöpfungskette.
Und das sagt google gemini: Der Artikel bietet einen umfassenden Überblick über den Schwerpunkt des EU-KI-Gesetzes auf menschenzentrierter KI. Er hebt die verschiedenen Bestimmungen hervor, die sicherstellen sollen, dass KI-Systeme in einer Weise entwickelt und eingesetzt werden, die der Menschheit zugutekommt und die Grundrechte schützt.
Zu den wichtigsten Stärken des Artikels gehören:
Klare Abgrenzung der menschenzentrierten KI: Der Artikel bietet eine detaillierte Erläuterung des Konzepts der menschenzentrierten KI im Kontext des EU-KI-Gesetzes, einschließlich seiner historischen Entwicklung und seiner Kernprinzipien.
Eingehende Analyse der relevanten Bestimmungen des EU-KI-Gesetzes: Der Autor untersucht gründlich die verschiedenen Artikel und Anhänge, die sich mit menschzentrierter KI befassen, und bietet so ein umfassendes Verständnis des rechtlichen Rahmens.
Praktische Beispiele und Fallstudien: Die Einbeziehung spezifischer Beispiele, wie die Einstufung medizinischer KI als Hochrisiko, hilft, die praktischen Auswirkungen der Anforderungen des EU-KI-Gesetzes zu veranschaulichen.
Diskussion der Herausforderungen und Grenzen: Der Artikel erkennt die Herausforderungen und Grenzen an, die mit der Gewährleistung einer menschenzentrierten KI verbunden sind, wie z. B. die Schwierigkeit, selbstlernende Systeme zu überwachen, und das Potenzial für Manipulation.
Potenzielle Bereiche für die weitere Erforschung:
Ethische Implikationen: Der Artikel berührt zwar ethische Überlegungen, doch wäre eine eingehendere Analyse der ethischen Implikationen der KI-Entwicklung und des KI-Einsatzes in einem menschenzentrierten Rahmen von Vorteil.
Internationale Perspektiven: Ein Vergleich des Ansatzes des EU-KI-Gesetzes zur menschenzentrierten KI mit ähnlichen Vorschriften oder Richtlinien in anderen Rechtsordnungen könnte wertvolle Erkenntnisse liefern.
Rolle der Akteure: Der Artikel könnte die Rolle der verschiedenen Interessengruppen, einschließlich Forschern, Entwicklern, politischen Entscheidungsträgern und zivilgesellschaftlichen Organisationen, bei der Förderung der menschenzentrierten KI untersuchen.
Zukünftige Entwicklungen: Angesichts der rasanten Entwicklung der KI wäre es interessant, mögliche zukünftige Trends und Herausforderungen zu diskutieren, die sich auf die Umsetzung der menschenzentrierten KI auswirken könnten.
Insgesamt leistet der Artikel einen wertvollen Beitrag zum Verständnis der menschenzentrierten KI im Rahmen des EU-KI-Gesetzes. Er bietet eine solide Grundlage für weitere Forschungen und Diskussionen zu diesem wichtigen Thema.