KI-Modelle aus Japan erschaffen sich selbst durch „Model-Merger“

Lesedauer 6 Minuten

T3N berichtet über ein Start-Up aus Japan, dessen KI-Modell sich quasi selbst laufend neu erschaffen und weiterentwickeln kann. Aus regulatorischer Sicht ist der so genannte „Model-Merger“ ein durchaus „interessanter“ Fall. Auch im Hinblick auf die Frage, was ein KI-Modell i.S.d. EU AI Acts ist – und was nicht.

Man kann (Open-Source) KI-Modelle so miteinander kombinieren, dass diese durch ihr Zusammenspiel ein neues KI-Modell erschaffen. Aus regulatorischer Sicht in mehrfacher Hinsicht ein nicht ganz trivialer Fall. Kommt das Produkt (wie hier) aus Asien, gilt es zusätzliche Hürden zu nehmen. Doch es gibt auch Chancen. Am Ende des Beitrags gibt es noch ein kurzes Quiz.

Normen zu diesem Beitrag:

  • Artikel 2 (1) f), (6), (8) EU AI Act
  • Artikel 3 Nr. 1, Nr. 5,, 63, 67 EU AI Act
  • Artikel 50 EU AI Act
  • Artikel 51 (2) EU AI Act
  • Artikel 53 EU AI Act
  • Artikel 54 (1) EU AI Act
  • Artikel 55 EU AI Act
  • Artikel 113 EU AI Act
  • Gründe 161 ff EU AI Act
  • Anhang XIII EU AI Act

„Model-Merger“ als Game-Changer?!

T3N berichtet über ein japanisches Start-Up, das Open-Source-KI-Modelle so miteinander kombiniert, dass daraus neue, noch leistungsfähigere Modelle entstehen. Die Idee scheint genial – Chapeau! Eine erste KI-Modell-Generation erschafft ihre Nachkommen selbst, die wiederum eine zweite Generation usw. Die Prinzipien der Evolution lassen grüßen.

Durch den so genannten „Model-Merger“ entsteht durch die Vermengung der besten Elemente mehrerer frei verfügbarer KI-Modelle im Sinne Nietzsches eine Art „Über-KI“ (als Analogie zum Begriff des „Übermenschen“). Zumindest dem Grunde nach.

Stellen wir uns vor, das japanische Start-Up wollte sein sich laufend dynamisch optimierendes Produkt in Europa vermarkten. Man darf sich fragen: Was könnten die für den EU AI Act zuständigen Aufsichtsbehörden dazu sagen? Immerhin sind ja verschiedene Schlüsselbegriffe in den Beiträgen (siehe unten) enthalten, die regulatorisch aufhorchen lassen, darunter KI-Modell, Open-Source und außereuropäischer Anbieter. Transparenz wäre wohl auch noch ein Thema … Und damit ist noch lange nicht Schluss.

Das nachfolgende Bild ist ein Screenshot von der Sakana-Website, der das Prinzip des Model-Mergers skizziert.

1. Harte regulatorische Nuss

Soweit so gut. Doch sobald Sakana mit diesem KI-Modell auf den EU-Markt expandieren möchte, wird das Start-Up wohl die gesamte Power seines KI-Modells nutzen müssen, um mit dessen Unterstützung herauszufinden, ob und wie die regulatorischen Hürden überwunden werden können, damit das Produkt in der EU vermarktet werden kann. Für diese Art von Innovation hält der EU AI Act nämlich durchaus einige „Überraschungen“ parat.

Hier ein paar erste Gedanken:

  • Da das Unternehmen aus Japan kommt, müsste es zunächst einen Bevollmächtigten i.S.v. Artikel 3 Nr. 5 i.V.m Artikel 2 (1) f) EU AI Act bestellen. Dieser muss alle formalen Anforderungen erfüllen.
  • Das ist allerdings hier kein Bevollmächtigter nach Artikel 22 EU AI Act, da es kein (hochrisiko) „KI-System“ i.S.v. Artikel 3 Nr. 1 EU AI Act ist, sondern ein „KI-Modell“.
  • KI-Modelle von Staaten außerhalb der EU benötigen gemäß Artikel 54 (1) EU AI Act nicht nur einen Bevollmächtigten für KI-Modelle (egal welcher Art), dieser muss vielmehr nach Artikel 54 (2) EU AI Act auch eine technische Dokumentation liefern.
  • Diese Norm verweist zudem auf Artikel 53 und 55 EU AI Act, also die Anbieterpflichten und – soweit gegeben – die weitergehenden Pflichten im Fall eines KI-Modells mit systemischen Risiken.

Die Liste zu prüfender Normen ließe sich erweitern, denn Open-Source KI-Systeme unterfallen z.B. nicht dem EU AI Act. Da es vorliegend aber nicht um ein „KI-System“ i.S.v. Artikel 3 Nr. 1 EU AI Act, sondern um ein „KI-Modell“ geht, könnte zumindest Artikel 53 (2) EU AI Act greifen. Ob und wie weit dies der Fall ist, sei an dieser Stelle dahingestellt.

Unabhängig davon kann ein Model-Merger technisch gesehen sicherlich auch mit sonstigen (kommerziellen) KI-Modellen erfolgen, falls dies von deren Anbietern genehmigt wird. Ob und wie weit sich dann urheberrechtliche Fragen bei einem Model-Merger ergeben, sei hier aus Mangel an Detailinformation dahingestellt.

Hier ein eher technisches Video zum Thema Model-Merger (für Nerds)

2. Ein KI-Modell ist nicht immer „ein“ KI-Modell

Das Beispiel des japanischen Start-Ups zeigt, wie sehr der EU AI Act mit der Innovationsgeschwindigkeit bei KI-Systemen als auch Modellen mithalten muss. War es Ende 2023 noch eine Diskussion, ob und wie weit KI-Modelle überhaupt vom EU AI Act geregelt werden müssen, stellt sich hier schon die Frage, was überhaupt „ein“ KI-Modell ist. Sinniger Weise fehlt dem EU AI Act ganz grundsätzlich eine klare Definition für KI-Modelle, wie sie z.B. in Artikel 3 Nr. 1 EU AI Act für KI-Systeme existiert. Nr. 63 des gleichen Artikels definiert nicht, was ein KI-Modell als solches ist, sondern nur, wann es eines mit allgemeinem Verwendungszweck ist.

Eine definitionsähnliche Umschreibung für KI-Modelle findet sich u.a. auf den Seiten der OECD. Das KI-Modell bildet „die Struktur und/oder Dynamik der gesamten oder eines Teils der Umgebung des Systems ab. Es basiert auf Expertenwissen und/oder Daten, die von Menschen und/oder automatisierten Instrumenten (z. B. ML-Algorithmen) bereitgestellt werden.“ Kurz: Es besteht im Wesentlichen aus spezfischen Daten und Algorithmen.

Kapitel IV und V lassen, die sich auf KI-Modelle beziehen, lassen schon allein aus diesem Grund noch einiges offen. Auch die Erwägungsgründe der Ziffern 161 ff lassen erheblichen Bedarf an fachlicher Präzisierung von KI-Modellen erkennen.

Das Fehlen einer Definition für KI-Modelle könnte in einigen Fällen Vorteil und Nachteil zugleich sein: Wie zu sehen ist, kann „ein“ Modell ja offenbar auch aus „mehreren“ Modellen bestehen bzw. entstehen, also quasi aus einer „KI-Modell-Familie“, ähnlich einem Stammbaum mit vielen Wurzeln – wer weiß, ob eine Definition dies überhaupt berücksichtigt hätte oder künftig wird angemessen berücksichtigen können. Zudem unterliegen KI-Modelle im Falle des skizzierten KI-Modell-Mergers mutmaßlich einer enorm hohen Dynamik. Dem potenziellen Bevollmächtigten des japanischem Start-Ups sei an dieser Stelle gesagt: „Viel Spaß beim Nachweis einer transparenten technischen Dokumentation!“

Das Beispiel deckt darüber hinaus die Grenzen auf, welche in der Unterscheidung von KI-Modellen mit allgemeinem Verwendungszweck und solchen mit zusätzlichem systemischen Risiko i.S.d. EU AI Acts liegen:

  • Der Hinweis auf die FLOP-Schwellenwerte für Gleitkomma-Operationen gemäß Artikel 51 (2) in Kombination mit Artikel 3 Nr. 67 EU AI Act, der bei 10^25 liegt, kann nur ein Einstieg in die Differenzierung Stand 2024 darstellen.
  • An dieser Stelle lohnt sich ein Blick in die Erwägungsgründe des EU AI Acts, insbesondere in Ziffern 111/112: Dort wird darauf hingewiesen, dass das Amt für Künstliche Intelligenz wohl (immer wieder) neue Methoden entwickelt muss – mutmaßlich nicht nur quantitative Schwellenwerte, sondern auch qualitative Kriterien.

3. Wie misst man die Leistungsfähigkeit?

Die in Anhang XIII ausgeführten Kriterien zur Unterscheidung von KI-Modellen mit allgemeinem Verwendungszweck und solchen mit systemischen Risiko sind sicherlich ein Beispiel für zusätzliche Kriterien – allerdings eines, das Qualität überwiegend quantitativ evaluiert und sich vermutlich auch immer wieder an die Realität anpassen muss.

Das Beispiel des Model-Mergers zeigt: Wenn sein Prinzip schon mit der Evolution verglichen wird, dann ist eben „weniger“ oft auch „mehr“: So hat der Neandertaler nach aktuellem Wissensstand mehr Gehirnvolumen gehab wie der homo sapiens. Leistungsfähiger war sein Gehirn offenbar nicht. KI-Modelle lassen sich daher mutmaßlich auch nicht mit der FLOP-Menge als auch den Kriterien von Anhang XIII allein als systemisch riskant erkennen: Ein Modell, dass extrem viele Gleitkomma-Operationen bewältigen kann könnte möglicherweise sogar weniger systemisch riskant sein als ein KI-Modell, dass deshalb besonders leistungsfähig ist, weil es aus vielen Modellen ein neues erschaffen hat, das viel weniger Operationen erfordert. Riskant erst recht deshalb, falls der Inhalt des Modells (wie bei der aus Japan stammenden Innovation) mutmaßlich eine absolute Blackbox ist.

Das Beispiel des Model Mergers läßt die Grenzen der Regulierung erkennen, die u.a. mit „Krücken“ wie FLOPs die Leistungsfähigkeit von KI-Modellen zu erahnen versucht. Gleiches gilt für die in Anhang XIII genannten Benchmarks wie z.B. den Stanford AI Index, der allerdings auch hochkomplexe Zusammenhänge auf wenige Kennzahlen herunterzubrechen versucht. Er ist sicherlich der aktuelle „Goldstandard“, aber am Ende auch nur eine die Realität vereinfachende Momentaufnahme.

So oder so: Es dürfte für das japanische Start-Up sehr aufwändig werden, die technische Dokumentation eines Modells zu liefern, dessen Erschaffer andere KI-Modelle sind.

4. Fristen

Da es sich um ein KI-Modell handelt sind die Vorgaben des EU AI Acts für KI-Modelle gemäß Artikel 113 EU AI Act bereits 12 Monate nach dessen Inkrafttreten zu beachten, also vermutlich im Sommer 2025.

5. Nutzung in der Forschung?!

Der EU AI Act dürfte es allerdings kaum verhindern, dass die KI-Modelle des japanischen Start-Ups ausschließlich in der Forschung innerhalb der EU eingesetzt werden, siehe Artikel 2 (6), (8) EU AI Act, der explizit auch KI-Modelle umfaßt. Gleiches gilt für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit. Das besagt Artikel 2 (3) EU AI Act.

Wünschen wir dieser coolen Innovation in jedem Fall viel Erfolg! letztlich kann es auch nicht das Ziel sein, KI-Modelle zu nutzen, der Schwächen offensichtlich sind, während andere KI-Modelle genau dort ihre Stärken haben und umgekehrt. Regulatorisch bleibt es aber mich einiger Wahrscheinlichkeit ein nicht ganz einfaches Thema.


Zum Schluss noch ein kurzer Abschlusstest zu KI-Modellen:

Quiz zu außereuropäischen KI-Modellen und KI-Merger-Methoden

In diesem Quiz haben wir fünf Fragen zum Thema „KI-Modelle, KI-Modell-Merger und außereuropäische Anbieter“ i.S.d. EU AI Acts für Dich zusammengestellt.

1 / 5

Was benötigen außereuropäische Anbieter von KI-Modellen?

2 / 5

Gibt es in Artikel 3 EU AI Act eine explizite Definition für KI-Modelle?

3 / 5

Mit welchem Fachbegriff werden Gleitkomma-Operationen i.S.v. Artikel 3 Nr. 67, Artikel 51 EU AI Act noch bezeichnet?

4 / 5

Ist es für die Bewertung von KI-Modellen mit systemischen Risiken ausreichend, diese rein quantitativ zu bewerten (mehrere Antworten möglich)?

5 / 5

Zu welchen Zwecken könnte das im Beitrag skizzierte KI-Modell i.S.d. EU AI Acts durchaus genutzt werden (mehrere Antworten möglich)?

Your score is

Die durchschnittliche Punktzahl ist 0%

0%


Quellen, die diesem Artikel zugrundeliegen oder ihn ergänzen:


Über den Autor:

Schreibe den ersten Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert