In den vorherigen Blogbeiträgen unserer Reihe zum AI Act haben wir uns unter anderem mit der Klassifizierung und Regulierung von Hochrisiko-KI-Systemen befasst. Heute richten wir unser Augenmerk auf KI-Modelle mit allgemeinem Verwendungszweck – auch als „General Purpose AI“ (GPAI) bezeichnet – und deren Unterscheidung nach systemischen Risiken. Wenn Sie mehr über den Unterschied zwischen einem KI-Modell und einem KI-System wissen möchten, empfehlen wir Ihnen diesen Artikel unserer Reihe. Sehr verkürzt kann man sagen, dass KI-Systeme ein KI-Modell nutzen.

Was ist GPAI?

Ein KI-Modell mit allgemeinem Verwendungszweck bzw. GPAI ist nach Art. 3 Ziffer 63 AI Act ein Modell, das

  • eine erhebliche allgemeine Verwendbarkeit aufweist,
  • ein breites Spektrum unterschiedlicher Aufgaben kompetent erfüllen kann (unabhängig von der Art und Weise seines Inverkehrbringens) und
  • in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.

Ausgenommen sind dabei KI-Modelle, die vor ihrem Inverkehrbringen für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen eingesetzt werden.

Ein solches Modell kann also in verschiedenen Branchen und für unterschiedliche Zwecke eingesetzt werden, von alltäglichen Anwendungen bis hin zu kritischen Entscheidungsprozessen. Aufgrund ihrer Vielseitigkeit und weitreichenden Einsatzmöglichkeiten ist es besonders wichtig, ihre Risiken genau zu bewerten.

Der AI Act unterscheidet bei KI-Modellen mit allgemeinem Verwendungszweck / GPAI zwei Arten, nämlich solche mit systemischen Risiken und ohne. Diese Unterscheidung ist insbesondere für Anbieter solcher Modelle relevant, da hier jeweils unterschiedliche Pflichten gelten.

Was sind GPAI mit systemischen Risiken?

Die Einstufung des KI-Modells mit allgemeinem Verwendungszweck / GPAI mit systemischen Risiken erfolgt nach Art. 51 AI Act. Demnach liegt ein Modell mit systemischem Risiko vor, wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt.

Nach Art. 3 Nr. 64 AI Act sind dies Modelle, die über Fähigkeiten verfügen, die den, bei den fortschrittlichsten KI-Modellen mit allgemeinem Verwendungszweck / GPAI festgestellten Fähigkeiten, entsprechen oder diese übersteigen. Man kann davon ausgehen, dass hiermit aktuelle Sprachmodelle wie GPT, Llama und Claude adressiert werden.

In Art. 51 Abs. 2 AI Act wird es dann sehr konkret. Demnach verfügt ein KI-Modell über einen hohen Wirkungsgrad und somit über ein systemisches Risiko, wenn „die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen, mehr als 1025 beträgt“. Etwas bekannter sind diese Gleitkommaoperationen im KI Bereich vielleicht unter dem englischsprachigen Namen „Floating Point Operations Per Second – FLOP“. Wann ein Modell diese Grenze überschreitet, wird vermutlich gar nicht so einfach festzustellen sein, wie man an diesem Beitrag sieht.

Vermutlich auch deswegen hat sich die EU-Kommission in Art. 51 Abs. 1 lit. b AI Act die Möglichkeit offen gelassen, bestimmte KI-Modelle mit allgemeinem Verwendungszweck als solche mit systemischem Risiko zu benennen.

Hier lohnt sich dann ein Blick in Anhang XIII des AI Acts, um ein Gefühl dafür zu bekommen, welche Kriterien die EU Kommission heranziehen könnte, um von einem systemischen Risiko auszugehen. Genannt werden hier:

  1. „die Anzahl der Parameter des Modells;
  2. die Qualität oder Größe des Datensatzes, zum Beispiel durch Tokens gemessen;
  3. die Menge der für das Trainieren des Modells verwendeten Berechnungen, gemessen in Gleitkommaoperationen oder anhand einer Kombination anderer Variablen, wie geschätzte Trainingskosten, geschätzter Zeitaufwand für das Trainieren oder geschätzter Energieverbrauch für das Trainieren;
  4. die Ein- und Ausgabemodalitäten des Modells, wie Text-Text (Große Sprachmodelle), Text-Bild, Multimodalität, Schwellenwerte auf dem Stand der Technik für die Bestimmung der Fähigkeiten mit hoher Wirkkraft für jede Modalität und die spezifische Art der Ein- und Ausgaben (zum Beispiel biologische Sequenzen);
  5. die Benchmarks und Beurteilungen der Fähigkeiten des Modells, einschließlich unter Berücksichtigung der Zahl der Aufgaben ohne zusätzliches Training, der Anpassungsfähigkeit zum Erlernen neuer, unterschiedlicher Aufgaben, des Grades an Autonomie und Skalierbarkeit sowie der Instrumente, zu denen es Zugang hat;
  6. ob es aufgrund seiner Reichweite große Auswirkungen auf den Binnenmarkt hat — davon wird ausgegangen, wenn es mindestens 10 000 in der Union niedergelassenen registrierten gewerblichen Nutzern zur Verfügung gestellt wurde;
  7. die Zahl der registrierten Endnutzer.“

Bei dieser Aufzählung fällt insbesondere Buchstabe f ins Auge, wo definiert wird, dass ein Modell eine große Reichweite hat, wenn es von mindestens 10.000 in der Union niedergelassenen gewerblichen Nutzern genutzt wird.

Und jetzt?

Die Unterscheidung zwischen GPAI ohne systemische Risiken und solchen mit systemischen Risiken ist entscheidend, da sie maßgeblich bestimmt, welche regulatorischen Anforderungen und Schutzmaßnahmen nach dem AI Act erfüllt werden müssen.

Wenn man es kurz und prägnant ausdrücken möchte, lässt sich die dahinterstehende Ratio des AI Act bei der Unterscheidung treffend mit einem (minimal erweiterten) Zitat von Voltaire (oder einem Rat an Spiderman) zusammenfassen: „With great [AI] power comes great responsibility.“

Welche Pflichten mit dieser Verantwortung bei KI-Modellen mit allgemeinem Verwendungszweck / GPAI einhergehen, schildern wir in einem weiteren Beitrag in unserer KI Blogreihe.