Die gesetzgebenden EU-Organe fokussierten sich zu Beginn auf die Regulierung von KI-Systeme, welche für einen mehr oder weniger spezifischen Zweck (z. B. autonomes Fahren) entwickelt wurden. Seitdem KI-Tools wie ChatGPT & Co auch die breite Öffentlichkeit erreichte, wandte sich dann auch der Blick auf „KI-Modelle mit allgemeinem Verwendungszweck“.
KI-Modelle mit allgemeinem Verwendungszweck – im Englischen als General Purpose AI Models (GPAI) oder Foundation Model bezeichnet – sind KI-Modelle (nicht zu verwechseln mit KI-Systemen, siehe Erwägungsgründe 97f), die ein breites Spektrum von Aufgaben zu bewältigen können, anstatt für eine spezifische Aufgabe oder Anwendung optimiert worden zu sein. Diese Modelle sind oft in der Lage, große Mengen an unstrukturierten Daten wie Text, Bildern, Audio und Videos zu verarbeiten und auch Aufgaben wie Klassifizierung, Generierung und Vorhersagen zu übernehmen.
Aufgrund der Flexibilität und Anpassungsfähigkeit werden diese Modelle in einer Vielzahl von Fällen und verschiedenen Branchen eingesetzt. Sie bilden auch oftmals die Basis für Feinjustierungen in Bezug auf spezifische KI-Systeme. Zu den Beispielen für GPAI-Modelle zählen etwa die auf Transformer-Modelle beruhenden großen Sprachmodelle („Large Language Models [LLM])“ von OpenAI („GPT-3.5/GPT-4“), Meta („LLama“) oder Mistral („Mixtral“). GPAI-Modelle beschränken sich allerdings nicht auf Sprachmodelle, auch andere Modelle beispielsweise zur Klassifikation können unter diese Definition fallen.
Um mögliche für GPAI-Modelle spezifische Risiken (etwa unerwünschte Ergebnisse, Urheber- und Datenschutzverstöße bei der Entwicklung) zu begegnen, werden den Anbieter:innen insbesondere Dokumentations- und Informationspflichten (siehe Art. 53 AIA) auferlegt.
Zwischen den Begriffen „KI-Systeme“ und „KI-Modelle“ ist klar zu trennen. In den Anwendungsbereich des AI Act fallen nicht alle KI-Modelle, sondern ausschließlich GPAI-Modelle. GPAI-Modelle können zwar Teil eines KI-Systems sein, sie bilden allerdings isoliert betrachtet kein KI-System. Damit ein GPAI-Modell zu einem KI-System werden kann, wird das Hinzufügen weiterer Komponenten – wie z. B. einer Nutzerschnittstelle – notwendig. In diesem Fall wird dann von einem KI-System mit allgemeinem Verwendungszweck (bzw. GPAI-System) im Sinne des Art. 3 Ziffer 66 AIA gesprochen.
GPAI und generative KI sind ähnliche Konzepte, aber nicht genau dasselbe. GPAI-Modelle sind darauf ausgelegt, ein breites Anwendungsspektrum zu bedienen und erfassen verschiedenste KI-Modelle. Generative KI bezieht sich hingegen auf Modelle, die auf das Erzeugen von Texten, Bildern, Videos, Musik und anderen Inhalten ausgerichtet sind (GPAI-Systeme wie z. B. ChatGPT für das Generieren von Texten; Midjourney oder DALL-E für das Generieren von Bilder und Videos etc.). Generative KI ist daher ein spezifischer Unterbereich von GPAI-Modellen.
Kurzgefasst haben GPAI-Modelle vielseitige Einsatzmöglichkeiten, während generative KI-Systeme sich speziell auf die Fähigkeit beziehen, Daten oder Inhalte zu generieren.
Eine Sonderstellung nehmen GPAI-Modelle mit systemischen Risiken ein. Mit „Systemrisiko“ referiert der Unionsgesetzgeber auf Risiken, die für ein GPAI-Modell, welche über Fähigkeiten mit einem hohen Wirkungsgrad („high impact capabilities“) verfügt, spezifisch sind (Art. 3 Ziffer 65 Teilsatz 1 AIA). Ein GPAI-Modell, welches Fähigkeiten mit einem hohen Wirkungsgrad verfügt, liegt dann vor, wenn die Fähigkeiten des in Rede stehenden GPAI-Modells jene der fortschrittlichsten GPAI-Modelle entsprechen oder diese sogar übertreffen (Art. 3 Ziffer 64 AIA). Diese Modelle haben eine gewisse Reichweite bzw haben diese für die öffentliche Gesundheit, die Sicherheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft tatsächlich oder vernünftigerweise vorhersehbare negative Folgen, die insgesamt erhebliche Auswirkungen auf den Unionsmarkt haben, die sich in großem Umfang über die gesamte Wertschöpfungskette hinweg verbreiten können (vgl. Art. 3 Ziffer 65 Teilsatz 2 AIA).
Ein GPAI-Modell mit systemischem Risiko liegt vor, wenn eines der folgenden Kriterien erfüllt ist (Art. 51 Abs. 1 AIA):
Zur Beurteilung, ob ein GPAI-Modell mit systemischem Risiko vorliegt, sind folgende Parameter gemäß Anhang XIII zu berücksichtigen:
Aufgrund des Risikopotentials werden den Anbieter:innen von GPAI-Modellen mit systemischen Risiken über Art. 53 AIA hinausgehende Pflichten auferlegt. Anbieter:innen haben insbesondere Maßnahmen zur Ermittlung, Bewertung und Minderung von Systemrisiken zu treffen (siehe Art. 55 AIA).
Europäisches Parlament: General-purpose artificial intelligence (EN)