Anbieter oder Betreiber? Die entscheidenden Rollen nach der KI-Verordnung der EU
Die KI-Verordnung der EU definiert klare Rollen für Anbieter und Betreiber von KI-Systemen und KI-Modellen. Doch wann ist man was – und kann sich die Rolle im Laufe der Nutzung ändern? Eine rechtliche Einordnung der Schlüsselbegriffe und ihrer praktischen Auswirkungen.
In Ihrem Gastbeitrag haben Ihnen Christoph Möx, LL.M. von der Kanzlei Bette Westenberger Brink Rechtsanwälte und Sarah Tavčer von RMPrivacy GmbH die wichtigsten Informationen zum Thema KI-Regulierung zusammengestellt.
Einführung
Die Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-VO) ist die erste umfassende gesetzliche Regulierung für den Einsatz von KI-Systemen innerhalb der Europäischen Union. Sie legt Anforderungen an den sicheren, ethischen und transparenten Einsatz von Künstlicher Intelligenz fest und definiert klare Verantwortlichkeiten für verschiedene Akteure in der Wertschöpfungskette. Zwei zentrale Rollen in diesem regulatorischen Rahmen sind Anbieter und Betreiber von KI-Systemen. Kurz gesagt: Während Anbieter für die Entwicklung, Konformität und Markteinführung zuständig sind, trägt der Betreiber die Verantwortung für den praktischen Einsatz – wobei es hier auch einige Ausnahmen und Sonderkonstellationen zu beachten gibt.
Doch wann gilt ein Unternehmen als Anbieter, wann als Betreiber? Und unter welchen Bedingungen kann sich die Rolle ändern? Diese Fragen sind entscheidend für die Einhaltung der gesetzlichen Vorschriften und für die Haftungsrisiken von Unternehmen. In diesem Beitrag werden die Abgrenzung der Begriffe, deren juristische Bedeutung sowie die praktischen Konsequenzen für Unternehmen erläutert.
KI-System und KI-Modell
Bevor wir zu den Abgrenzungen zwischen den Adressaten der KI-Verordnung kommen, müssen wir einen Exkurs zu den mit der KI-Verordnung betroffenen Systemen unternehmen.
Was ist ein KI-System?
Ein KI-System ist ein maschinengestütztes System, das für einen in unterschiedlichem Grad autonomen Betrieb ausgelegt ist und nach seiner Betriebsaufnahme anpassungsfähig sein kann. Es leitet aus den erhaltenen Eingaben für explizite oder implizite Ziele ab, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.
KI-Systeme werden nach einer pyramidenhaften Risikoklassifizierung eingeteilt, die je nach Gruppierung unterschiedliche Pflichten vorsieht.
Was ist ein KI-Modell?
Ein KI-Modell ist das technische Herzstück eines KI-Systems, das die Architektur und Algorithmen umfasst, die die Funktionsweise des Systems bestimmen. Es ist eine wesentliche Komponente des KI-Systems, aber für sich genommen kein KI-System. Ein KI-Modell wird zu einem KI-System, wenn es in eine Applikations- oder Systemumgebung integriert wird und eine Benutzeroberfläche erhält.
KI-Modell mit allgemeinem Verwendungszweck
Hierunter fallen die GPAI-Modelle (General Purpose AI-Modelle wie bspw. Chat-GPT 4, Mistral AI, Claude). Ein „KI-Modell mit allgemeinem Verwendungszweck“ ist ein KI-Modell, das eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.
Grundsätzlich sind GPAI-Modelle von der erörterten Risiko-Kategorisierung der KI-Systeme ausgenommen und unterliegen einer eigenen Risikoklassifizierung. Unterschieden werden hier KI-Modelle mit allgemeinem Verwendungszweck und KI-Modelle mit allgemeinem Verwendungszweck mit systemischen Risiken. Diese Differenzierung bestimmt die Pflichten für die jeweiligen Anbieter von GPAI-Modellen.
Wie kann man eine Abgrenzung vornehmen?
Die Frage, wann ein KI-System und wann lediglich ein KI-Modell vorliegt, ist nicht immer leicht, zu beantworten.
Obwohl die KI-Verordnung den Begriff des KI-Modells nicht ausdrücklich definiert, lassen sich einige grundlegende Unterscheidungen treffen: Ein KI-System ist eine voll funktionsfähige Anwendung, die in der Regel über eine Benutzeroberfläche verfügt und für den praktischen Einsatz bestimmt ist. Das KI-Modell hingegen bildet das technische Kernstück eines solchen Systems. Bei einem Künstlichen Neuronalen Netz (KNN) umfasst es beispielsweise die Architektur, die Anzahl der Neuronen und Schichten sowie die zugrunde liegenden Algorithmen und Gewichtungen. Erwägungsgrund 97 der KI-Verordnung beschreibt GPAI-Modelle folgendermaßen:
„KI-Modelle mit allgemeinem Verwendungszweck können auf verschiedene Weise in Verkehr gebracht werden, unter anderem über Bibliotheken, Anwendungsprogrammierschnittstellen (API), durch direktes Herunterladen oder als physische Kopie. Diese Modelle können weiter geändert oder zu neuen Modellen verfeinert werden. Obwohl KI-Modelle wesentliche Komponenten von KI-Systemen sind, stellen sie für sich genommen keine KI-Systeme dar. Damit KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich. KI-Modelle sind in der Regel in KI-Systeme integriert und Teil davon.“
Ein System wird also gerade dann zum KI-System, wenn ein KI-Modell in eine Applikations- oder Systemumgebung integriert wird – damit ist das KI-Modell für die Funktionsweise verantwortlich.
Zu beachten ist, dass die KI-VO neben KI-Systemen auch die KI-Modelle mit allgemeinem Verwendungszweck reguliert. So kann es bei der Einführung eines KI-Systems zu Fällen führen, in denen unterschiedliche regulatorische Anforderungen zu beachten sind. So bspw. bei der Einführung eines Chatbots als KI-System, der sich über eine API eines GPAI-Modells bedient.
Anbieter und Betreiber – Begriffsbestimmung nach der KI-Verordnung
Die KI-VO unterscheidet klar zwischen den Begriffen Anbieter und Betreiber. Die sonstigen Adressaten der KI-VO wie Einführer, Händler, Produkthersteller oder Bevollmächtigte nach Art. 2 Abs. 1 KI-VO sollen hier zunächst Außen vor bleiben.
- Anbieter (Art. 3 Nr. 2 KI-VO) ist eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich.
- Betreiber (Art. 3 Nr. 4 KI-VO) ist eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet.
Diese Differenzierung hat erhebliche regulatorische Konsequenzen:
Verpflichtungen von Anbietern eines KI-Systems
Anbieter müssen sicherstellen, dass das von ihnen entwickelte und in Verkehr gebrachte KI-System den Vorgaben der KI-VO entspricht. Dazu gehören – je nach Risikoklassifizierung – unter anderem:
1. Anforderungen an ein Hochrisiko-System
Pflicht | Beschreibung |
Erfüllung der Anforderungen (Art. 16 – 27) |
Hochrisiko-KI-Systeme müssen den Vorgaben der KI-VO entsprechen. |
Risikomanagement (Art. 9) |
Einrichtung und Pflege eines Risikomanagementsystems über den gesamten Lebenszyklus des KI-Systems. |
Datenqualität und -Governance (Art. 10) |
Sicherstellung relevanter, fehlerfreier und unverzerrter Datensätze. |
Technische Dokumentation (Art. 11) |
Erstellung und Aktualisierung technischer Unterlagen vor Inverkehrbringen oder Inbetriebnahme. |
Aufzeichnungspflichten (Art. 12, 18, 19) |
Automatische Protokollierung und zehnjährige Aufbewahrung zur Nachverfolgbarkeit. |
Konformitätsbewertung (Art. 43) |
Durchführung eines Bewertungsverfahrens vor Inverkehrbringen des KI-Systems. |
CE-Kennzeichnung (Art. 48) |
Anbringung einer CE-Kennzeichnung zur Nachweisführung der Konformität. |
Registrierungspflicht (Art. 49) |
Registrierung der Anbieter und ihrer KI-Systeme in der EU-Datenbank. |
Marktüberwachung (Art. 72) |
Einrichtung eines Systems zur kontinuierlichen Überwachung nach dem Inverkehrbringen. |
Meldung schwerwiegender Vorfälle (Art. 73) |
Zeitnahe Meldung schwerwiegender Vorfälle an die zuständige Aufsichtsbehörde. |
2. Anforderungen an ein KI-System mit begrenztem Risiko
Pflicht | Beschreibung |
Transparenz und Bereitstellung von Informationen (Art. 13) |
Anbieter von KI-Systemen mit begrenztem Risiko müssen klare Anweisungen für die Nutzung von KI-Systemen und erforderliche Informationen bereitstellen, um Transparenz zu gewährleisten. |
KI-Kompetenz (Art. 4) |
Die Anbieter sind außerdem verpflichtet, Maßnahmen zu ergreifen, um die KI- Kompetenz ihrer Mitarbeiter und anderer Personen, die das KI-System nutzen, zu verbessern. |
3. Anforderungen an ein KI-System mit minimalem Risiko
Pflicht | Beschreibung |
Freiwilliger Verhaltenskodex (Artikel 69) | Die Anbieter von KI-Systemen mit begrenztem Risiko werden ermutigt, freiwillige Verhaltenskodizes zu verabschieden und einzuhalten, um eine ethische und verantwortungsvolle Nutzung dieser Systeme zu gewährleisten.
Es gibt verbindliche Anforderungen, weil spezifische KI-Systeme Auswirkungen auf unsere Umgebung, Rechte und Freiheiten haben können. Darüber hinaus ermutigt das EU-KI-Gesetz die Anbieter aller KI-Systeme, bewährte Verfahren anzuwenden und innovative Technologien mit ethischen und verantwortungsvollen Grundsätzen in Einklang zu bringen. |
Verpflichtungen von Anbietern eines GPAI-Modells
Für GPAI-Modelle bestehen ausschließlich Pflichten für deren Anbieter, da sie stets in ein KI-System integriert werden müssen, um genutzt zu werden. Diese Modelle nehmen eine Sonderrolle in der KI-VO ein. Eine Betreiberrolle existiert hier nicht – allerdings kann ein Anbieter gleichzeitig auch Betreiber eines KI- oder GPAI-Systems sein. Die Pflichten für Anbieter hängen davon ab, ob das GPAI-Modell ein systemisches Risiko aufweist oder nicht. Diese Differenzierung ergibt sich daraus, dass ein GPAI-Modell selbst kein KI-System ist, da ihm eine Benutzeroberfläche fehlt und es für verschiedene Zwecke genutzt werden kann.
Was ist ein systemisches Risiko?
Dazu führt Art. 51 Abs. 1 KI-VO aus:
„Ein KI-Modell mit allgemeinem Verwendungszweck wird als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko eingestuft, wenn eine der folgenden Bedingungen erfüllt ist:
- Es verfügt über Fähigkeiten mit hohem Wirkungsgrad[1], die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden;
- einem unter Berücksichtigung der in Anhang XIII festgelegten Kriterien von der Kommission von Amts wegen oder aufgrund einer qualifizierten Warnung des wissenschaftlichen Gremiums getroffenen Entscheidung zufolge verfügt es über
- Fähigkeiten oder eine Wirkung, die denen gemäß Buchstabe a entsprechen.“
Folgende Anforderungen ergeben sich daher für GPAI-Modelle:
Für Anbieter von GPAI-Modellen ohne systemisches Risiko gelten die nachfolgenden Pflichten:
- Erstellen und Aktualisieren einer technischen Dokumentation des Modells,
- Zusammenfassung der Trainingsinhalte,
- Zusammenarbeit mit den Behörden,
- Benennung von Bevollmächtigten der Anbieter bei Anbietern aus Drittländern in der EU,
- Entwicklung einer Strategie zur Einhaltung des EU-Urheberrechts mit Blick auf die Beachtung von Nutzungsrechten beim Training von KI.
Für Anbieter von GPAI-Modellen mit systemischem Risiko gelten zusätzlich zu den soeben genannten Vorgaben die nachfolgenden weiteren Pflichten:
- Erweiterte technische Dokumentation,
- Durchführung einer Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen,
- Bewertung und Minderung von möglichen systemischen Risiken auf Unionsebene – einschließlich ihrer Ursachen –, die sich aus der Entwicklung, dem Inverkehrbringen oder der Verwendung ergeben,
- Erfassung und Dokumentation von einschlägigen Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen,
- Gewährleistung eines angemessenen Maßes an Cybersicherheit für die KI-Modelle mit allgemeinem Verwendungszweck mit systemischem Risiko und die Infrastruktur
Verpflichtungen von Betreibern
Die Betreiber eines KI-Systems sind für die ordnungsgemäße Nutzung und Einhaltung der regulatorischen Vorgaben verantwortlich.
Eine wichtige Ausnahme besteht für die Nutzung von KI-Systemen zu persönlichen und nicht beruflichen Zwecken. In solchen Fällen gelten die betroffenen Personen nicht als Betreiber, sodass keine entsprechenden Betreiberpflichten entstehen (Art. 3 Nr. 4, ErwG 13 KI-VO). Für derartige private Anwendungen durch natürliche Personen findet die KI-VO grundsätzlich keine Anwendung (Art. 2 Abs. 10 KI-VO).
Die Verordnung erfasst jedoch auch Betreiber ohne Sitz oder physische Präsenz in der EU, sofern die durch das KI-System erzeugten Ergebnisse (Outputs) innerhalb der Union genutzt werden (Art. 2 Abs. 1 lit. c KI-VO).
Die Pflichten, die einen Betreiber treffen, richten sich maßgeblich nach einer getroffenen Risikoklassifizierung.
Sollte ein Hochrisiko-System betrieben werden, so gelten die unter Art. 26 KI-VO gemachten Anforderungen.
- Einhaltung der Anweisungen des Anbieters: Betreiber müssen sicherstellen, dass das System im Einklang mit den Vorgaben des Anbieters und der KI-VO genutzt wird. Insbesondere müssen nach Art. 4 KI-VO seit Februar 2025 KI-Kompetenzen für die Nutzer der Systeme sichergestellt werden.
- Überwachung und Meldepflichten: Betreiber von Hochrisiko-KI-Systemen müssen sicherstellen, dass das System korrekt funktioniert und potenzielle Risiken melden (Art. 26 Abs. 4, 5 KI-VO).
- Grundrechte-Folgenabschätzung: Betreiber bestimmter KI-Systeme müssen bewerten, welche Auswirkungen das System auf Grundrechte haben kann (Art. 27 KI-VO).
- Dokumentationspflichten: Aufbewahrung von Protokollen, Informationen von Arbeitnehmern, Registrierungspflichten bestimmter Betreiber, Zusammenarbeit mit den Behörden.
- Transparenz- und Informationspflichten: gegenüber natürlichen Personen, die von Emotionserkennungssystemen oder Systemen zur biometrischen Kategorisierung betroffen sind (Art. 50 Abs. 3 KI-VO) sowie Transparenzpflichten für KI-Systeme, die Deepfakes erzeugen (Art. 50 Abs. 4 KI-VO)
- Datenschutzverpflichtungen: Mit der Einführung eines KI-Systems müssen Sie gem. Art. 35 DSGVO eine sogenannte Datenschutzfolgeabschätzung durchführen und einen Datenschutzbeauftragten (intern oder extern) ernennen.
Wann wird ein Betreiber zum Anbieter?
In einigen Fällen kann ein Betreiber selbst zum Anbieter werden und ersetzt damit den vorherigen Anbieter. Für Hochrisiko-KI-Systeme sieht Art. 25 Abs. 1 KI-VO drei konkrete Fallgruppen vor. Dass ein Akteur etwa durch wesentliche Veränderungen an einem bestehenden KI-System zu einem Anbieter „aufrückt“, regelt die KI-VO ausdrücklich nur im Hochrisiko-KI-Bereich. Der Betreiber muss sodann die Anforderungen des Art. 16 ff. KI-VO erfüllen.
Dies ist insbesondere dann der Fall, wenn der Betreiber:
1. Wesentliche Änderungen am KI-System vornimmt: Laut Art. 25 KI-VO wird ein Betreiber zum Anbieter, wenn er ein bestehendes (Hochrisiko-)KI-System so verändert, dass es als neues System gilt. Dies kann z.B. durch Änderungen an der Funktionsweise oder der Zweckbestimmung geschehen.
-
-
- Eine wesentliche Veränderung liegt nach Art. 3 Nr. 23 KI-VO vor, wenn das KI-System nachträglich so modifiziert wird, dass dies in der ursprünglichen Konformitätsbewertung nicht vorgesehen war und entweder die Konformität beeinträchtigt oder die Zweckbestimmung des Systems verändert.
-
2. Das KI-System für einen anderen als den vorgesehenen Zweck nutzt: Falls ein Betreiber ein KI-System in einem neuen Kontext einsetzt, der nicht durch die ursprüngliche Konformitätsbewertung abgedeckt ist, kann er nach Art. 25 Abs. 1 lit. c KI-VO als Anbieter gelten.
3. Ein bestehendes KI-Modell weiterentwickelt oder trainiert: Unternehmen, die auf vortrainierten KI-Modellen aufbauen und diese für spezifische Anwendungen anpassen, können ebenfalls Anbieter werden.
-
-
- Ein Finetuning eines vorhandenen KI-Modells. Geht man im Ergebnis einer durchzuführenden Risikobewertung davon aus, dass es sich einem Finetuning durch ein Unternehmen um ein „Entwickeln“ eines KI-Modells mit allgemeinem Verwendungszweck handeln könnte, kann eine Einstufung als Anbieter erfolgen. Abhängen wird diese Einschätzung noch davon, ob ein Inverkehrbringen des KI-Systems (worin das KI-Modell integriert ist) durch das Unternehmen vorliegt.
-
Praxisbeispiele
Zur Verdeutlichung der Abgrenzung und möglicher Rollenwechsel einige Beispiele:
Beispiel 1: Nutzung eines KI-Systems durch ein Unternehmen
Ein Unternehmen setzt eine von einem externen Anbieter entwickelte KI-gestützte Personalmanagementsoftware ein. Das Unternehmen ist in diesem Fall Betreiber und hat sicherzustellen, dass die Nutzung im Einklang mit den Vorgaben des Anbieters und der KI-VO erfolgt.
Beispiel 2: Anpassung eines KI-Systems durch den Betreiber
Ein Unternehmen nutzt eine KI-basierte Bildanalyse-Software für die medizinische Diagnostik. Um die Präzision der Diagnose zu verbessern, entwickelt es eigene Algorithmen zur Bildanalyse und integriert diese in das bestehende System. In diesem Fall wird das Unternehmen ggf. zum Anbieter des neuen Systems und unterliegt den entsprechenden Verpflichtungen, die sich sodann nach der Risikoklassifizierung richten. Voraussetzung ist, dass das KI-System auch nicht zu diesem Einsatz ursprünglich gedacht ist. Der Zweck des Systems hat sich durch den Einsatz verändert.
Beispiel 3: Nutzung eines General-Purpose-KI-Modells
Ein Start-up nutzt ein vortrainiertes generatives KI-Modell (z. B. GPT-4) für seine Chatbot-Anwendung und trainiert es gezielt auf eigene Daten, um personalisierte Kundeninteraktionen zu ermöglichen. Dadurch kann das Unternehmen unter bestimmten Umständen als Anbieter gelten. Hier können neben den Verpflichtungen als Anbieter des KI-Systems (Art. 3 Nr. 9 KI-VO: Inverkehrbringen) auch die Pflichten zur Entwicklung (Art. 25 KI-VO: wesentliche Änderung) eines GPAI-Modells das Start-Up treffen.
Praktische Auswirkungen für Unternehmen
Unternehmen sollten sorgfältig prüfen, welche Rolle sie nach der KI-VO einnehmen. Insbesondere Betreiber sollten darauf achten, dass sie durch Anpassungen oder neue Nutzungsweisen nicht unbeabsichtigt die Rolle eines Anbieters übernehmen und damit neuen Pflichten unterliegen. Wichtige Maßnahmen umfassen:
- Interne Compliance-Strukturen etablieren, um sicherzustellen, dass regulatorische Anforderungen erfüllt werden.
- Dokumentation und Risikoanalysen durchführen, insbesondere wenn Änderungen an bestehenden KI-Systemen vorgenommen werden.
- Rechtliche Beratung einholen, um sicherzustellen, dass eine eventuelle Umklassifizierung frühzeitig erkannt wird.
Fazit
Die Abgrenzung zwischen Anbieter und Betreiber ist essenziell für die Compliance mit der KI-VO. Unternehmen müssen sich dieser Rollen bewusst sein und ihre Verpflichtungen entsprechend wahrnehmen. Wer ein KI-System nicht nur nutzt, sondern es modifiziert oder neu ausrichtet, könnte schnell vom Betreiber zum Anbieter werden – mit allen regulatorischen Folgen.
Fußnoten
[1] Hier geht die KI-VO davon aus, dass die Leistungsfähigkeit des Modells 10^25 FLOPS überschreitet. Eine Definition findet sich in Art. 3 Nr. 64 KI-VO
Quellen
- Härtig, „Anbieter oder Betreiber? Die Schlüsselrollen im AI Act entschlüsselt“, abrufbar unter: https://haerting.de/wissen/anbieter-oder-betreiber-die-schluesselrollen-im-ai-act-entschluesselt/.
- Ebers/Streitbörger, „Die Regulierung von Hochrisiko-KI-Systemen in der KI-Verordnung“, RDi 2024, 393.
- Bitkom, „Umsetzungsleitfaden zur KI-Verordnung“, 2024.
- Tim Wybitul, Arbeitsbuch AI Act, dfv Mediengruppe, 2025.
- Schwartmann/Keber/Zenner, KI-VO Leitfaden für die Praxis, C.F. Müller Verlag, 2024.
- Das EU-KI-Gesetz: Was sind die Pflichten für Anbieter? Data Guard, abrufbar unter: https://www.dataguard.de/blog/eu-ki-gesetz-pflichten-f%C3%BCr-anbieter/#wer-wird-im-rahmen-des-eu-ki-gesetzes-als-anbieter-definiert.
- Verordnung über die künstliche Intelligenz, abrufbar unter: https://ai-act-law.eu/de/.
Alle Illustrationen wurden mit Napkin.AI KI-generiert.
Bildquellen
- Digitales Recht: © herbinisaac – Pixabay