juris PraxisReporte

Autor:Pascal Bronner, Ass. jur., Wissenschaftlicher Mitarbeiter
Erscheinungsdatum:05.07.2024
Quelle:juris Logo
Normen:EUV 2019/1020, EURL 2020/1828
Fundstelle:jurisPR-ITR 13/2024 Anm. 2
Herausgeber:Prof. Dr. Dirk Heckmann, Technische Universität München
Zitiervorschlag:Bronner, jurisPR-ITR 13/2024 Anm. 2 Zitiervorschlag

Die KI-Verordnung (KI-VO) der EU

A. Einleitung

Die zahlreich diskutierte1 und mit großer Spannung erwartete KI-Verordnung (KI-VO)2 ist endgültig beschlossen und tritt zeitnah in Kraft. Zentrales Ziel der KI-VO ist die Einführung einer vertrauenswürdigen und menschenzentrierten KI in der EU, flankiert von der Verbesserung des Funktionierens des Binnenmarkts, dem Schutz von Grundrechten und öffentlicher Interessen sowie der Innovationsförderung, Art. 1 Abs. 1 KI-VO. Dabei sieht sie einen horizontalen, nicht auf bestimmte Sektoren beschränkten, umfassenden Regulierungsansatz vor. Die KI-VO manifestiert somit den ersten großen Meilenstein der KI-Regulierung innerhalb der EU, der das Potenzial hat, einen regulierungsglobalen „Brussels Effect“ auszulösen.

B. Inhalt der Verordnung

I. Anwendungsbereich

Der sachliche Anwendungsbereich der KI-VO ist nach Art. 2 Abs. 1 KI-VO für KI-Systeme sowie KI-Modelle mit allgemeinem Verwendungszweck (sog. General-Purpose-AI-Modelle, GPAI-Modelle) eröffnet. Der Begriff des KI-Systems ist in Art. 3 Nr. 1 KI-VO legaldefiniert und umschreibt „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“. Mit dieser Definition gelingt eine Begriffsbestimmung, die präziser ist als die im Legislativverfahren jeweils vorgeschlagenen und als zu weit kritisierten3 Definitionsansätze. Durch das Tatbestandsmerkmal der „Ableitung“ wird der Anwendungsbereich insbesondere Systeme maschinellen Lernens und logik- und wissensgestützte Konzepte erfassen.4 KI-Modelle mit allgemeinem Verwendungszweck sind in Art. 3 Nr. 63 KI-VO legaldefiniert und zeichnen sich durch eine allgemeine Verwendbarkeit und das Potenzial, ein breites Aufgabenspektrum zu bewältigen, aus. Hierunter fallen etwa generative KI-Modelle.5 Ausnahmen und Einschränkungen vom sachlichen Anwendungsbereich der KI-VO finden sich in Art. 2 Abs. 2 bis Abs. 12 KI-VO. KI-Systeme zur ausschließlichen persönlichen Verwendung (Abs. 10) oder mit dem alleinigen Zweck wissenschaftlicher Forschung und Entwicklung (Abs. 6) sind danach nicht von der KI-VO erfasst, Open-Source-KI-Systeme nur unter den Voraussetzungen des Abs. 12.

Der räumliche Anwendungsbereich der KI-VO ist weitreichend und umfasst das Inverkehrbringen bzw. die Inbetriebnahme von KI-Systemen in die EU (Marktortprinzip, Art. 2 Abs. 1 Buchst. a KI-VO), den Betrieb von KI-Systemen innerhalb der EU (Niederlassungsprinzip, Art. 2 Abs. 1 Buchst. b KI-VO) sowie die Verwendung von KI-Ergebnissen innerhalb der EU (Art. 2 Abs. 1 Buchst. c KI-VO).

Persönlich adressiert die KI-VO diejenigen Akteure, die entlang der KI-Wertschöpfungskette Einfluss auf die Entwicklung und den Einsatz von KI-Systemen nehmen können. Vordergründig sind dies Anbieter, die nach der Legaldefinition in Art. 3 Nr. 3 KI-VO das KI-System entwickeln (lassen) und in den Verkehr bringen bzw. in Betrieb nehmen. Anbieter von KI-Systemen mit Sitz außerhalb der EU bestellen Bevollmächtigte (Art. 3 Nr. 5 KI-VO) innerhalb der EU. Daneben werden vor allem Betreiber adressiert, die das KI-System in eigener Verantwortung verwenden (Art. 3 Nr. 4 KI-VO). Schließlich gilt die KI-VO auch für Einführer und Händler von KI-Systemen. Unter den Voraussetzungen des Art. 25 Abs. 1 KI-VO gelten auch Betreiber, Einführer, Händler oder sonstige Dritte als Anbieter.

II. Risikoklassifizierung von KI-Systemen

Kern der KI-VO ist ihr risikobasierter Regulierungsansatz. Hiernach werden KI-Systeme in unterschiedliche Risikokategorien mit divergierenden Rechtsfolgen kategorisiert.

1. Verbot für KI-Systeme mit unannehmbarem Risiko

KI-Systeme mit unannehmbarem Risiko stehen im Widerspruch zu den Grundwerten der EU und sind daher verboten. Die abschließende Liste in Art. 5 Abs. 1 KI-VO wurde während des Legislativverfahrens iterativ erweitert und verbietet das Inverkehrbringen bzw. die Inbetriebnahme von KI-Systemen mit folgenden Anwendungszwecken:

Unterschwellige Beeinflussung oder absichtlich manipulative Technik zur Beeinflussung von Personen mit Schädigungspotenzial (Buchst. a)
Ausnutzung bestimmter Personen(gruppen) aufgrund besonderer schutzwürdiger Merkmale (z.B. Alter, Behinderung, soziale Situation) (Buchst. b)
Social-Scoring-Systeme mit Benachteiligungspotenzial für bestimme Personen(gruppen) (Buchst. c)
Predictive-Policing-Systeme zur Vorhersage von Straftaten (Buchst. d)
Anlasslose Erstellung/Erweiterung von Gesichtserkennungsdatenbanken (Buchst. e)
Emotionserkennungssysteme am Arbeitsplatz/in Bildungseinrichtungen (Buchst. f)
Biometrische Kategorisierungssysteme zur Kategorisierung von Personen nach bestimmten sensiblen Daten (z.B. Rasse, sexuelle Orientierung) (Buchst. g)
Biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (Buchst. h)

Die meisten dieser Verbote enthalten allerdings enge Ausnahmen, deren Voraussetzungen sich ebenfalls in Art. 5 KI-VO niederschlagen. Zur Konkretisierung der teils sehr unbestimmten Tatbestände erlässt die EU-Kommission nach Art. 96 Abs. 1 Buchst. b KI-VO Leitlinien.

2. Hochrisiko-KI-Systeme

Die umfangreichsten Anforderungen stellt die KI-VO an sog. Hochrisiko-KI-Systeme, denen ein erhöhtes Gefährdungspotenzial für Grundrechte attestiert wird.

a) Klassifizierung und Ausnahmen

Die KI-VO sieht in Art. 6 KI-VO zunächst zwei Klassifizierungsmöglichkeiten für KI-Systeme vor. Nach Art. 6 Abs. 1 i.V.m. Anh. I KI-VO sind solche KI-Systeme hochriskant, die als Produkt oder als in dieses Produkt eingebettete Sicherheitskomponente unter die in Anh. I aufgelisteten Rechtsakte fallen und danach einer Konformitätsbewertung durch Dritte unterliegen. Anh. I enthält Richtlinien und Verordnungen etwa über Industriemaschinen, Spielzeuge, Verkehrsmittel oder Medizinprodukte. Nach Art. 6 Abs. 2 i.V.m. Anh. III KI-VO geht von KI-Systemen ein hohes Risiko aus, wenn sie bestimmungsgemäß in den unter Anh. III aufgelisteten Bereichen zum Einsatz kommen sollen. Dies umfasst nach Anh. III den Einsatz von KI-Systemen in folgenden Anwendungsfeldern:

Biometrie, sofern Einsatz nach einschlägigem Recht zugelassen (Nr. 1)
Betrieb und Verwaltung von KRITIS (digitale Infrastruktur, Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung) (Nr. 2)
Allgemeine und berufliche Bildung aller Ebenen (Zugang/Zulassung zu Bildungseinrichtungen, Bewertung von Lernergebnissen oder des angemessenen Bildungsniveaus, Verhaltensüberwachung in Prüfungen) (Nr. 3)
Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit (Auswahl und Bewertung von Bewerbungen, Entscheidungen über u.a. Bedingungen und Kündigungen von Arbeitsverhältnissen) (Nr. 4)
Zugänglichkeit und Inanspruchnahme grundlegender privater und öffentlicher Leistungen (z.B. öffentliche Unterstützungsleistungen, Prüfung der Kreditwürdigkeit, Risikobewertung und Preisbildung bei Versicherungen) (Nr. 5)
Strafverfolgung, sofern Einsatz nach einschlägigem Recht zugelassen (Nr. 6)
Migration, Asyl und Grenzkontrolle (Nr. 7)
Rechtspflege (Unterstützung der Justiz bei der Ermittlung und Auslegung von Sachverhalten und Rechtsfragen) und demokratische Prozesse (Beeinflussung des Wahlverhaltens) (Nr. 8).

Innerhalb dieser Anwendungsparadigmen kann die EU-Kommission nach Art. 7 Abs. 1 i.V.m. Art. 97 Abs. 2 mittels delegierter Rechtsakte weitere Anwendungsfälle hinzufügen oder bestehende Anwendungsfälle von Anh. III ausnehmen.

Art. 6 Abs. 3 KI-VO sieht Ausnahmen von der Hochrisiko-Klassifizierung eigenständiger KI-Systeme nach Anh. III vor. Hiernach gelten KI-Systeme in den dort aufgelisteten Anwendungsbereichen nicht als hochriskant, wenn sie kein erhebliches Risiko für Grundrechte oder öffentliche Interessen darstellen, weil sie die menschliche Entscheidungsfindung nicht wesentlich beeinflussen. Diese Ausnahmevorschrift stellt eine für die künftige Rechtspraxis sehr wichtige Ausprägung des risikobasierten Regulierungsansatzes dar.6 Ein hohes Risiko soll bei Vorliegen (mindestens) einer der Bedingungen in Art. 6 Abs. 3 Satz 2 KI-VO nicht vorliegen, wenn das KI-System zur Bewältigung folgender Aufgaben bestimmt ist:7

Durchführung eng gefasster Verfahrensaufgaben (z.B. Grobstrukturierung von Daten und Erkennung von Duplikaten) (Buchst. a)
Verbesserung einer finalen menschlichen Bewertung (z.B. Optimierung von Sprache) (Buchst. b)
Mustererkennung in früheren menschlichen Entscheidungen (z.B. Abweichen von bestimmten Bewertungsmustern) (Buchst. c)
Vorbereitung einer menschlichen Entscheidung (z.B. Textverarbeitung, Übersetzen von Texten) (Buchst. d)

Die Ausnahmeregelung des Art. 6 Abs. 3 KI-VO ist angesichts der hohen Anforderungen an Hochrisiko-KI-Systeme sehr zu begrüßen. Jedoch können die dort aufgeführten jeweiligen Bedingungen im Einzelfall einen erheblichen Einfluss auf die menschliche Entscheidungsfindung nehmen (insbesondere Art. 6 Abs. 3 Satz 2 Buchst. d KI-VO), so dass es hier klarer Abgrenzungskriterien bedarf.

b) Anforderungen an Hochrisiko-KI-Systeme

In den Art. 8 ff. KI-VO finden sich umfangreiche Maßgaben für Hochrisiko-KI-Systeme, die insbesondere von den Anbietern (Art. 16 KI-VO) in der Entwicklung des Systems eingehalten werden müssen. Dies beinhaltet folgende Anforderungen:

Einrichtung, Anwendung und Dokumentation eines Risikomanagementsystems (Art. 9 KI-VO)
Qualitätskriterien für Trainings-, Test- und Validierungsdaten (Art. 10 KI-VO)
Technische Dokumentation (Art. 11 KI-VO)
Aufzeichnungs- und Protokollierungspflichten (Art. 12 KI-VO)
Transparenz und Bereitstellung von Informationen für Betreiber (Art. 13 KI-VO)
Menschliche Aufsicht während der Verwendungsdauer (Art. 14 KI-VO)
Anforderungen an Genauigkeit, Robustheit und Cybersicherheit des Systems (Art. 15 KI-VO).

Neben der Sicherstellung dieser Anforderungen durch Anbieter treffen im Kontext von Hochrisiko-KI-Systemen auch Bevollmächtigte (Art. 22 KI-VO), Einführer (Art. 23 KI-VO), Händler (Art. 24 KI-VO) sowie insbesondere Betreiber (Art. 26 KI-VO) unterschiedliche Pflichten. Betreiber, die vor allem Einrichtungen des öffentlichen Rechts sind, müssen insbesondere eine Grundrechte-Folgenabschätzung nach Art. 27 KI-VO durchführen.

3. Bestimmte KI-Systeme und KI-Systeme mit minimalem Risiko

Schließlich sieht die KI-VO in Art. 50 KI-VO für Anbieter und Betreiber bestimmter KI-Systeme Transparenzpflichten i.S.e. Kennzeichnung des „Ob“ des KI-Systems vor. Art. 50 KI-VO beinhaltet KI-Systeme zur direkten Interaktion mit Menschen (Abs. 1, z.B. Chatbots), zur Erzeugung synthetischer Inhalte (Abs. 2), biometrische Kategorisierungssysteme und Emotionserkennungssysteme (Abs. 3) und Deepfakes erzeugende KI-Systeme (Abs. 4).

Alle weiteren KI-Systeme stellen ein minimales Risiko dar und lösen – mit Ausnahme allgemeiner Obligationen nach der KI-VO wie etwa der Förderung von KI-Kompetenz nach Art. 4 KI-VO – keine besonderen Pflichten aus.

III. KI-Modelle mit allgemeinem Verwendungszweck

Regelungen hinsichtlich GPAI-Modellen wurden erst während des Legislativverfahrens in die KI-VO aufgenommen, die Details ihrer Regulierung waren hoch umstritten. Grundsätzlich sind GPAI-Modelle nun von der erörterten Kategorisierung ausgenommen und unterliegen einer eigenen Risikoklassifizierung anhand der Frage, ob ihnen ein systemisches Risiko innewohnt oder nicht. Ein systemisches Risiko ist nach Art. 51 Abs. 1 KI-VO insbesondere gegeben, wenn das GPAI-Modell über „Fähigkeiten mit hohem Wirkungsgrad“ verfügt. Solche Fähigkeiten werden nach Art. 51 Abs. 2 KI-VO in der sonst technologieneutralen KI-VO angenommen, wenn die kumulierte Menge der für das Training des KI-Systems verwendeten Berechnungen 10^25 FLOPS (Gleitkommaoperationen bzw. „Floating Point Operations per Second“) beträgt. Diese Prozessorgeschwindigkeit weisen die aktuell auf dem Markt verfügbaren leistungsfähigsten generativen KI-Modelle auf.8

Die Differenzierung nach systemischem Risiko bestimmt die Pflichten für die jeweiligen Anbieter von GPAI-Modellen. Anbieter von GPAI-Modellen müssen grundsätzlich die Pflichten des Art. 53 Abs. 1 KI-VO einhalten, u.a. die Erstellung einer umfassenden technischen Dokumentation des Modells (inklusive Training) und umfassender Informationen, die auch Strategien zur Einhaltung der EU-Urheberrechtsrichtlinie (RL (EU) 2019/790) enthalten müssen. Zusätzlich hierzu müssen Anbieter von GPAI-Modellen mit systemischem Risiko nach Art. 55 Abs. 1 KI-VO weitere umfangreiche Pflichten einhalten wie eine Modellbewertung (Buchst. a), Risikobewertungs- und -minderungsmaßnahmen (Buchst. b) oder die Sicherstellung eines angemessenen Maßes an Cybersicherheit (Buchst. d).

IV. Konformitätsbewertung, harmonisierte Normen und Zertifizierung

Die KI-VO stellt in vielen Teilen eine produktsicherheitsrechtliche Verordnung dar,9 die Elemente der KI-Regulierung mittels Standardisierung nach dem New Legislative Framework enthält.10 Im Vordergrund steht dabei die künftige Etablierung harmonisierter Normen i.S.d. Art. 40 KI-VO. Durch diese Standardisierung wird bei Übereinstimmung mit diesen harmonisierten Normen die Konformität mit den Art. 8 ff. KI-VO (hinsichtlich Hochrisiko-KI-Systemen) bzw. mit den Pflichten aus Art. 53, 55 KI-VO (hinsichtlich GPAI-Modellen) vermutet. Mit Ausnahme des Anh. III Nr. 1 KI-VO (Beteiligung einer notifizierten Konformitätsbewertungsstelle i.S.d. Art. 31 i.V.m. Art. 34 KI-VO erforderlich) befolgen Hochrisiko-KI-Anbieter von KI-Systemen i.S.d. Anh. III Nr. 2 - 8 KI-VO ein internes Konformitätsbewertungsverfahren nach Art. 43 Abs. 2 i.V.m. Anh. IV KI-VO. Anbieter von Hochrisiko-KI-Systemen haben nach Art. 47 KI-VO eine EU-Konformitätserklärung für das jeweilige System auszustellen. Mittels einer CE-Kennzeichnung nach Art. 48 KI-VO weisen Anbieter von Hochrisiko-KI-Systemen die Einhaltung der Anforderungen der KI-VO nach.

V. KI-Reallabore und weitere innovationsfördernde Maßnahmen

Die Anforderungen und Pflichten insbesondere für Anbieter und Betreiber von Hochrisiko-KI-Systemen und Anbieter von GPAI-Modellen sind hoch und erfordern künftig eine umsichtige und aufwendige KI-Compliance. Gleichwohl sieht die KI-VO in den Art. 57 ff. KI-VO Maßnahmen zur Innovationsförderung vor. Dies schließt in erster Linie die Einrichtung mindestens eines sog. KI-Reallabors auf mitgliedstaatlicher Ebene ein, Art. 57 Abs. 1 KI-VO. Hierdurch soll ein kontrollierter Rahmen zur Entwicklung und zum Training von KI-Systemen unter behördlicher Aufsicht geschaffen werden, zu dem KMUs und Start-Ups erleichterten Zugang erhalten sollen, Art. 62 KI-VO. Die Einrichtung von KI-Reallaboren soll ausweislich Art. 57 Abs. 9 KI-VO u.a. zur Verbesserung der Rechtssicherheit (Buchst. a) beitragen, die Förderung von Innovation und Wettbewerb sowie die Entwicklung eines KI-Ökosystems (Buchst. c) und schließlich den Marktzugang für KI-Systeme (Buchst. e) erleichtern. Art. 60 KI-VO sieht zusätzlich zu den KI-Reallaboren unter den dortigen Voraussetzungen Tests von Hochrisiko-KI-Systemen unter realen Bedingungen und behördlicher Überwachung vor.

VI. Governance und Durchsetzung der KI-VO

Die KI-VO sieht eine Mehrebenen-Aufsichtsstruktur mit Behörden sowohl auf mitgliedstaatlicher als auch EU-Ebene vor.

Die EU-Kommission als zentrales Steuerungsorgan ist zur Konkretisierung und effektiven Durchführung und Anwendung der KI-VO insbesondere zum Erlass von Durchführungsrechtsakten und delegierten Rechtsakten (vgl. Art. 97 KI-VO) sowie zur Entwicklung von Leitlinien ermächtigt. Spät im Legislativverfahren wurde durch Kommissionsbeschluss11 das Büro für Künstliche Intelligenz etabliert (Art. 64 KI-VO), das in die Verwaltungsstrukturen der DG CNECT der EU-Kommission integriert wird und insbesondere KI-Fachwissen bündeln soll sowie Marktüberwachungsbefugnisse gegenüber Anbietern von GPAI-Modellen erhält. Die Instrumente und Befugnisse zur Beaufsichtigung und Durchsetzung der Pflichten von Anbietern von GPAI-Modellen bestimmen sich nach Art. 88 ff. KI-VO. Das Europäische Gremium für Künstliche Intelligenz (Art. 65, 66 KI-VO) setzt sich aus einem Vertreter je Mitgliedstaat, dem Büro für Künstliche Intelligenz sowie dem europäischen Datenschutzbeauftragten zusammen und soll die wirksame und einheitliche Anwendung der KI-VO sicherstellen. Daneben sollen das Beratungsforum (Art. 67 KI-VO) und das wissenschaftliche Gremium (Art. 68 KI-VO) mit KI-Kompetenz beratend und unterstützend tätig werden.

Auf mitgliedstaatlicher Ebene müssen nach Art. 70 Abs. 1 KI-VO mindestens eine Marktüberwachungsbehörde als „zentrale Anlaufstelle“ für die Verordnung (Art. 70 Abs. 2 KI-VO) und eine notifizierende Behörde eingerichtet werden. Notifizierende Behörden sind nach Art. 28 Abs. 1 KI-VO für die Einrichtung und Durchführung der Verfahren zur Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen (wie potenziell z.B. dem TÜV) und deren Überwachung zuständig. Welche Behörde(n) die Marktüberwachung in Deutschland übernehmen sollen wird aktuell umfassend diskutiert,12 in jedem Fall gilt für die aufsichtsrechtlichen Ermittlungsbefugnisse, die sich maßgeblich auf Hochrisiko-KI-Systeme nach dem Inverkehrbringen beziehen, nach Art. 74 Abs. 1 KI-VO die Marktüberwachungsverordnung (MÜ-VO).13 Nach Art. 74 Abs. 12 KI-VO haben die Anbieter von Hochrisiko-KI-Systemen den Marktüberwachungsbehörden u.a. uneingeschränkten Zugang zur Dokumentation sowie zu den für die Entwicklung verwendeten Trainings-, Validierungs- und Testdatensätzen zu gewähren. Weitere Untersuchungs- und Durchsetzungsbefugnisse richten sich nach den Art. 74 ff. KI-VO.

Im Gegensatz zu den ursprünglichen Entwürfen für die KI-VO sehen die Art. 85 ff. KI-VO schließlich Rechtsbehelfe Privater vor, insbesondere auf Beschwerde bei einer Marktüberwachungsbehörde bei Annahme eines Verstoßes gegen die KI-VO (Art. 85 KI-VO) oder das Recht auf eine Erläuterung der Entscheidungsfindung im Einzelfall (Art. 86 KI-VO) vor. Durch die Änderung der Verbandsklagerichtline14 nach Art. 110 KI-VO wird die KI-VO zudem in deren Anh. I aufgenommen, was die Anwendung der Richtlinie auf Verstöße durch Unternehmer nach Art. 2 Abs. 1 KI-VO bedeutet.

VII. Sanktionen

Im Falle der Nichteinhaltung der KI-VO sehen die Art. 99 ff. KI-VO Sanktionen gegen Akteure in der KI-Wertschöpfungskette vor. Art. 99 KI-VO normiert Verstöße im Zusammenhang mit KI-Systemen: Bei Verstoß gegen Art. 5 KI-VO drohen Geldbußen bis 35 Mio. Euro (oder bis zu 7% des weltweiten Jahresumsatzes), bei Verstößen gegen die jeweiligen Pflichten der Akteure im Zusammenhang mit Hochrisiko-KI-Systemen und bestimmten KI-Systemen i.S.d. Art. 50 KI-VO bis 15 Mio. Euro (oder 3% des weltweiten Jahresumsatzes) und bei der Bereitstellung falscher Informationen Geldbußen bis 7,5 Mio. Euro (oder 1% des weltweiten Jahresumsatzes). Die Mitgliedstaaten erlassen Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen. Bei Verstößen im Zusammenhang mit Pflichten für GPAI-Modelle kann die EU-Kommission Geldbußen bis 15 Mio. Euro (oder 3% des weltweiten Jahresumsatzes) erlassen, Art. 101 Abs. 1 KI-VO.

VIII. Geltung der KI-VO

Die KI-VO erlangt 24 Monate nach ihrem Inkrafttreten Geltung, Art. 113 KI-VO. Einzelne Teile der Verordnung gelten aber bereits vor diesem Zeitpunkt. Die Kapitel I und II (u.a. Anwendungsbereich der KI-VO und verbotene KI-Systeme nach Art. 5 KI-VO) gelten bereits sechs Monate nach Inkrafttreten, die Kapitel III Abschnitt 4, Kapitel V, VII und XII (Vorschriften zu Notifizierung, GPAI-Modellen, Governance und Sanktionen) insgesamt zwölf Monate nach Inkrafttreten. Die Hochrisikokategorisierung nach Anh. I (über Art. 6 Abs. 1 KI-VO) erlangt erst nach 36 Monaten Geltung.

C. Auswirkungen für die Praxis

Die Auswirkungen der KI-VO für die Praxis sind enorm. Da sich der Einsatz algorithmischer Systeme, die unter den Begriff des KI-Systems nach der KI-VO fallen werden, rasant in sämtliche Gesellschaftsbereiche verbreitet, sehen sich viele Unternehmen und öffentliche Einrichtungen den Anforderungen der KI-VO künftig gegenübergestellt. Auch wenn die einzelnen Vorschriften sukzessive Geltung erlangen, sollte sich die Rechtspraxis schon jetzt intensiv mit der Implementierung der KI-VO befassen, um zu einer menschenzentrierten und vertrauenswürdigen KI in der EU beizutragen.


Fußnoten


1)

Vgl. zum Kommissionsentwurf vom 21.04.2021 schon Marx, jurisPR-ITR 19/2021 Anm. 2; vgl. zum Stand des Legislativverfahrens vor dem Trilog auch Bronner, jurisPR-ITR 15/2023 Anm. 2.

2)

Zum Zeitpunkt der Beitragserstellung ist mit der Veröffentlichung der KI-VO im Amtsblatt der EU und dem Inkrafttreten der KI-VO zeitnah zu rechnen. Die Ausführungen beziehen sich auf den vom Rat der EU am 21.05.2024 angenommenen Standpunkt des EU-Parlaments vom 13.03.2024, PE-CONS 24/24, abrufbar unter: https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/de/pdf, zuletzt abgerufen am 01.07.2024.

3)

S. kritisch zur Weite des Begriffs im Legislativverfahren statt vieler Gless/Janal in: Hilgendorf/Roth-Isigkeit, Die neue Verordnung der EU zur Künstlichen Intelligenz, S. 24 ff.

4)

Erwgr. 12 S. 5 KI-VO.

5)

Erwgr. 99 S. 1 KI-VO.

6)

So auch Hacker, Comments on the Final Trilogue Version of the AI Act, 13.04.2024, S. 9, abrufbar unter: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4757603, zuletzt abgerufen am 01.07.2024.

7)

S. zur Konkretisierung der einzelnen Bedingungen Erwgr. 53 KI-VO.

8)

So auch Hacker, Comments on the Final Trilogue Version of the AI Act, 13.04.2024, S. 5 f., abrufbar unter: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4757603, zuletzt abgerufen am 01.07.2024.

9)

Statt vieler Krönke, NVwZ 2024, 529, 533.

10)

Ebers, RDi 2021, 588, 589.

11)

Beschluss der EU-Kommission vom 24.01.2024 zur Einrichtung des Europäischen Amts für Künstliche Intelligenz (C/2024/1459), abrufbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=OJ:C_202401459, zuletzt abgerufen am 01.07.2024.

12)

S. ausführlich hierzu mit einer Bewertung der jeweiligen Optionen Martini/Botta, Nationale KI-Aufsicht: Aufgaben, Befugnisse und Umsetzungsoptionen, 2024, S. 7, abrufbar unter: https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/nationale-ki-aufsicht, zuletzt abgerufen am 01.07.2024.

13)

Verordnung (EU) 2019/1020.

14)

Richtlinie (EU) 2020/1828.


Immer auf dem aktuellen Rechtsstand sein!

IHRE VORTEILE:

  • Unverzichtbare Literatur, Rechtsprechung und Vorschriften
  • Alle Rechtsinformationen sind untereinander intelligent vernetzt
  • Deutliche Zeitersparnis dank der juris Wissensmanagement-Technologie
  • Online-First-Konzept

Testen Sie das juris Portal 30 Tage kostenfrei!

Produkt auswählen

Sie benötigen Unterstützung?
Mit unserem kostenfreien Online-Beratungstool finden Sie das passende Produkt!