Kontakt

Ob Sie lieber eine E-Mail senden, zum Telefon greifen oder das gute alte Fax nutzen. Wir freuen uns, von Ihnen zu hören.

Anruf unter
+49 711 86040 00
Fax unter
+49 711 86040 01

Künstliche Intelligenz: Aktuelles zur KI-Verordnung

Fachbeiträge
Künstliche Intelligenz: Aktuelles zur KI-Verordnung

Das europäische Gesetzgebungsverfahren zur KI-Verordnung (KI-VO) befindet sich im Endspurt. Ende 2022 hat der EU-Ministerrat seine Änderungsvorschläge zum Erstentwurf vorgelegt und die finale Abstimmung im EU-Parlament ist für Mitte Juni angesetzt. Danach geht es in die letzte Verfahrensphase, den sogenannten Trilog, in dem Rat, Parlament und Kommission der EU über die endgültige Version verhandeln. Angestrebt wird eine Einigung vor Ende des Jahres, so dass mit der KI-VO dann Anfang 2024 das weltweit erste KI-Gesetz offiziell verabschiedet werden könnte.
 

Wen betrifft die KI-VO?

Die Verordnung richtet sich vor allem an Anbieter, die KI-Systeme (unabhängig von ihrem Sitz) in der Union in Verkehr bringen oder in Betrieb nehmen sowie an Nutzer, die in der EU niedergelassen sind oder ihren Sitz in der EU haben. Befinden sich Anbieter oder Nutzer zwar in einem Drittland, der von der KI erzeugte Output soll aber in der Union verwendet werden, soll die Verordnung ebenfalls angewendet werden. Voraussichtlich werden auch Importeure und Händler von KI-Systemen sowie Produkthersteller, die eine KI zusammen mit ihrem Produkt in Verkehr bringen, betroffen sein.
 

Pflichten nach der KI-VO: Der risikobasierte Ansatz

Der risikobasierte Ansatz der KI-VO differenziert KI-Systeme nach drei Risikoklassen: unannehmbares, hohes oder geringes bzw. minimales Risiko. Je nach Risikoklasse folgen unterschiedliche Anforderungen. Für KI-Anbieter und -Nutzer ist die Risikoeinstufung somit entscheidend für die Pflichten, die sie nach der KI-VO erfüllen müssen.

KI, die ein unannehmbares Risiko für Grundrechte oder Werte der Union darstellt, soll verboten werden. Hierzu zählen zum Beispiel Systeme, die Menschen zu schädigendem Verhalten manipulieren oder bestimmte Systeme im Bereich der Strafverfolgung. Für die meisten Unternehmen dürfte das Verbot keine praktische Bedeutung haben.

Der Schwerpunkt der Verordnung liegt auf der Regulierung von KI-Systemen mit hohem Risiko. Dazu zählen Systeme, von denen eine besondere Gefahr für Gesundheit, Sicherheit oder Grundrechte befürchtet wird. Die Einstufung als hochriskant richtet sich vor allem nach einer Liste im Anhang III zur KI-VO, die künftig bei Bedarf auch erweitert werden kann. Derzeit werden hier beispielsweise solche Systeme genannt, die zur biometrischen Identifizierung von Personen, im Rahmen kritischer Infrastrukturen wie dem Straßenverkehr, bei Bewerbungsverfahren oder Kreditwürdigkeitsentscheidungen eingesetzt werden. An Hochrisiko-KI werden eine Vielzahl besonderer Anforderungen gestellt wie etwa Dokumentations- und Informationspflichten, Qualitätsanforderungen an Test- und Trainingsdaten oder die Gewährleistung einer menschlichen Aufsicht. Hochrisiko-KI-Anbieter müssen sich zudem einem Konformitätsbewertungsverfahren bei einer unabhängigen Bewertungsstelle unterziehen. Zuletzt wurde auch die Dokumentation des ökologischen Fußabdrucks und die Einhaltung bestimmter Umweltstandards gefordert.

KI-Systeme mit geringem Risiko müssen im Wesentlichen nur Transparenzanforderungen erfüllen. Der Endnutzer soll hier wissen, dass er es mit dem Output einer KI zu tun hat. Deep Fakes oder Chatbots wie Chat-GPT müssen sich also künftig deutlich als solche zu erkennen geben.
 

Chat-GPT & Co. – Von General Purpose AI und Foundation Models

Einige Verzögerungen im Gesetzgebungsverfahren sind auf die Diskussion um Chat-GPT zurückzuführen. Denn der intelligente Chatbot ist vielseitig einsetzbar. Er könnte zur verbotenen Manipulation von Menschen als Komponente eines Hochrisiko-Systems oder ganz „unkritisch“ als bloßer digitaler Assistent im Kundenservice, zum Beispiel beim Onlinehandel, verwendet werden. Chat-GPT ist damit nicht per se „gefährlich“, könnte aber auch in verbotenen oder kritischen Bereichen eingesetzt werden.

Der Ministerrat schlägt daher eine Regelung für sog. General Purpose AI, die lediglich eine ganz allgemeine Aufgabe erfüllt und vielseitig einsetzbar ist, vor. Wird diese als Komponente einer Hochrisiko-KI eingesetzt, soll sie insbesondere die Hochrisiko-KI-Anforderungen erfüllen müssen. Außerdem müssen Anbieter von General Purpose AI bestimmte Informationen über die KI bereitstellen.

Das EU-Parlament möchte auch sogenannte Foundation Models als Unterform der General Purpose AI adressieren. Darunter versteht es KI-Modelle, die auf einer breiten Datenbasis in großem Umfang trainiert wurden, auf einen allgemeinen Output ausgelegt sind und an eine Vielzahl spezieller Aufgaben angepasst werden können. Der Unterschied zur General Purpose AI liegt vor allem in den verwendeten Trainingsdaten. Chat-GPT wäre als ein solches Foundation Model einzuordnen, da es mit Daten aus dem gesamten Internet trainiert wurde. Das Parlament hat strengere Anforderungen für Foundation Models vorgeschlagen, insbesondere hinsichtlich Daten, Dokumentation und Transparenz.
 

Wie geht es weiter?

Der Rahmen der Verordnung mit ihrem risikobasierten Ansatz scheint festzustehen. Politisch umstritten ist dagegen, welche KI-Systeme endgültig verboten oder als hochriskant eingestuft werden sollen. Auch Details zu den einzelnen Anforderungen an Hochrisiko-Systeme werden noch debattiert. Bis Jahresende dürfte aber mit einer Einigung zu rechnen sein. Die Verordnung wird dann unmittelbar in allen EU-Mitgliedsstaaten gelten. Bei Verordnungsverstößen drohen dann hohe Sanktionen: Der Vorschlag des Ministerrats sieht Bußgelder von bis zu 30 Millionen Euro bzw. 6 % des weltweiten Jahresumsatzes vor. Das Parlament will diese Bußgelder sogar noch weiter erhöhen. Unternehmen, die KI-Systeme anbieten oder nutzen und dabei mit dem EU-Raum in Berührung kommen sollten sich frühzeitig mit der KI‑VO auseinandersetzen und prüfen, inwieweit sie von der Verordnung betroffen sind.

Zurück