Ob Sie lieber eine E-Mail senden, zum Telefon greifen oder das gute alte Fax nutzen. Wir freuen uns, von Ihnen zu hören.
Was ist eigentlich „Künstliche Intelligenz“? – Warum die EU-Verordnung keine einfache Antwort gibt
Künstliche Intelligenz ist überall – in Chatbots, Bildgeneratoren oder Empfehlungssystemen. Doch wer KI in der EU entwickelt, verkauft oder nutzt, steht nun vor einer heiklen Frage: Fällt mein System unter die neue EU-KI-Verordnung? Klingt einfach, ist es aber nicht. Denn was überhaupt als „künstliche Intelligenz“ gilt, ist überraschend schwer zu bestimmen.
Warum ist die Definition entscheidend?
Unternehmen und öffentliche Einrichtungen, die KI einsetzen oder vertreiben, müssen künftig prüfen, ob sie von der KI-Verordnung betroffen sind. Das gilt immer dann, wenn ihr System mit dem EU-Markt in Berührung kommt.
Zunächst ist daher zu klären, ob überhaupt eine „KI“ im Sinne der Verordnung vorliegt. Erst danach folgt die Frage, welche konkreten Anforderungen für den jeweiligen KI-Anbieter oder -Betreiber gelten. Der Knackpunkt: Die EU musste erst einmal festlegen, was „Künstliche Intelligenz“ eigentlich bedeutet. Eine einheitliche oder allgemein akzeptierte Definition gab es bisher nicht – weder in der Technik noch im Recht.
Wie definiert die EU „Künstliche Intelligenz“?
Die Diskussion darüber war lang. Zunächst wollte die EU-Kommission eine sehr weite Definition: Fast jede Software, die auf logischen, wissensbasierten oder statistischen Methoden beruht, sollte erfasst werden. Das hätte potenziell unzählige herkömmliche Programme getroffen – vom Taschenrechner bis zum Excel-Makro.
Nach Kritik von Wirtschaft und Wissenschaft rückte die EU davon ab. Der Rat brachte den Begriff der Autonomie ins Spiel, das Parlament orientierte sich an der Definition der OECD. Heraus kam eine Formel, die jetzt in Artikel 3 Nr. 1 KI-VO steht: „Ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und nach seiner Betriebsaufnahme anpassungsfähig sein kann. Es leitet aus Eingaben für explizite oder implizite Ziele ab, wie Ausgaben – etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen – erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.“
Kurz gesagt: Eine KI ist ein maschinenbasiertes, autonomes, eventuell lernfähiges System, das aus Input Output erzeugt.
Wo liegen die Grenzen?
Klingt technisch – und bleibt unklar. Denn wann ist ein System „autonom“? Wenn es ohne ständige Kontrolle arbeitet? Wenn es lernt, sich zu verbessern? Der Begriff ist dehnbar.
Auch die Unterscheidung zwischen KI und „normaler“ Software bleibt schwierig. Schließlich erzeugen auch klassische Programme Ergebnisse aus Eingaben.
Wirklich hilfreich erscheint nur der Gedanke hinter der Definition: Die Verordnung soll nicht jede Software regulieren, die feste Regeln befolgt, sondern Systeme, die eigene Schlüsse aus Daten ziehen. Typische Beispiele sind Anwendungen mit maschinellem Lernen, die Muster erkennen oder Vorhersagen treffen. Auch wissens- oder logikbasierte Systeme können darunter fallen – etwa solche, die Schlussfolgerungen aus gespeicherten Informationen ziehen.
Warum bleibt die Definition eine Grauzone?
Trotz aller Mühen bleibt vieles offen. Wie viel Autonomie reicht aus, um als KI zu gelten? Wann hört klassische Programmierung auf und wann beginnt maschinelles Lernen? In der Praxis wird das wohl erst die Rechtsprechung mit Hilfe von Sachverständigen klären. Hilfreich können hier auch von der EU-Kommission erstellte Leitlinien mit Beispielen und Abgrenzungskriterien sein.
Zudem stellt sich die grundsätzliche Frage, ob sich KI überhaupt je eindeutig definieren lässt. Technologie entwickelt sich rasant, Lernverfahren verändern sich ständig, und das gesellschaftliche Verständnis was „schon“ KI und „noch“ herkömmliche Software ist, verschmilzt zunehmend. Eine Definition, die heute passt, kann morgen schon überholt sein. Jede gesetzliche Formulierung läuft daher Gefahr, der technischen Realität immer einen Schritt hinterherzuhinken. Vielleicht muss man akzeptieren, dass „Künstliche Intelligenz“ weniger ein klarer Begriff als vielmehr ein bewegliches Ziel ist – und Regulierung künftig damit leben muss, mit Unschärfe zu arbeiten.
Fazit
Die EU wollte eine klare Definition schaffen – herausgekommen ist allenfalls ein Kompromiss. Die KI-Verordnung orientiert sich an der OECD und setzt auf einen breiten Begriff. Das soll sie zukunftsfest machen, sorgt aber auch für Unsicherheit.
Klar ist: Die KI-VO soll keine einfachen Softwaresysteme oder klassischen Programmieransätze erfassen. Anwendungen, die ausschließlich festen, von Menschen definierten Regeln folgen, fallen nicht unter die Verordnung. Reguliert werden nur „intelligente“ Systeme, die eigenständig Schlüsse aus Daten ziehen oder Entscheidungen ableiten können.
Trotzdem bleibt die Abgrenzung schwierig. Viele Systeme bewegen sich im Grenzbereich zwischen Software und KI. Im Zweifel wird man daher wohl davon ausgehen müssen, dass ein System als KI gilt, um rechtliche Risiken zu vermeiden.
Für Unternehmen bedeutet das:
- Frühzeitig prüfen, ob eingesetzte Systeme Merkmale eines KI-Systems aufweisen – und diese Einschätzung intern festhalten.
- Regulatorische Entwicklungen aktiv verfolgen, insbesondere Leitlinien der EU-Kommission und nationale Auslegungshilfen.
Künstliche Intelligenz ist kein fest umrissener Begriff, sondern ein bewegliches Ziel. Die EU hat den Rahmen gesetzt – wie eng oder weit er künftig ausgelegt wird, entscheidet sich erst in der Praxis.