AI Act & DORA: Was jetzt für KI-Anwendungen und IDV-Systeme gilt
AI Act & DORA: Was jetzt für KI-Anwendungen und IDV-Systeme gilt
Die neuen EU-Vorgaben schaffen Klarheit über die Legaldefinition von KI-Systemen.
Key Facts:
- KI-Definition konkretisiert: Die EU hat klargestellt, welche Systeme als KI gelten und reguliert werden.
- Klassische Statistik bleibt ausgenommen: Logistische Regression und ähnliche Verfahren fallen nicht unter den EU AI Act.
- KI-Systeme mit hohem Risiko erfordern besondere Aufmerksamkeit im Finanzsektor.
Die EU hat mit dem AI Act erstmals einheitliche Regeln zur Regulierung von künstlicher Intelligenz geschaffen. Doch welche Systeme gelten nach dieser Verordnung überhaupt als KI – und welche nicht?
Was ist ein KI-System im Sinne des AI Act?
In Artikel 3 (1) des EU AI Act wird ein KI-System definiert als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist. Es kann nach seiner Betriebsaufnahme anpassungsfähig sein und aus den erhaltenen Eingaben für explizite oder implizite Ziele ableiten, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.“
Diese Definition ließ lange Raum für Interpretation. Erst mit den Leitlinien der EU-Kommission vom 6. Februar 2025 wurde klarer, welche Anwendungen tatsächlich unter die KI-Verordnung fallen – und welche nicht. Für Banken und Versicherungen ist das ein entscheidender Schritt: Sie können nun verlässlich zwischen regulierten KI-Systemen und klassischen datenbasierten Anwendungen unterscheiden.
Wann gilt ein System als KI?
Die neuen Leitlinien legen fest, dass ein System als KI-System im Sinne des EU AI Acts gilt, wenn es die folgenden sieben Merkmale erfüllt:
- Maschinenbasiertes System
Ein KI-System muss vollständig auf Maschinen basieren, was bedeutet, dass es sowohl auf Hardware als auch auf Software angewiesen ist. Diese Maschinenbasis unterscheidet KI-Systeme von traditionellen, rein menschlichen Entscheidungsprozessen. Dabei umfasst die maschinelle Basis nicht nur klassische Computerprozesse, sondern auch spezialisierte Hardware, die für maschinelles Lernen oder neuronale Netzwerke optimiert ist.
- Autonome Entscheidungsfindung
Ein zentrales Kriterium: Das System kann eigenständig Entscheidungen treffen und Lösungswege entwickeln. Ein Sprachmodell wie ein Large Language Model (LLM) zählt dazu – es erzeugt Ausgaben auf Basis von Eingaben, ohne dass diese vorher exakt definiert wurden. Anders sieht dies bei einem regelbasierten Chatbot aus, welcher Anfragen erkennt und von Menschen vordefinierte Antworten 1:1 ausgibt. Dieses System wäre explizit kein KI-System im Sinne des EU AI Acts.
- Adaptivität (fakultativ, aber starkes Indiz für KI)
Ein System, das sich im Laufe seiner Nutzung verändert und durch Lernen oder Anpassung an neue Daten eigenständig verbessert, spricht stark für eine Klassifizierung als KI. Allerdings ist Adaptivität kein zwingendes Kriterium für die Einstufung eines Systems als KI.
Dabei ist zu beachten, dass regelmäßige Updates oder manuelle Modellanpassungen – beispielsweise das periodische Neuberechnen einer logistischen Regression – nicht unter Adaptivität fallen. Adaptivität liegt nur dann vor, wenn das System aus neuen Daten eigenständig lernt und seine Funktionsweise ohne menschliches Eingreifen optimiert.
- Zielgerichtete Entscheidungsfindung
KI-Systeme arbeiten nicht willkürlich, sondern verfolgen explizite oder implizite Ziele. Diese Ziele können in Form mathematischer Optimierungsfunktionen, Wahrscheinlichkeitsberechnungen oder maschinellem Lernen definiert sein. Anders als herkömmliche regelbasierte Systeme passt sich ein KI-System aktiv an seine Zielsetzung an und verändert seine Herangehensweise basierend auf den erhaltenen Eingaben.
- Fähigkeit zur Inferenz (Ausgaben aus Eingaben generieren)
Ein KI-System kann aus Eingaben eigenständig ableiten, wie die gewünschte Ausgabe zu erzeugen ist. Es geht also nicht um bloßes Abarbeiten, sondern um echtes „Verstehen“ und Umsetzen – in Echtzeit oder in der Modellbildung.
Damit umfasst es sowohl die Fähigkeit, in der Nutzungsphase Vorhersagen, Empfehlungen oder Entscheidungen zu treffen, als auch in der Bauphase Modelle oder Algorithmen aus Daten zu entwickeln. Auf diese Weise grenzt es sich von rein regelbasierten Systemen ab, die nur festgelegten Anweisungen folgen.
Ferner definieren die Guidelines sogenannte „AI techniques“ (KI-Techniken), welche genaue technische Kriterien für den Schaffungsprozess von KI-Systemen definieren. Hierzu zählen explizit:
Supervised Learning,
- Unsupervised Learning,
- Self-supervised Learning,
- Reinforcement Learning,
- Deep Learning und
- Logic- & Knowledge-Based Approaches.
Letztere sind darauf ausgelegt, während der Entwicklungsphase statisch eingebettetes Wissen aufzunehmen und in der Betriebsphase mithilfe dieses symbolisch enkodierten Wissens induktive oder deduktive Schlussfolgerungen abzuleiten.
- Erzeugung von Ausgaben, die physische oder virtuelle Umgebungen beeinflussen
KI-Systeme haben nicht nur interne Funktionen, sondern wirken aktiv auf ihre Umgebung ein. Dies kann in Form physischer Steuerung geschehen, etwa in der Robotik oder automatisierten Fahrzeugen, oder in Form digitaler Einflussnahme, wie personalisierte Produktempfehlungen in Finanz- oder Versicherungssystemen.
Konkret werden von der Kommission die Ausgabemodalitäten Text, Video und Musik als indikativ für KI-Systeme benannt. Ferner sind Inhalte wie Vorhersagen, Empfehlungen und Entscheidung als Merkmale für ein KI-System von der Kommission definiert
- Dynamische Interaktion mit der Umwelt
Ein KI-System reagiert dynamisch auf externe Umgebungen. Das bedeutet, dass es seine Aktionen auf Basis von Rückmeldungen aus der Umgebung anpassen kann. In der Praxis kann das ein Chatbot sein, der in Echtzeit mit Nutzenden interagiert, oder ein Handelsalgorithmus, der Marktbewegungen analysiert und seine Strategien entsprechend anpasst.
Welche Systeme sind nicht von der KI-Verordnung betroffen?
Um Fehlklassifizierungen zu vermeiden, grenzt die EU-Kommission klar ab, welche Systeme nicht unter den EU AI Act fallen. Die wichtigsten Ausschlusskriterien sind:
-
Regelbasierte Systeme ohne Lernfähigkeit
- Software, die ausschließlich durch fest definierte, manuell erstellte Regeln arbeitet.
- Systeme, die keine eigenständige Modellbildung oder Entscheidungsanpassung vornehmen können.
-
Mathematische Optimierungssysteme
- Systeme, die traditionelle Optimierungsmethoden (z. B. lineare oder logistische Regression) beschleunigen oder approximieren.
- Machine-Learning-Modelle, die lediglich mathematische Berechnungen optimieren, aber keine intelligenten Anpassungen vornehmen.
- Beispiele: Physikbasierte Modelle zur Berechnung atmosphärischer Prozesse, Satellitenkommunikationssysteme zur Bandbreitenoptimierung.
-
Systeme mit reinem Datenmanagement und Statistik
- Datenbank- und Analysewerkzeuge, die nur vorab definierte Abfragen oder Visualisierungen ausführen.
- Software für deskriptive Analysen, Hypothesentests oder Datendarstellungen ohne KI-gestützte Entscheidungsfindung.
- Beispiele: Standard-Datenbanken, die Kundendaten filtern, Visualisierungssoftware für Verkaufszahlen ohne Handlungsempfehlungen.
-
Klassische heuristische Systeme
- Programme, die auf festgelegten heuristischen Regeln basieren, ohne dass ein Lernprozess stattfindet.
- Beispiele: Schachprogramme mit Minimax-Algorithmus, die feste Bewertungsfunktionen nutzen, Problemlösungsmethoden mit erprobten Faustregeln statt datenbasierter Modellbildung.
-
Einfache Vorhersagesysteme ohne adaptive Modelle
- Systeme, deren Vorhersagen auf simplen statistischen Durchschnittswerten basieren.
- Beispiele: Finanzprognosen, die nur den historischen Mittelwert verwenden, Nachfrageprognosen, die ausschließlich auf historischen Verkaufszahlen basieren.
Exkurs: Was bedeutet der EU AI Act für IDV-Systeme im Finanzsektor?
Ein im Finanzsektor zentrales Thema ist der Wegfall der Sonderregelungen für individuelle Datenverarbeitung unter dem Digital Operational Resilience Act (DORA). Anders als in der BAIT, VAIT oder KAIT kennt DORA keine gesonderte Regelung für individuelle Datenverarbeitung (IDV) mehr. Dies definiert auch die BaFin in ihrer Aufsichtsmitteilung vom 8. Juli 2024 auf Seite 21 im zweiten Absatz und stellt eine umfangreichere Prüfung als bisher in Aussicht.
Banken und Versicherungen müssen daher bestehende individuelle Datenverarbeitungssysteme (IDV-Systeme), beispielsweise in der Kreditrisikoprüfung oder im Aktuariat, genau überprüfen. Dabei ist insbesondere zu beachten, ob diese Systeme Techniken des maschinellen Lernens einsetzen, die nicht durch die neuen Leitlinien ausgenommen sind.
Bisher fielen diese Kleinsysteme meist unter Sonderregelungen und mussten nicht den gleichen Compliance-Anforderungen genügen wie große Systeme. Mit dem Wegfall der IDV-Sonderregelung müssen Unternehmen die individuellen Datenverarbeitungen nun überprüfen und möglicherweise umfassendere Compliance-Prozesse nachholen sowie im Kontext von KI aufbauen. In der aktuellen Unternehmenspraxis finden sich solche Kleinsysteme beispielsweise vielfach in den Aktuariaten, weil dort fachlich komplexe Abläufe auf mathematischen Verfahren basieren, welche von den fachlichen Expert:innen tool-gestützt umgesetzt wurden.

DORA-Benchmark für den Finanzsektor
Wie Finanzinstitute ihre digitale Resilienz stärken und regulatorische Anforderungen erfüllen können. DORA-Benchmark jetzt sichern.
Studie herunterladenZusammenfassend definieren die neuen EU-Leitlinien klar, wann ein System als KI im Sinne des AI Act gilt – und schaffen damit rechtliche Sicherheit für Unternehmen im Finanzsektor. Etablierte statistische Verfahren können weiterhin ohne zusätzlichen Compliance-Aufwand eingesetzt werden. Gleichzeitig entfällt die bisherige Sonderregelung für IDV-Systeme: Diese müssen nun sorgfältig geprüft und gegebenenfalls in bestehende Compliance-Strukturen eingebunden werden – insbesondere, wenn sie Verfahren des maschinellen Lernens nutzen.