Agentic AI verändert die Spielregeln – sind Finanzunternehmen vorbereitet?

Cyber-Security, Resilienz und Compliance müssen neu gedacht und schneller umgesetzt werden

Keyfacts:

  • Agentische KI-Systeme („Agentic AI“) verlassen die Experimentierphase und werden in Kürze produktiv eingesetzt.
  • Dynamisch generierter Code und selbst erstellte Software-Bausteine stellen klassische Sicherheits- und Governance-Modelle vor nie dagewesene Herausforderungen.
  • Für Sicherheit, Resilienz und regulatorische Konformität ist der Aufbau einheitlicher Plattformen unerlässlich.

Lange waren generative KI-Modelle darauf beschränkt, Texte oder Code zu erzeugen. Heute entstehen sogenannte Agenten-Systeme, die selbstständig handeln können: Sie greifen auf Schnittstellen wie Application Programming Interfaces (APIs) zu, interagieren mit Datenbanken, führen Programme aus oder entwickeln bei Bedarf sogar neue Sub-Agenten, um Aufgaben zu erfüllen.

Was vor kurzem noch als Forschungsprototyp galt, hält nun Einzug in reale Geschäftsprozesse – von automatisierten Service-Anwendungen bis hin zur Softwareentwicklung und Systemadministration. Damit verändert sich das Sicherheitsbild fundamental:
KI wird zum handelnden Akteur.

Sicherheit in Bewegung: Wenn KI eigenen Code schreibt

Funktionen wie „Code Interpreter“ oder „Function Calling“ erlauben es KI-Systemen heute, Code zur Laufzeit zu generieren und direkt auszuführen. Was zunächst nach einem Effizienzgewinn klingt, kann schnell zum Risiko werden:

  • Der generierte Code ist oft nicht vorab geprüft oder freigegeben.
  • Änderungen erfolgen ohne klassische Change- oder Release-Kontrolle.
  • Die Ausführung kann auf Systemressourcen zugreifen, die weit über den eigentlichen Funktionszweck hinausgehen.

Im Rahmen des Digital Operational Resilience Act (DORA) sind solche Vorgänge nicht mehr bloße KI-Operationen, sondern faktisch Softwareentwicklungen. Damit greifen auch die bekannten regulatorischen Pflichten: Nachvollziehbarkeit, Testevidenz, Freigabeprozesse und Lifecycle-Management.

Ohne eine übergreifende Sicherheitsplattform droht eine neue Art von „Shadow IT“ zu entstehen, diesmal nicht durch Menschen, sondern durch KI.

Ein neuer Ordnungsrahmen: Sicherheit und Regulierung zusammen denken

DORA und der EU AI Act schreiben klare Anforderungen an Governance, Risiko- und Qualitätsmanagement fest. Diese Anforderungen gelten künftig auch für KI-Agenten, deren Verhalten sich dynamisch anpasst und verändert. Die entscheidende Frage lautet: Wie lässt sich Sicherheit gewährleisten, wenn sich die Software selbst verändert?

Die Antwort liegt im Aufbau einer einheitlichen Agentic-AI-Plattform, die sowohl technische Sicherheitskontrollen als auch regulatorische Anforderungen integriert.

Bausteine einer Agentic-AI-Plattform

  • Policy & Governance
    Zentrale Richtlinien definieren, was Agenten dürfen und was nicht. Aktionen, Datenzugriffe und Tool-Nutzung müssen durch Policy-as-Code steuerbar und auditierbar sein.
  • Identität & Rechteverwaltung
    Jeder Agent erhält eine eigene Identität mit begrenzten Berechtigungen. Zugriffe auf Systeme, Daten oder APIs müssen zeitlich begrenzt und überprüfbar sein.
  • Isolierte Ausführungsumgebungen
    Generierter Code darf nur in sicheren, gekapselten Umgebungen laufen. Netzwerkzugriffe, Dateioperationen und externe Calls müssen durch technische Schranken kontrolliert werden.
  • Lifecycle-Management & Audit
    Auch kurzlebige Agenten benötigen einen dokumentierten Lebenszyklus: Wer hat sie erstellt? Was wurde ausgeführt? Wurden Sicherheitsprüfungen durchlaufen?
  • Test & Monitoring
    Automatisierte Tests müssen unerwünschtes Verhalten erkennen. Dazu zählen beispielsweise Prompt Injections, also Cyberangriffe auf Sprachmodelle, die Prompts manipulieren, sodass diese Fehlinformationen verbreiten oder Schlimmeres verursachen, Datenexfiltration bis oder fehlerhafter Code. Ein kontinuierliches Monitoring stellt sicher, dass Auffälligkeiten in Echtzeit erkannt und gestoppt werden.

Dynamik trifft Regulierung

Die besondere Herausforderung bei Agentic AI liegt in der Kombination aus hoher Autonomie und gleichzeitig strengen regulatorischen Anforderungen. Wo KI eigenständig agiert, entstehen neue, oft unvorhersehbare Abhängigkeiten, Entscheidungswege und Risiken – insbesondere dann, wenn Agenten untereinander interagieren oder externe Systeme steuern.

Gerade im Finanzsektor wird die Geschwindigkeit regulatorischer Anpassung zur zentralen Sicherheitsfrage: Wie kann Compliance Schritt halten, wenn KI in Millisekunden neue Softwarekomponenten erzeugt und wieder verwirft?

Der Weg in die Praxis: Drei Schritte zur sicheren Agentic AI

  • Kontrollierte Entwicklungs- & Testprozesse
    KI-Agenten in mehrstufigen Entwicklungsumgebungen und isolierten Sandboxes erproben, Policies sukzessive aktivieren und Zugriffsbeschränkungen erhöhen.
  • Plattform-Standardisierung
    Einheitliche Richtlinien, Identitätsmodelle und Protokolle schaffen – unabhängig vom Use-Case oder den angebunden Drittsystemen.
  • „Human on the Loop“ anstatt „Human in the Loop“
    Nicht die Aktivitäten selbst sondern die Metaprozesse auditieren, um Agenten-Generierung, Codeausführung und autonomes Lifecycle-Management als solches zu attestieren, statt jede einzelne Code-Sandbox-Ausführung.

Plattform jetzt, Sicherheit später ist keine Option

Agentische KI-Systeme werden in den kommenden Monaten produktiv, ob Unternehmen darauf vorbereitet sind oder nicht. Wer jetzt keine einheitliche KI-Plattform etabliert, riskiert nicht nur den Anschluss an die technologische Entwicklung zu verlieren, sondern auch die Kontrolle über ein zunehmend vernetztes KI-Ökosystem. Denn gerade die Konnektivität zwischen Agenten schafft die größten Mehrwerte und ist damit unumgänglich.

Der Impuls für eine zentrale KI-Plattform ist daher nicht primär regulatorisch, sondern innovationsgetrieben: Nur wer eine gemeinsame technologische Basis schafft, kann Agentic AI skalierbar, sicher und wirtschaftlich betreiben.

Die Cybersecurity muss diesen Innovationsdruck aktiv aufgreifen und als Chance verstehen, um den nachhaltigen und sicheren Betrieb dieser neuen Technologie überhaupt zu ermöglichen.

CISOs können diese Entwicklung auch nicht aufhalten oder verlangsamen: Der Markt wird sich mit hohem Tempo in Richtung agentischer Systeme bewegen, weil sie klare Effizienz- und Innovationsvorteile bieten.

Wächst KI – insbesondere agentische Systeme – jedoch unkontrolliert in einzelnen Fachbereichen, sind Probleme in Betriebsresilienz und -sicherheit vorprogrammiert. Dabei handelt es sich um zentrale Schutzziele der DORA-Verordnung, die durch den EU AI Act um Anforderungen wie Transparenz, Nachvollziehbarkeit und Dokumentation ergänzt werden. Genau diese Anforderungen im Nachhinein zu erfüllen, ist nicht nur teuer, sondern auch technisch und organisatorisch hochkomplex und in vielen Fällen unmöglich.

Cyber-Security, KI-Compliance und KI-Betrieb müssen deshalb zusammenwachsen – in einer Plattform, die Sicherheit nicht nachträglich ergänzt, sondern von Beginn an integriert. Nur so lässt sich das volle Potenzial von Agentic AI ausschöpfen – mit Vertrauen, Transparenz und Resilienz als tragenden Säulen einer neuen Ära intelligenter Systeme.