Keyfacts:
- Regulierung wird zum Grundprinzip: DORA und der AI Act verlangen Compliance von Anfang an, eine klare Steuerung und Nachvollziehbarkeit auch für autonome KI-Agenten.
- Die Hype-Phase von KI ist vorbei: Unternehmen erwarten konkrete und messbare Resultate aus KI-Initiativen.
- Multi-Cloud ist Realität: Institute müssen Datenstandorte steuern, Lieferantenrisiken minimieren und leistungsfähige Systeme für KI-Anwendungen bereitstellen.
Von Trends zu Realität: Was sich seit 2025 verändert hat
Im letzten Jahr habe ich in meinem Beitrag „Technologietrends 2025 für die Finanzbranche“ die zentralen Themen der Chief Technology Officer (CTO) skizziert: Den Einsatz von KI jenseits des Hypes, die Optimierung von Cloud-Infrastrukturen, Cybersecurity und die Transformation hin zur technologiegetriebenen Bank. Ein Jahr später zeigt sich: Diese Themen sind nicht mehr nur strategische Optionen, sondern operative Pflicht. Finanzdienstleister stehen unter wachsendem Druck, messbare Ergebnisse zu liefern. Gleichzeitig verschärfen sich regulatorische Anforderungen, und neue Technologien wie Agentic AI verändern die Art, wie Prozesse gesteuert und Entscheidungen getroffen werden.
Regulatorik als Architekturprinzip
Die EU-Digitalstrategie, DORA und der AI Act sind jetzt Realität. Für CTOs bedeutet das: Compliance darf nicht mehr als nachgelagerter Prozess verstanden werden, sondern muss von Anfang an in die Technologiearchitektur integriert sein. Jede neue Lösung, jede Plattform und jeder Algorithmus muss nachvollziehbar, testbar und über den gesamten Lebenszyklus dokumentiert sein.
Das gilt insbesondere für autonome KI-Agenten, deren Entscheidungen sich ohne klare Governance kaum kontrollieren lassen. Agentic AI erfordert Plattformansätze mit eingebetteten Sicherheitskontrollen. Ohne diese droht Schatten-IT durch nicht eingebundene Agenten.
Die praktische Umsetzung erfordert einen Paradigmenwechsel: Richtlinien müssen als Code in die Systeme eingebettet werden, damit sie automatisch greifen. Evidenzketten für Tests und Audits sollten durchgängig automatisiert sein, um regulatorische Nachweise jederzeit verfügbar zu machen. Und Plattformen für Agentic AI brauchen integrierte Governance-Layer, die Sicherheitskontrollen und Freigabeprozesse fest verankern. Nur so lassen sich Innovation und regulatorische Sicherheit miteinander verbinden.
KI: Vom Experiment zur Wertschöpfung
2025 war die Rede vom „Hype jenseits der Skalierung“. Heute ist klar: Unternehmen erwarten belastbare Ergebnisse, nicht nur Pilotprojekte. Die Ernüchterung ist spürbar: Budgets werden verschoben, und CIOs stehen vor der Aufgabe, gescheiterte Initiativen zu retten oder neu auszurichten. Gleichzeitig steigt die Verantwortung: KI ist ein wesentlicher Bestandteil der Wertschöpfungskette, aber nur wenn Governance und Datenqualität konsequent umgesetzt werden.
Agentic AI und Cybersecurity: Neue Kontrollmechanismen
Die Integration von KI in die Cyberabwehr war 2025 ein vielversprechender Trend und entwickelt sich 2026 zu einem zentralen Bestandteil moderner Sicherheitsstrategien. Denn mit zunehmender Autonomie von KI-Systemen entstehen neue Risiken: Dynamisch generierter Code, Prompt Injection und Model Inversion erfordern neue Schutzmechanismen.
„Human-on-the-Loop“-Ansätze, bei denen Menschen kontinuierlich die Entscheidungen autonomer Agenten überwachen und eingreifen können, werden klassische Freigaben ersetzen. Ebenso entscheidend ist die Plattformisierung: Nur wenn KI-Agenten in zentrale Plattformen mit eingebetteten Sicherheits- und Governance-Layern integriert sind, lässt sich Kontrollverlust verhindern. Resilienz wird zur Kernkompetenz, wie unser Banking Magazin 2025 betont: Schocks absorbieren, Governance anpassen, Risiken früh erkennen.