Warum KI in der Finanzbranche jetzt eine sorgfältige Governance braucht

Warum KI in der Finanzbranche jetzt eine sorgfältige Governance braucht

Klassische Modelle aus der IT greifen bei der Steuerung von KI zu kurz.

Keyfacts:

  • Die meisten Finanzunternehmen stehen beim Einsatz von künstlicher Intelligenz am Übergang von der Pilot- zur Anwendungsphase – ein kritischer Zeitpunkt für den Aufbau von verlässlichen Governance-Strukturen.
  • Klassische IT-Governance-Modelle greifen bei der Steuerung von KI oft zu kurz und stoßen an konzeptionelle Grenzen.
  • Ein Modell mit sowohl organisatorischen als auch technischen Bausteinen gewährleistet einen verantwortungsvollen und sicheren Einsatz von KI im Finanzsektor.

Bevor sich neue Technologien in Unternehmen durchsetzen, durchlaufen sie typischerweise vier Phasen: In der ersten Phase stehen die Möglichkeiten einer neuen Technologie unter Beobachtung („Observe“). Es schließt sich eine Zeit des Bewertens an („Assess“), bevor auf erste Pilotversuche („Pilot“) eine breitere Anwendung in konkreten Einsatzfeldern („Adopt“) folgt.

Das gilt auch für künstliche Intelligenz (KI). In den meisten Finanzunternehmen, so unsere Beobachtung, hat die KI die ersten beiden Phasen bereits hinter sich gelassen und befindet sich nun am Übergang hin zur breiteren Umsetzung konkreter Use Cases.

Gerade dieser Zeitpunkt ist kritisch, denn oft breiten sich zu Beginn der Adopt-Phase erfolgreiche Lösungen schnell und unkontrolliert aus. Das kann zur Folge haben, dass Zuständigkeiten nicht geregelt werden und es an Transparenz mangelt, obwohl die technologische Komplexität im Unternehmen wächst.

Die Folge: Lücken in Prozessen, Intransparenz und Mängel bei der Datenqualität führen schnell zu großer Nervosität bei der Risikobewertung und in anderen wichtigen Funktionen.

Künstliche Intelligenz aussteuern: Klassische Governance-Ansätze greifen zu kurz

Um solchen Entwicklungen entgegenzuwirken und gleichzeitig regulatorische, ethische und sicherheitstechnische Anforderungen zu erfüllen, braucht es einen strukturierten und ganzheitlichen Governance-Ansatz.

Für Banken und Versicherungen, Kapitalverwalter und Zahlungsdienstleister ist jetzt der Moment, einen solchen Ansatz auszuarbeiten. Klassische Modelle aus der IT stoßen bei neuen, disruptiven Technologien wie KI schnell an ihre Grenzen. Sie basieren in der Regel auf deterministischen Logiken, statischen Kontrollmechanismen sowie Erfahrungswerten aus technisch überholten Zusammenhängen aus der Vergangenheit und greifen daher zu kurz.

Künstliche Intelligenz vertrauenswürdig gestalten

Erfahren Sie, wie das KPMG Trusted AI Framework Unternehmen hilft, KI verantwortungsvoll, sicher und gesetzeskonform einzusetzen.

Jetzt mehr erfahren

Zielführend ist ein Modell, das organisatorische mit technischen Bausteinen verbindet und es so ermöglicht, die unterschiedlichen Anforderungen aus den Vorgaben zur KI-Governance, zum Beispiel aus der europäischen KI-Gesetzgebung (EU AI Act), zu vereinen. Die organisatorischen Bausteine zielen auf die verantwortungsvolle Nutzung der KI ab: definierte Aufgabenbereiche und Zuständigkeiten, klare Verantwortlichkeiten und Rollen, Einhalten regulatorischer Vorgaben und Normen, Gewährleisten einer kontinuierlichen Kommunikation und Schulung aller Beteiligten.

Die technischen Bausteine stellen eine vertrauenswürdige Nutzung von KI sicher: hohe Datenqualität, -integrität und -konformität, Verwendung bewährter Verfahren für die Entwicklung und Validierung von KI-Modellen, Überwachung und Kontrolle von Versionen sowie Nachvollziehbarkeit und Transparenz.

Beide können nur miteinander ihre volle Wirkung entfalten: Die organisatorischen Bausteine gewährleisten, dass die mit KI verbundenen Risiken transparent gemacht, bewertet und durch kontinuierliche Maßnahmen minimiert werden. Dagegen stellen die technischen Bausteine sicher, dass KI-Systeme in Finanzinstituten technisch abgesichert sind und zuverlässig unter verschiedenen Bedingungen funktionieren.

Beide Ebenen dienen dem Ziel, Vertrauen und Sicherheit bei internen und externen Zielgruppen herbeizuführen und bedingen einander: Nur eine ganzheitliche Governance bewirkt, dass eine KI auch wirklich sicher ist.

An der Regulatorik orientiert und nah an der Praxis – für Vertrauen und Kontrolle

Orientiert sich eine solche Governance zusätzlich an zentralen regulatorischen Vorgaben wie dem EU AI Act und dem Digital Operational Resilience Act (DORA), übersetzt sie Anforderungen in konkrete Steuerungs- und Kontrollmechanismen. So entsteht ein praxisnahes Regelwerk.

Nur ein praxisnahes Regelwerk befähigt Finanzorganisationen dazu, gesetzliche Auflagen einzuhalten und gleichzeitig neue technologische Risiken wie Intransparenz, Verzerrungen oder Modellversagen frühzeitig zu adressieren.

Werden technische und organisatorische Perspektiven zu einem ganzheitlichen Regelwerk zusammenfügt, entsteht die Grundlage für eine messbare KI-Governance. Sie stärkt nicht nur die Resilienz gegenüber neuen Risiken, sondern schafft auch die Voraussetzung dafür, KI kontrollierbar zu machen – und damit verantwortungsvoll und vertrauenswürdig zu nutzen.

Wie Banking intelligenter wird

Erfahren Sie, wie neue Technologien Banken helfen, effizienter, kundenzentrierter und zukunftsfähiger zu werden.

Zum Whitepaper