Interview: „Viele KI-Systeme bleiben in Banken als Prototypen stecken“

Interview: „Viele KI-Systeme bleiben in Banken als Prototypen stecken“

So lassen sich in KI-Umsetzungsprojekten schnell zählbare Ergebnisse erzielen.

Keyfacts:

  • Der Einsatz von KI steht in der Finanzindustrie ganz oben auf der Agenda – aber viele Umsetzungsprojekte stecken noch in den Kinderschuhen.
  • Sicherheit und Implementierungsprojekte müssen bei KI neu gedacht werden, sagt unser Experte im Interview – Methoden wie Prompt Injection Testing helfen dabei.
  • 8 von 10 Banken wissen, dass ihre Mitarbeitenden neue Rollen und Skills für den KI-Einsatz brauchen – aber nur knapp ein Viertel hat damit begonnen, sie dafür auszubilden.

Strategisch von höchster Bedeutung und Investmentpriorität: Künstliche Intelligenz (KI) steht auf der Agenda von deutschen Unternehmen ganz oben – so auch in der Finanzbranche. Das geht aus der KPMG-Studie „Generative KI in der deutschen Wirtschaft 2025“ hervor.

Laut der Befragung haben mittlerweile knapp sieben von zehn Unternehmen eine Strategie für den Einsatz generativer KI entwickelt – in Banken sind es überdurchschnittliche 73 Prozent, in Versicherungen 69 Prozent und bei Asset Managern etwas mehr als zwei Drittel. In die Datenauswertung sind Angaben von 650 Entscheiderinnen und Entscheidern aus 18 Branchen eingeflossen.

Potenzial sehen die meisten Finanzinstitute für schnellere Datenanalysen, in KI als Innovationstreiber und für die Personalisierung der Kundeninteraktion. Ist die Nutzung von KI für das Geschäft in der deutschen Finanzindustrie also auf einem guten Weg? Jein, sagt Markus Hupfauer, der bei KPMG im Geschäftsbereich Financial Services in den vergangenen Monaten zahlreiche KI-Projekte begleitet hat und fortlaufend weiter betreut. Im Interview erläutert er, wie Sicherheit entsteht und welche Maßnahmen in der Umsetzung schnell zu Ergebnissen führen.

Frage: Markus, wie steht es um den Reifegrad der KI-Diskussion und die Umsetzung von Anwendungen in deutschen Finanzunternehmen?

Markus Hupfauer: Die Diskussion ist überall angekommen – generative KI hat den Sprung vom Innovationsthema zum Punkt auf der Vorstands-Agenda längst geschafft. Aber in der Praxis sehen wir häufig: Die Systeme bleiben in der Prototypenphase stecken.

Was meine ich damit? In vielen Häusern gibt es erste Anwendungsfälle – etwa in der Kundenkommunikation, im Risikomanagement oder der Prozessautomatisierung. Aber der Weg von einem Use Case zu echter, skalierbarer Wertschöpfung ist oft nicht definiert.

Es fehlt ein Rahmenwerk, mit dem KI-Systeme produktionsreif werden – damit eine Anwendung nicht nur entwickelt, sondern tatsächlich mit echten, produktiven Daten versorgt, operationalisiert und sauber in Prozesse eingebettet ist.

Studie: Generative KI in Banken

Wie weit ist der Bankensektor beim Einsatz generativer KI? Wo liegen Potenziale, wo Hürden? Die neue KPMG-Studie zeigt aktuelle Entwicklungen, konkrete Use Cases und strategische Handlungsfelder.

Jetzt herunterladen

Hinzu kommt: Entscheidungen werden zunehmend (teil-)autonom durch KI getroffen. Aber die Kontrolle darüber, wie zuverlässig diese Entscheidungen sind, bleibt oft diffus. Und solange ich als Organisation nicht klar sagen kann, was ein Fehler durch KI kostet oder wie ein Modell im Grenzfall reagiert, ist Vertrauen in ihre Nutzung kaum möglich.

Das zeigen auch unsere Analysen, zum Beispiel im „KPMG Future Readiness Monitor“ für Banken: Nur etwa 3 von 10 Instituten fühlen sich heute gut gerüstet, KI wirklich zur Innovation oder zur Automatisierung einzusetzen. Unser Fazit aus zahlreichen Projekten lautet daher: Viele Unternehmen haben keinen Mangel an Ideen – aber es fehlt an klaren Strukturen, um aus Prototypen skalierbare, sichere Lösungen zu machen. Genau dort setzen Methoden und Frameworks von KPMG an.

Frage: Warum ist Sicherheit bei KI-Systemen nicht nur ein Compliance-Thema, sondern betriebswirtschaftlich entscheidend?

Markus Hupfauer: Die eigentliche Revolution liegt nicht in der KI selbst – sondern darin, dass wir ihre Entscheidungen zunehmend ernst nehmen. Wenn ein KI-System zum Beispiel automatisch Schäden reguliert, Kreditkonditionen vorschlägt oder Transaktionen freigibt, dann hat es faktisch operative Macht. Und das heißt: Jede Fehlentscheidung hat einen realen Preis.

Deshalb reicht es nicht, nur ethische oder regulatorische Fragen zu klären – Unternehmen brauchen dringend ein Risikobewusstsein für die Zuverlässigkeit ihrer KI. Also: Wie konsistent entscheidet das System? Wie robust ist es gegen Manipulation, etwa durch Prompt Injection, wobei Angreifer gezielt Eingabeaufforderungen (Prompts) von Sprachmodellen angreifen, um Geschäftsprozesslogiken zu unterwandern? Welche Fehlerquoten sind tolerabel? Und: Wie messe ich all das?

Studie: Future Readiness Monitor 2025 – Banken

Wie gut sind Banken für morgen aufgestellt? Die Studie gibt einen klaren Überblick.

Jetzt herunterladen

Was wir oft sehen: Während klassische IT-Systeme längst durch Penetrationstests, Patch-Management oder Firewalls abgesichert sind, fehlen für KI-Modelle vergleichbare Verfahren. Logging, Monitoring, Fehlertoleranz – all das muss für KI neu gedacht werden.

Frage: Der Erfolg der KI-Implementierung hängt entscheidend vom Know-how der Belegschaft ab. Was beobachtest Du da?

Markus Hupfauer: Ich erlebe es in fast allen Projekten: Die Technik ist oft gar nicht das größte Hindernis, sondern das fehlende Know-how im Umgang mit ihr. Und damit meine ich nicht nur Prompt Engineering oder Kenntnisse von Programmiersprachen wie Python. Es geht um ein viel tieferes Verständnis von Rollen, Verantwortung und Risiko im KI-Kontext.

Unsere KPMG-Studien zeigen deutlich: Mehr als 80 Prozent der befragten Verantwortlichen in Banken sind davon überzeugt, dass Rollenanpassungen und umfangreiche Schulungen nötig sind. Aber nur 23 Prozent haben bislang konkrete Maßnahmen zur Mitarbeitenden-Entwicklung gestartet. Das Delta ist riesig.

Besonders kritisch: In vielen Häusern fehlt eine klare Vorstellung davon, wer in Zukunft eigentlich was entscheidet. Wer trägt Verantwortung, wenn ein Modell eine Entscheidung trifft? Wer prüft die Qualität der Outputs? Diese Fragen sind in den wenigsten Organisationen wirklich geklärt, und sie lassen sich auch nicht allein durch Schulungen beantworten.

Gleichzeitig sagen rund 70 Prozent der Befragten, dass Mitarbeitenden-Zufriedenheit und Innovationskraft zu den wichtigsten Kennziffern ihrer KI-Strategie zählen. Aber: Nur etwa die Hälfte sieht sich dabei aktuell gut aufgestellt. In Versicherungen zeigt sich ein sehr ähnliches Bild.

Was jetzt nötig ist: Unternehmen müssen gezielt Rollenmodelle entwickeln und die klassische Linienfunktionen mit KI-Expertise verzahnen. Das beginnt bei einer KI-gerechten Anpassung bestehender Aufgabenprofile und reicht bis zu neuen Rollen wie einem AI Risk Officer, dem Prompt Architect oder dem KI-Produktmanager.

Wir arbeiten in unseren Projekten deshalb nicht nur an Technologie und Governance, sondern auch an Befähigungskonzepten, die wirklich zur Organisation passen. Lernen wird dabei nicht als Einmalmaßnahme verstanden, sondern als Bestandteil eines dynamischen KI-Reifeprozesses.

KI in der Praxis – was Unternehmen jetzt wirklich tun

Wie deutsche Unternehmen KI in Geschäftsmodelle, Prozesse und Entscheidungen bringen – mit welchen Tools, welchen Zielen und welchen Herausforderungen.

Jetzt entdecken

Frage: Welche Quick Wins kannst du Unternehmen empfehlen, die gerade erst mit der KI-Umsetzung in ihren Abläufen starten?

Markus Hupfauer: Gerade in der Anfangsphase kommt es darauf an, pragmatisch zu starten – aber mit dem richtigen strategischen Unterbau. Drei Schritte liefern schnell echten Mehrwert und lassen sich mit überschaubarem Aufwand umsetzen.

Erstens: Automatisieren Sie Ihr KI-Inventar. Viele Unternehmen beginnen mit statischen Use-Case-Listen – aber das funktioniert bei KI nicht. Warum? Weil sich KI-Systeme in einem Tempo entwickeln, das klassische IT-Prozesse weit hinter sich lässt. Was heute noch eine Machbarkeitsstudie (Proof of Concept) ist, kann morgen produktiv genutzt werden – oft ohne formale Freigabe. Eine statische Tabelle ist da von Anfang an zum Scheitern verurteilt.

Was stattdessen hilft: ein automatisiertes Inventar, das KI-Komponenten in Systemen erkennt und klassifiziert, zum Beispiel durch technische Scans, Analysen der Schnittstellen (APIs) oder die Integration in das Change-Management. Hier setzen wir mit leichtgewichtigen Templates und Konnektoren an, die sich in bestehende IT-Service-Management-Tools wie ServiceNow, Jira oder Archer integrieren lassen.

Zweitens: Nutzen Sie Prompt Injection Testing und Firewalls. Die meisten Angriffe auf KI-Systeme sind heute keine Magie, sondern erschreckend simpel. Mit einer manipulierten Eingabe lassen sich viele Sprachmodelle dazu bringen, Geschäftsregeln zu unterlaufen oder ungewollte Inhalte auszugeben. Wir empfehlen schon in frühen Phasen gezielte Tests gegen die Eingabekanäle Ihrer KI. Die Resultate öffnen vielen die Augen.

Bündeln sie diese Erkenntnisse mit sogenannten Prompt Injection Firewalls oder Guardrails, um gezielt die Schwächen der KI-Modelle zu adressieren und einen sicheren und vertrauenswürdigen Betrieb der KI-Systeme sicherzustellen.

Drittens: Etablieren Sie ein Output Monitoring. Auch ohne vollständige Kontrolle über die Black Box KI kann man sehr wohl messen, was ein System liefert. Ein einfaches Monitoring auf Output-Stabilität – zum Beispiel anhand von Regeltreue, Antwortverhalten über Zeit oder Fehlerraten – schafft eine neue Ebene der Transparenz. Gerade wenn die KI Entscheidungen vorbereitet oder trifft, ist diese Transparenz elementar und letztlich betriebswirtschaftlich zwingend.

Diese drei Schritte lassen sich oft innerhalb weniger Monate implementieren und bilden die Grundlage für eine sichere Skalierung. Unsere Erfahrung aus KI-Transformationsprojekten in der Finanzindustrie zeigt: Wer früh strukturiert beginnt, spart später massiv Aufwand in der Kontrolle.