Einen Schritt voraus: Wie KI im Kampf gegen Geldwäsche helfen kann

Mit Explainable AI verlässliche und vertrauensstiftende Abläufe schaffen

Keyfacts:

  • In der Geldwäsche- und Terrorismusbekämpfung kann KI Anomalien und verdächtige Muster entdecken und den Zuständigen in Banken eine große Hilfe sein.
  • Vertrauen, Erklärbarkeit und Überprüfbarkeit sind wichtige Eckpfeiler bei der Einführung der Technologie in das Transaktionsmonitoring.
  • Dass KI-Modelle vertrauenswürdig sind, ist eine wichtige Voraussetzung für die Akzeptanz bei der Aufsicht und bei den Anwender:innen in den Unternehmen.

    Es ist viel diskutiert worden über den Nutzen von künstlicher Intelligenz (KI) – und über mögliche negative Folgen. Dazu gehören etwa Arbeitsplatzverluste, die der Einsatz mit sich bringen könnte. Anwendungen in der modernen Medizin werden dagegen oft von den Befürwortern ins Feld geführt.

    Einen zweiten datenintensiven Bereich, in dem KI viel Gutes bewirken kann, wollen wir hier erörtern: die Bekämpfung von Geldwäsche und Terrorismusfinanzierung (Anti Money Laundering, AML). Torsten Jurisch (KPMG) und Wolfgang Berner (Hawk AI) schildern im Interview, wie der Einsatz von KI in der AML gelingt – und warum alles mit Vertrauen und Transparenz beginnt.

    Frage: Dass wir echte Bilder von KI-erzeugten Bildern kaum noch unterscheiden können, kann ein Problem sein. Aber in der Verbrechensbekämpfung sollten moderne Technologien doch willkommen sein, oder? Warum ist der Einsatz auch in diesem Bereich kein Selbstgänger?

    Wolfgang Berner: Es stimmt, leider ist es das nicht. Es gibt nach wie vor viel Skepsis und Widerstand gegen Veränderung. Ein Beispiel: In den Niederlanden hatte die Zentralbank ein Verfahren gegen das Fintech Bunq und deren daten- und KI-basierten Ansatz in der Geldwäschebekämpfung eröffnet.

    Doch Bunq war vom Nutzen seines Ansatzes derart überzeugt, dass es gegen seine Aufsichtsbehörde – die Zentralbank – klagte. Bunq gewann – und nach dem Richterspruch sprach sich die niederländische Aufsichtsbehörde öffentlich für einen risikobasierten Ansatz unter Einsatz moderner Technologien im Kampf gegen Finanzkriminalität aus.

    Torsten Jurisch: In der Tat liegt der Nutzen ja auf der Hand. Manuelle Prozesse, eine unzureichende Verknüpfung von Informations- und Datenquellen sowie die Überwachung von Zahlungsströmen ohne ausreichende Berücksichtigung historischer Daten und institutsspezifischer Risikofaktoren sind auch in Deutschland bei vielen Finanzinstituten vorzufinden.

    Aber es ist gerade der Einsatz moderner Technologien, der helfen kann, solche Ineffizienzen zu heilen. Damit Finanzinstitute die Technologien nutzen können, muss der Regulator aber ein Verständnis der neuen Einsatzmöglichkeiten haben, die Vorteile verstehen und die Grenzen abschätzen können. Dann kann er Vertrauen für den Einsatz von KI schaffen, und das sollte er unserer Einschätzung nach auch tun.

    KPMG RegTech-Konferenz - Innovation meets Compliance

    RegTechs bieten innovative Ansätze im zukünftigen Management von Regulatory und Compliance. Gewinnen Sie Einblicke in die Highlights vergangener KPMG RegTech-Konferenzen und bleiben Sie über kommende Veranstaltungen auf dem Laufenden

    Mit Fachwissen zu vertrauenswürdigen Anwendungen

    Frage: Warum ist das Vertrauen so fundamental wichtig?

    Wolfgang Berner: Vertrauen und Transparenz sind der Schlüssel zu einem erfolgreichen Einsatz von KI. Es muss klar sein, wie eine Anwendung zur Lösung eines Problems beiträgt, damit sie kontrollierbar bleibt. Bei künstlicher Intelligenz spricht man in diesem Zusammenhang auch von Explainable AI – kurz XAI.

    Die Finanzaufsichtsbehörden betonen zunehmend, wie wichtig die Erklärbarkeit im Interesse der Transparenz ist, und das zu Recht. Die Nutzenden müssen verstehen, wie und warum ein KI-Modell Entscheidungen trifft, damit sie seinen Ergebnissen vertrauen können. Da KI immer komplexer wird, sind Regeln für Transparenz und verantwortungsvolle Entwicklung von KI ein Thema von wachsender Bedeutung. Denn es ist schwierig, den Ergebnissen eines KI-Modells zu vertrauen, wenn es eine Blackbox für den Nutzenden ist.

    Mehr Wissen über die Funktionsweise von KI-Modellen zum Aufspüren von Finanzkriminalität kann dazu beitragen, gängige Missverständnisse zu entmystifizieren und Vertrauen aufzubauen.  Auch in der operativen Anwendung ist Fachwissen entscheidend.

    Denn der Ausgangspunkt für jedes gute KI-Modell für AML ist ein umfassendes Verständnis des Kontextes, in dem das Modell eingesetzt wird. Um qualitativ hochwertige Ergebnisse zu gewährleisten, muss sichergestellt werden, dass das Modell mit guten Eingabedaten arbeitet und die verwendeten Features in Kombination mit den eingesetzten Modellen gut erklärbar sind. Fachwissen ist dafür Voraussetzung im Tandem mit technischem KI-Wissen.

    Frage: Welche Einsatzfelder sind für KI in Sachen AML denkbar?

    Torsten Jurisch: KI-Modelle können die tägliche Monitoringtätigkeit in Finanzunternehmen erleichtern. Das Erkennen von Anomalien ist das Herzstück von KI-Modellen im Bereich AML. Es beruht auf dem Einbeziehen kontextbezogener Kenntnisse. Damit meinen wir grundlegende Merkmale von Finanzdaten (Transaktionsgröße, Währung, Zeit und Ort) bis hin zu detaillierteren Merkmalen und statistischen Beziehungen. Mit dem Verständnis solcher Kontextinformationen kann die KI die Daten für die Analyse vorbereiten.

    Die Qualität der Ausgabe eines jeden Modells hängt von der Qualität der Eingabedaten ab. Datenwissenschaftler entscheiden, welche Merkmale in ein Modell für maschinelles Lernen eingegeben werden sollen – aber sie entscheiden nicht, welche Merkmale für das Modell wichtig sind.

    Modelle zum Erkennen von Anomalien bestimmen die wichtigen Merkmale, ohne dass Datenwissenschaftler sie direkt dazu anleiten. Dafür ist die Vorbereitung der Eingabedaten der Schlüssel. Und dafür benötigt es großes Fachwissen. Erst die Gewissheit, dass das Modell mit qualitativ hochwertigen und entsprechend aufbereiteten Daten trainiert wurde, gibt den Betreibern die nötige Sicherheit, um den Ergebnissen zu vertrauen.

    In der Zusammenarbeit macht der Mensch die KI besser – „KI als virtueller Teamkollege“

    Frage: Wie können wir uns eine solche Zusammenarbeit von KI und Menschen vorstellen?

    Wolfgang Berner: Sobald die KI-Modelle trainiert sind, können sie bei ihrer Arbeit lernen. Je mehr Fälle von den Mitarbeitern überprüft werden, desto besser wird das Modell – es erkennt also mögliche wirtschaftskriminelle Handlungen besser. In diesem Sinne ersetzt die KI die menschlichen Mitarbeiter nicht, sondern arbeitet mit ihnen zusammen – KI als virtueller Teamkollege.

    Somit unterscheidet sich der Einsatz von KI grundlegend von der herkömmlichen regelbasierten Prüfung und Überwachung von Transaktionen, bei der Menschen immer wieder die gleichen Fehler korrigieren, ohne dass sich das Gesamtergebnis verbessert. Das ist nicht nur erfolglos, sondern kann auch eine langweilige, mühsame Arbeit sein.

    Im Tandem mit einem KI-Modell verbessern die menschlichen Nutzer:innen ständig die Qualität und Genauigkeit der Ergebnisse. Die Entscheidungen, die die Mitarbeitenden treffen, fließen in das Modell ein und verbessern es sukzessive.

    Und das führt sogar nicht nur zu besseren Ergebnissen für das Modell, sondern trägt auch dazu bei, dass die Nutzenden den Ergebnissen von KI- und maschinellen Lernmodellen vertrauen. Sie wissen, dass ihr Fachwissen eine wichtige Rolle bei den Ergebnissen gespielt hat.

    Drei Empfehlungen für die KI-Governance bei der Geldwäscheprävention

    Frage: Finanzinstitute sind stärker reguliert als andere Unternehmen – sind die Anforderungen an KI-Modelle ebenfalls besonders?

    Torsten Jurisch: Finanzinstitute benötigen explizite Prüfpfade, um nachzuweisen, dass ihre Modelle wie vorgesehen funktionieren. Wenn sich ein Finanzinstitut nicht darauf verlassen kann, dass eine KI-Lösung Ergebnisse liefert, die von den Aufsichtsbehörden überprüft werden können, ist die Lösung für sie nicht von Nutzen.

    Überprüfbarkeit ist somit ein wichtiger Bestandteil des Vertrauens und geht Hand in Hand mit Erklärbarkeit. Ein gutes Modell sollte sich nicht nur selbst in einfacher Sprache erklären. Jede Entscheidung, die es trifft, sollte auch protokolliert und reproduzierbar sein.

    Auf der Grundlage etablierter Grundsätze können Modelle die folgenden drei Model-Governance-Verfahren anwenden:

    1. Experimentverfolgung und Reproduzierbarkeit: Automatische Verfolgung, Referenzierung und Indizierung durchgeführter Schritte bei der Erstellung eines Modells – eine Dokumentation dessen, was wann getan wurde, ermöglicht die Reproduzierbarkeit des Modells (und der Ergebnisse) für Dritte.

    2. Versionierung: Modellversionskontrolle ist essenziell. Die Aufbewahrung alter Modelle zur Reaktivierung (oder zur Durchführung künftiger Leistungstests) gewährleistet die Versionierung.

    3. Benutzerakzeptanz: Durch die genaue Beobachtung der wichtigsten Metriken und relevanten Informationen können die Nutzenden fundierte Entscheidungen darüber treffen, wann sie ein Modell aktivieren, deaktivieren oder neu trainieren sollten.

    Sie führen zu offenen und transparenten Modellen, die einen proaktiven Ansatz für Aufsicht und Rechenschaftspflicht fördern. Im Falle einer behördlichen Prüfung ist somit eine klare Dokumentation darüber verfügbar, wie ein Modell ausgebildet wurde und warum es bestimmte Entscheidungen getroffen hat.

    Frage: Worauf schauen die Beteiligten noch?

    Wolfgang Berner: Wir sind der Ansicht: Bevor ein KI-Modell zum Einsatz kommt, sollte es einen vierstufigen Validierungsprozess durchlaufen:

    Stufe 1: Festlegung strenger Kriterien für den Einsatz des Modells

    Stufe 2: Festlegung von Leistungsmaßstäben für Modelle

    Stufe 3: Vergleich neuer Modelliterationen mit früheren Modellen

    Stufe 4: Anpassung auf der Grundlage der Leistung des Modells

    Denn wenn Ermittler in Sachen Finanzkriminalität wissen, dass ein Modell mit Sachverstand entwickelt und validiert wurde, können sie sich darauf verlassen, dass es zuverlässige Ergebnisse liefert.

    Der Aufwand, der für die Entwicklung und Validierung von Modellen betrieben wird, schafft die Grundlage für starke und effektive Partnerschaften mit Betreibern. Gemeinsam können menschliche Ermittler und ihre KI-gesteuerten virtuellen Teamkollegen Anomalien mit unübertroffener Geschwindigkeit, Genauigkeit und Transparenz erkennen.

    Torsten Jurisch: Da Kriminelle ihre eigene KI einsetzen, müssen Finanzinstitute jeder Größe die Bedrohung ernst nehmen. Regelbasierte Transaktionsüberwachungssysteme können mit der Entwicklung der modernen Finanzkriminalität nicht Schritt halten. Um diese Kriminellen zu fangen, bedarf es einer ausgeklügelten Auswahl von Tools, die Anomalien sofort erkennen.

    KI-Modelle können diese Techniken erlernen und sie in der Zukunft erkennen sowie bisher unbekannte Risiken aufspüren. Und sie können dabei sogar erklären, was sie tun und warum sie es tun. In Summe führt das zu KI-Modellen, denen die Betreiber beim Erkennen von Finanzkriminalität vertrauen können.

    Einsatz von KI erhöht die Qualität von Geldwäscheverdachtsmeldungen

    Dazu kommt: Die Anzahl der bei der Financial Intelligence Unit (FIU) abgegebenen Geldwäscheverdachtsmeldungen bricht in Deutschland Jahr für Jahr Rekorde. Das liegt unter anderem am Einsatz neuer Technologien beim Erkennen von Geldwäschemustern. Denn das Erkennen führt grundsätzlich zu einer steigenden Zahl von Auffälligkeiten in Banken.

    Die FIU bemängelt aber, dass die Qualität der Verdachtsmeldungen seit einigen Jahren unzureichend ist. Zurückzuführen ist dieser Trend auf die geringe Bearbeitungszeit pro Fall, auf unzureichende Datenverfügbarkeit und -nutzung und auf den hohen manuellen und somit fehleranfälligen Dokumentationsaufwand.

    Frage: Wie lässt sich die Qualität der Verdachtsmeldungen denn erhöhen?

    Wolfgang Berner: Die Qualität der Meldungen lässt sich durch den verstärkten Einsatz von KI erhöhen. Vor allem drei Punkte sorgen dafür:

    1. Nutzung von Daten – je mehr Informationen im Investigationsprozess zum Kunden, Gegenparteien, Risikofaktoren und Historie auf einen Blick zur Verfügung stehen, desto besser kann ein Sachverhalt bewertet werden. Mehr Daten helfen ebenfalls bei der Erkennung komplexer Zusammenhänge.

    2. Fokus auf verdächtige Sachverhalte – je besser False Positives erkannt werden, desto mehr Investigationszeit steht für True Positives zur Verfügung. KI hilft auch ausgezeichnet bei der Priorisierung von Alerts und bei der Betonung von risikobehafteten Indizien.

    3. Reduktion des Dokumentationsaufwands – bisher manuelle Dokumentationsschritte werden durch die KI automatisiert und sind weniger anfällig für menschliche Fehler.

    Finanzinstitute sollten sich daher zeitnah über die Möglichkeiten zur Implementierung von KI-gestützten Geldwäschemonitoring-Systemen informieren und die Umsetzung in die Wege leiten. Nur so kann eine zukunftssichere Aufstellung in der Geldwäschebekämpfung gelingen. Sie ist notwendig, denn wenn Finanzkriminelle immer raffinierter werden, müssen es auch die Werkzeuge zu ihrer Enttarnung und Ergreifung sein.

    Wolfgang Berner ist Mitgründer und Chief Product Officer (CPO) von Hawk AI. In diesen Rollen verantwortet er die Produktstrategie des Unternehmens und leitet die Entwickler- und Infrastruktur-Teams. Er verfügt über besondere Expertise bei der Entwicklung und dem Betrieb von hochverfügbaren und sicheren Cloud-Systemen und ist seit vielen Jahren in der Digitalisierung von Geschäftsprozessen in Banken und bei Zahlungsdienstleistern tätig.

    Veranstaltung von KPMG und DIE ZEIT in Davos

    Christian Sewing, Vorstandsvorsitzender der Deutschen Bank, sprach beim Weltwirtschaftsforum in Davos auf der gemeinsamen Veranstaltung von KPMG und DIE ZEIT unter anderem über die Widerstandsfähigkeit deutscher Banken im aktuell volatilen Umfeld, über die neue Zinsphase und über Erfolgsfaktoren von Deutschland und Europa im globalen Wettbewerb.

    Jetzt Video anschauen