Abfrage zur Geldwäscheprävention: Aufsicht wird zunehmend datengetrieben

AML-Datenabfrage der Aufsicht

Die Behörden fordern immer häufiger gute Daten – Banken sollten sich darauf einstellen.

Keyfacts:

  • Die Aufsicht hat von ausgewählten Banken detaillierte Daten zu deren Geldwäschebekämpfung angefordert.
  • Kein Einzelfall – die Behörden stellen immer häufiger umfassende Datenanfragen.
  • Banken sollten ihr Datenmanagement vorausschauend weiterentwickeln.

Die Finanzaufsicht spielt eine wichtige Rolle für die Finanzstabilität und den Verbraucherschutz in Europa. Um die Aufsicht noch wirksamer zu gestalten, Risiken schneller und früher zu erkennen und damit die Qualität weiter zu steigern, nutzen die Behörden vermehrt Methoden, die auf die Erhebung und Auswertung von Datensätzen abzielen.

Dieser Trend zeigte sich schon vor mehr als zehn Jahren bei den Asset Quality Reviews (AQR) der Europäischen Zentralbank (EZB), bei denen die Qualität der Aktiva aller bedeutenden Banken im Euroraum geprüft wurde. Aber auch das aufsichtsrechtliche Meldewesen verarbeitet bereits heute tausende Datenpunkte für Statistiken und die Aufsicht über die Finanzinstitute.

BIRD und AMLA werden Anforderungen an Daten verstärken

Mit BIRD (Banks‘ Integrated Reporting Dictionary) zum Beispiel wird ein standardisierter Berichtssatz für die bestehenden Meldeanforderungen geschaffen, der die Datenqualität, -konsistenz und -vergleichbarkeit der Daten erhöhen soll. BIRD ist eine Initiative der EZB, die darauf zielt, die Meldeanforderungen für Aufsichtsdaten zu harmonisieren, die Meldeverfahren deutlich zu vereinfachen sowie unter anderem ein harmonisiertes und einheitliches Datenwörterbuch und Datenmodell zu etablieren.

Diesem Trend kann sich die neue europäische Aufsichtsbehörde für Finanzkriminalität (Anti-Money Laundering Authority, AMLA) nicht entziehen. Sie wird in ihrer künftigen Aufsichtstätigkeit ebenfalls auf umfassende Datenanalysen und Datenlieferungen angewiesen sein – und die Arbeit mit Daten forcieren.

Was bringt die AMLA für die deutschen Kreditinstitute? #40

Die neue Anti-Geldwäschebehörde der EU wird in Frankfurt aufgebaut. Mitte 2025 soll sie ihren Betrieb aufnehmen – doch mit den Vorbereitungen auf ein neues harmonisiertes Rahmenwerk sollten die Banken jetzt schon beginnen.

Jetzt reinhören

Die Aufsicht fragt institutsspezifische Daten zur Geldwäscheprävention ab

Darauf deuten auch einige aktuelle Beobachtungen hin. So hat die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) vor Kurzem eine Daten- und Informationsabfrage zur Geldwäscheprävention an ausgewählte Pilotinstitute versendet. Die gewünschten Daten verteilen sich zum einen auf eher allgemeine Fragen zum jeweiligen Institut, zur Anzahl der Mitarbeitenden, der angebotenen – und damit überwachten – Produkte der Bank oder den IT-Systemen zur Verhinderung von Finanzkriminalität, die im Einsatz sind.

Zum anderen fragt die Aufsichtsbehörde Informationen zur Anzahl und zum Volumen beispielsweise von Bar- und Finanztransfergeschäften ab. Auch die Anzahl der Neukunden oder der Verteilung von Bestandskunden nach Ländern und Risikogruppen sollen die Institute angeben.

Teilnehmende Institute berichten, dass die angefragten Daten einer intensiven Befassung bedürfen. Die Gründe sind die Verfügbarkeit und die Qualität der Daten. So müssen für die zu erstellenden Auswertungen die Rohdaten beschafft, analysiert und in den geforderten Dimensionen dargestellt werden.

Fehlende Transparenz über die Herkunft der Daten und der vertrauenswürdigen Datenquelle führen zu Verzögerungen im gesamten Datenbeschaffungs- und Analyseprozess. Mangelhafte Datenpflege sowie fehlende Merkmale am Geschäftspartnerdatensatz erschweren die Bereitstellung der Ergebnisse.

AML-Datenabfragen: Risikodaten nach BCBS 239 können als Vorbild dienen

Die aktuelle Datenabfrage der Aufsicht zeigt: Die datengetriebene Transformation in der Geldwäscheprävention bekommt für die Behörden einen immer größeren Stellenwert. Wie können die Institute damit umgehen? Aus unserer Sicht können die Erfahrungen aus der Risikodatenaggregation und dem Risikoreporting (BCBS 239) als Blaupause herangezogen werden. Denn neben prozessualen Veränderungen in der Risikoberichterstattung wurden in den Instituten im Zuge von BCBS 239 wesentliche Elemente für eine Professionalisierung des Datenmanagements aufgebaut.

Führende Banken haben bei der Risikodatenaggregation gezeigt, dass ein ganzheitlicher Ansatz für das Datenmanagement die Risikoeffektivität deutlich verbessern kann und dass sich Betriebskosten einsparen und Bearbeitungszeiten deutlich verkürzen lassen. Darüber hinaus bietet eine verbesserte Datengrundlage und eine höhere Granularität in den Daten den Vorteil, dass die Auswertungsdimensionen vielfältiger und die Datenanalysen erkenntnisreicher werden – und auf diesem Weg entsteht das Fundament für die Anwendung moderner, KI-basierter Verfahren.

Sechs Bausteine für ein effektives und zielgerichtetes Datenmanagement

Ausgehend von der bankeigenen Datenstrategie und den bestehenden Regelungen zur Data Governance sollten Institute entlang der Datenlieferstrecken folgende sechs Datenmanagementfunktionen auch für die Geldwäscheprävention etablieren:

  1. In einem Glossar oder Datenkatalog werden Datenfelder fachlich und technisch beschrieben, sodass deren Bedeutung wie auch Definition bankenweit einheitlich festgeschrieben ist. Das erlaubt ein klares Verständnis von der Bedeutung des zugrundeliegenden Datenfeldes, seiner Relevanz für den zugrundeliegenden Anwendungsfall sowie mögliche Konsequenzen für den Fall, dass zum Beispiel das Datum fehlt oder fehlerhaft befüllt ist.
  2. Der Datenfluss („Data Lineage“) zeigt die Verbindungen zwischen den Datenfeldern auf und macht so den Weg von der Datenquelle bis zur Verwendung nachvollziehbar. Damit können die Herkunft des Datenfeldes, mögliche Veränderungen auf dem Weg oder die Verwendung von Standardwerten bei fehlenden Datenpunkten („Defaulting“) nachvollzogen und mögliche Abweichungen erklärt werden.
  3. Datenliefervereinbarungen zwischen Datenlieferanten und -konsumenten schaffen Klarheit bezüglich der angeforderten Datenfelder mit Blick auf das erforderliche Qualitätsniveau sowie die Liefer- und Eskalationszeiten für eine zeitnahe Befassung mit auftretenden Datenfehlern oder Produktionsproblemen.
  4. Qualitätskontrollen entlang des gesamten Datenflusses prüfen die verarbeiteten Informationen anhand definierter Kriterien wie Vollständigkeit, Genauigkeit und Aktualität für eine zeitnahe Befassung durch die jeweils für das Datum verantwortliche Stelle gemäß der definierten Governance.
  5. Bei Abweichungen vom festgelegten Soll-Zustand, beispielsweise aus der Datenliefervereinbarung, sollte das daraus entstandene Datenqualitätsproblem mithilfe eines Daten-Problemmanagementprozesses untersucht und mit geeigneten Maßnahmen behoben werden.
  6. Der Datenqualitätsstand und der Fortschritt beim Ausbau der Überwachungshandlungen werden durch das DQ-Reporting ständig überwacht. Die Etablierung der Punkte 3 bis 6 verbessert insgesamt die Datenqualität.

Ein konsequentes Datenmanagement unterstützt die tägliche Analysearbeit, reduziert manuelle Auf-wände, die Suche nach geeigneten Datenfeldern und unterstützt die frühzeitige Risikoerkennung. Außerdem leisten hochqualitative Daten einen großen Beitrag für die regelmäßige Kalibrierung der Indizien und Modelle im Transaktionsmonitoring. Sie können damit potenzielle Verdachtsfälle (False Positives) reduzieren und zusätzliche Arbeit im Rahmen der Vorgangsbearbeitung und Verdachtsmeldung vermeiden.

Gesucht: Ein einheitliches Referenzdatenmodell für die Compliance-Funktion von morgen

Ein Großteil der beschriebenen Herausforderungen im Umgang mit Daten kann durch ein einheitliches Referenzdatenmodell gelöst werden. Unsere Gedanken dazu: Ein solches Modell sollte, neben den typischen Datenfeldern für die Geldwäscheprävention, die geforderten Datenkatalogbeschreibungen und Standardqualitätskontrollen für die neuralgischen und risikobehafteten Stellen im Datenfluss enthalten.

Die Vorteile eines solchen Modells liegen auf der Hand: Standardisierte Datenlieferungen würden den Datenintegrationsaufwand erheblich verringern und somit deutliche Kostenvorteile bei der Einführung neuer Systeme erzielen können. Einheitliche und institutsübergreifende Definitionen von Datenfeldern erlauben es den Verantwortlichen außerdem, relevante Daten für analytische Verfahren oder den branchenweiten Datenaustausch schneller aufzufinden.

Dadurch kann dann beispielsweise die Verfolgung globaler Zahlungsströme und somit ein deutlich verbessertes Erkennen und Bekämpfen von Finanzkriminalität erreicht werden – ein mehr als lohnenswertes Ziel.