Künstliche Intelligenz: Vertrauen ist gut, Kontrolle der Schlüssel

Welche Risiken der Einsatz von KI birgt und wie Sie diesen begegnen.

Keyfacts

  • Finanzdienstleister haben das enorme Wertschöpfungspotenzial von künstlicher Intelligenz erkannt und bereits erste eigene Umsetzungsinitiativen gestartet.
  • Der Einsatz von KI birgt spezifische Risiken; diese müssen verstanden und angemessen adressiert werden.
  • Bei der Steuerung von KI-Lösungen wird ein ganzheitlicher Steuerungsansatz benötigt, der die KI-Risiken entlang aller Domänen eines Unternehmens berücksichtigt, ohne die Möglichkeiten dieser Technologie einzuschränken.
Whitepaper herunterladen
Tobias Synak
  • Senior Manager
Mehr über meine Themen Nachricht schreiben

Künstliche Intelligenz (KI) beginnt, Einzug in Prozesse und Serviceangebote von deutschen Finanzdienstleistern zu halten. So setzen bereits einige Banken und Versicherungen erste vielversprechende KI-Lösungen ein. Zudem wissen wir aus Kundengesprächen, dass die Mehrheit der Unternehmen Pläne für einen ersten Einsatz von KI in den nächsten 24 Monaten hat.

Angesichts weiter steigender Rechenkapazitäten und immer rasanter anwachsender Datenmengen, sehen Akteure der Finanzbranche gerade in KI den Schlüssel zu großen zukünftigen Wettbewerbsvorteilen, insbesondere bei der Effizienzsteigerung im Middle- und Backoffice sowie bei der Gestaltung der Kundenschnittstelle.

Sorge vor Risiken und Reputationsschäden

Die Einführung von KI geschieht jedoch nicht ohne Vorbehalte. Viele Führungskräfte bezweifeln die Vertrauenswürdigkeit von automatisierten Entscheidungsmodellen und befürchten Reputationsschäden. Denn bei allen Chancen birgt der Umgang mit KI spezifische Risiken, die das Vertrauen in automatisierte Entscheidungen beeinträchtigen – sowohl innerhalb des Unternehmens als auch beim Kunden.

Rassistische Chatbots, durch Softwarefehler bedingte Autounfälle, Bilderkennungsprogramme, die Menschen nicht von Affen unterscheiden können, Sexismus-Vorwürfe gegen eine Kreditkarte – diese Beispiele von (vermeintlichen) KI-Fehlschlägen verdeutlichen: Eine fehlende Kontrolle der KI kann sowohl zu gravierenden finanziellen Schäden als auch zu einem großen Reputationsschaden führen.

Wie steuert man Algorithmen?

Genau hier liegen die Herausforderungen. Vielen Unternehmen fehlt ein klarer Kontrollansatz für KI und ein Verständnis, wie Algorithmen zu steuern sind. Was ist also zu tun? Wenngleich bislang keine verbindlichen regulatorischen Vorgaben zur Steuerung von KI-Modellen bestehen, so lassen sich aus den bisherigen Verlautbarungen bereits klare Leitlinien ableiten. Insbesondere die Konformität zu ethischen Grundsätzen wie Fairness, aber auch Erklärbarkeit und Transparenz von eingesetzten KI-Lösungen werden regelmäßig als Kernanforderungen genannt.

Klar ist auch, dass ein Steuerungsansatz die spezifischen KI-Risiken berücksichtigen sollte, die sich in vier zentrale Risikokategorien unterscheiden lassen:

  • Integrität: KI funktioniert nicht entsprechend ihrem Zweck.
  • Erklärbarkeit: KI ist so komplex, dass es nahezu unmöglich ist, nachzuvollziehen, wie und weshalb ein bestimmtes Ereignis aufgetreten ist.
  • Fairness: KI verstößt gegen unternehmensinterne oder gesellschaftliche Normen und Werte.
  • Resilienz: KI weist zum Beispiel eine erhöhte Verwundbarkeit durch Cyber-Attacken auf, wodurch es zu Störungen und Ausfällen der KI selbst wie auch von vor- und nachgelagerten Funktionen und Prozessen kommen kann.

Mit einem ganzheitlichen KI-Steuerungsansatz Transparenz und Vertrauen schaffen

Ich bin überzeugt, dass der nachhaltig erfolgreiche Einsatz von KI in Deutschland nur mit einem ganzheitlichen Steuerungsansatz entlang aller Domänen eines Unternehmens gelingt, da sich KI auch auf alle Bereiche auswirkt.

Folgendes gilt es dabei unter anderem zu berücksichtigen:

  • Auf Unternehmensebene sollte der Einsatz von KI im Einklang mit strategischen Zielen stehen und so entsprechend verankert sein.
  • Verantwortlichkeiten auf verschiedenen Ebenen sollten klar definiert und HR-Fragestellungen für den Ausbau und das Erhalten von KI-Know-how berücksichtigt werden.
  • Auf technologischer Ebene ist es wichtig, Vorkehrungen zum Schutz vor Cyber-Attacken zu treffen, die zusätzliche Einfallsvektoren wie die böswillige Einspeisung korrupter Daten beachten.
  • Auf KI-Lösungs- und Datenebene sind Trainings- und Testdaten in ausreichender Quantität und Qualität von großer Bedeutung, ebenso, dass Funktionsweise und Inputs von KI-Modellen jederzeit dargelegt werden können.
  • In Projekten zur Entwicklung und Einführung von KI-Lösungen sollte sich immer ein Dreiklang aus KI-, IT- und Fachexpertise wiederfinden.

Diese Beispiele unterstreichen: KI-Lösungen können nicht als unabhängige Einzelinitiativen verstanden werden, denen man mit einem Set an einzelnen Kontrollen begegnet. Vielmehr ist der Einsatz von KI gesamtheitlich zu betrachten und auch durch einen spezifischen Steuerungsansatz zu unterlegen, um so Vertrauen und Transparenz in die KI-Lösungen zu schaffen und das Auftreten der spezifischen KI-Risiken zu vermeiden.

Tobias Synak
  • Senior Manager
Mehr über meine Themen Nachricht schreiben

Controlling AI

Das Whitepaper „Controlling AI“ beschreibt Methoden und Werkzeuge, die Führungskräften helfen, KI-Systeme zu beherrschen und Vertrauen in die Technologie zu gewinnen.

Jetzt herunterladen