Künstliche Intelligenz weißer Roboter steht vor schwarzem Hintergrund

Künstliche Intelligenz: Wie verhält es sich mit der Governance?

Die Gesellschaft sollte einen Governance-Rahmen setzen, in dem KI wertekonform agiert.

Die Chancen der Digitalisierung werden oftmals etwas plakativ anhand zweier Begrifflichkeiten diskutiert. Zum einen wird der Begriff „Robotics Process Automation“ (RPA) verwendet und meint den Einsatz einer softwaregestützten Automatisierungslösung. Diese verrichtet digitalisiert und damit automatisiert in einem bereits bestehenden Prozess die gleiche Tätigkeit, die zuvor durch mühevolle Handarbeit eines Menschen erfolgt ist, beispielsweise einen Abgleich von eingereichten Kilometern bei Reisekosten.

Noch häufiger und allumfassender wird der Begriff „Künstliche Intelligenz“ (KI) verwendet. Er basiert ebenfalls auf einer automatisierten Tätigkeit, allerdings folgt KI nicht statisch einer vorgegebenen regelbasierten Arbeit, sondern lernt im Zeitablauf selbstständig dazu und verbessert eigenständig auf Basis der erweiterten Intelligenz den Output.

Beide Begriffe bestimmen die strategischen Diskussionen in Unternehmen, weil diese sich im Ergebnis ganz klassisch bessere Qualität zu geringeren Kosten versprechen.

Was aber ist der Preis dieses verbesserten Outputs und zu welchen Konditionen soll er zustande kommen?

Wenn Menschen zusammenkommen, gestaltet sich diese Begegnung nicht immer einfach. Deswegen gibt es Gesetze und Regeln, z.B. für das Fortbewegen in einer Stadt oder auf der Autobahn, für die Interaktion in einer Unternehmung, für die Art und Weise, wie Produkte und Dienstleistungen erstellt werden. Dabei handelt es sich einerseits um Regeln, die die Gesellschaft via Gesetzgeber definiert, und andererseits um Regeln, die das Unternehmen selbst definiert, um eine Kultur zu schaffen, in der Mitarbeiterinnen und Mitarbeiter arbeiten wollen.

All das kann vereinfacht unter dem Begriff „Corporate Governance“ zusammengefasst werden. Über allem steht so etwas wie ein Wertegerüst, eine Art Moral, die ungeschrieben, aber doch konkret bestimmt, was richtig und was falsch ist, und die durch unterschiedliche Institutionen in der Gesellschaft überwacht wird.

Wenn nun an die Stelle des Menschen eine Maschine tritt – egal ob durch RPA oder KI – stellt sich aber auch die Frage: Welche Regeln sollen für deren Einsatz gelten? Wie weit wollen wir als Gesellschaft diesen Einsatz zulassen? Ganz konkret etwa: Wollen wir künftig, dass ein Bot die Lebenswahrscheinlichkeit errechnet und auf dieser Basis intelligent darüber entscheidet, ob eine neue Niere vergeben wird oder nicht?

Governance für RPA und KI

Diese Aspekte werden bislang nur unzureichend erörtert. In Unternehmen, die über einen vermehrten Einsatz von RPA nachdenken und an KI-Lösungen basteln, aber auch in Politik und Gesellschaft wird begeistert über die Vorteile diskutiert – also vor allem die Möglichkeiten, Ressourcen optimaler einzusetzen und Kosten zu senken. Die Implikationen aber werden vernachlässigt. Auch der von der EU-Kommission vor Kurzem vorgelegte Entwurf für Ethikrichtlinien zum Einsatz von künstlicher Intelligenz ist unzureichend und im Übrigen kaum von der Öffentlichkeit wahrgenommen worden.

Überspitzt gesagt überrascht es doch: Der Gesetzgeber versucht durch entsprechende Gesetze zu verhindern, dass Unternehmen ihren Gewinn mithilfe von Kinderarbeit oder durch extreme Umweltverschmutzung optimieren. Vergleichbare Bemühungen, die sicherstellen, dass der Output automatisierter Lösungen demselben Wertegerüst entspricht, sind aktuell noch zu wenig zu erkennen.

So bedarf es einer breiten Diskussion in Bezug auf einen Governance-Rahmen für RPA und KI – und zwar sowohl gesellschaftlich als auch für den Einsatz im Unternehmen.

Veränderte Risikolandschaft

Darüber hinaus verändert der Einsatz von RPA auch die Risikoszenarien für die Unternehmen. Arbeitsschutz und Arbeitszeiten spielen beim Bot natürlich keine Rolle, auch die Frage der Bestechlichkeit stellt sich nicht beim Algorithmus. Dagegen tun sich neue Fragen zu Governance, Risk und Compliance (GRC) auf: Ist der Bot von außen manipulierbar? Sind die Quellcodes geschützt? Wird die Funktionstrennung berücksichtigt? Sind Veränderungen nachvollziehbar und transparent? Was macht die Compliance-Abteilung, wenn die Software fehlerhaft programmiert ist, also der Output nicht dem gewünschten Ergebnis entspricht? Und entspricht das gewünschte Ergebnis stets dem rational optimierten Einsatz von Ressourcen?

Was, wenn der Algorithmus sich selbst ständig ändert?

Erst recht stellen sich die oben aufgeworfenen Fragen mit dem zukünftigen Einsatz von Algorithmen, die selbständig permanent dazulernen und sich dadurch automatisiert ständig verändern. GRC-Verantwortliche sollten sicherstellen, dass diese Veränderungen nachvollziehbar bleiben und der Algorithmus weiterhin stets die richtigen erwünschten Entscheidungen trifft. Das betrifft gerade sich selbst verändernde Algorithmen.

Unternehmen sind gut beraten, dass sie diese Aspekte schon bei der Planung von RPA und KI mitdenken und die mit der Automatisierung einher gehenden Risiken durch neu gedachte Kontrollstrukturen absichern – sich also mit dem Thema RPA- und KI-Governance proaktiv auseinandersetzen.

Die aktuelle Diskussion berücksichtigt diese Fragen noch zu wenig. Dabei soll es keineswegs darum gehen, die digitale Transformation auszubremsen. Aber die zum Einsatz kommenden automatisierten Lösungen müssen sich moralisch mindestens an denselben Kriterien messen lassen wie der Mensch auch. KI sollte ethisch verantwortbare KI sein. Davon hängt auch das gesellschaftliche Vertrauen in die neuen Technologien und damit ihre Akzeptanz ab.

Die Zeit drängt, denn die Technologien entwickeln sich rasend schnell und drohen die politischen Entscheider zu überholen. Und es wird nicht zuletzt in Abhängigkeit der politischen Systeme sehr unterschiedliche Ansichten darüber geben, was moralisch vertretbar ist und was nicht. Insoweit ist die Diskussion über RPA- und KI-Governance auf unterschiedlichen Ebenen dringend geboten.