Hinter den meisten Anwendungen, die wir heute im Zusammenhang mit Digitalisierung diskutieren, steckt eine Form von künstlicher Intelligenz (KI). Sie ist in so ziemlich jedem Lebens- und Wirtschaftsbereich einsetzbar, egal, ob es sich dabei um optimale Bedingungen für die Ernte von Gemüsebauern, eine automatisierte Klassifizierung von Dokumenten, autonomes Fahren oder intelligente Chatbots handelt.
Weil dabei immer größere Datenmengen bewegt werden, wird auch der verantwortungsvolle Umgang damit immer wichtiger. Wer genau hat Zugriff auf die Daten? Zu welchen Zwecken werden sie noch verwendet? Solche Fragen muss jedes Unternehmen, das das Vertrauen von Kund:innen, Geschäftspartnern und Lieferanten gewinnen und behalten will, beantworten können. Und es muss insgesamt beim Datenschutz überzeugende Lösungen entwickeln und kommunizieren.
Grenze zwischen Mensch und Maschine verschwimmt
Womit wir konkret bei Digital Ethics sind – man spricht hier auch von der Moral des digitalen Handelns. Die beschäftigt sich erstens damit, wie einzelne Akteure und Gruppen, die via Netz in Beziehung zueinander treten, miteinander umgehen (sollten). Diese Akteure können sowohl Menschen als auch Maschinen sein. Zweitens geht es bei Digital Ethics um Fragen rund um die Verantwortung, die Entwickler:innen jener Anwendungen tragen, die mit Hilfe von künstlicher Intelligenz Entscheidungen treffen. Wie werden diese Anwendungen programmiert? Wie gehen sie mit den Daten um? Wie kann man Entscheidungen von selbstlernenden Algorithmen später nachvollziehen? Kann ich das Selbstlernen steuern?
Mit solchen und weiteren Fragen beschäftigt sich unter anderem das Institut für digitale Ethik.
Es benennt sechs potenzielle Risiken beziehungsweise Herausforderungen:
- Die Gefahr, dass individuelle Handlungsfreiheit durch die Ungewissheit über den Verbleib der eigenen Daten eingeschränkt wird.
- Verletzendes Kommunikationsverhalten, vor allem im Zusammenhang mit sozialen Medien.
- Die Gefahr, dass sich ein immer größerer Teil des kollektiven Wissens hinter Suchmaschinen verbirgt und die Quasi-Monopolisten Informationen vorselektieren beziehungsweise nach ihrem Belieben filtern.
- Weitere Gefährdungspotenziale durch Online-Medien, zum Beispiel die Verbreitung von Propaganda oder Gewaltvideos.
- Ein potenziell negativer Einfluss von virtueller Realität auf unser Bewusstsein und unser Verhalten.
- Neue Rahmenbedingungen und Verantwortlichkeitsfragen im Zusammenhang mit künstlicher Intelligenz und vernetzten Technologien (IoT).
Auch der Deutsche Ethikrat hat die Auswirkungen digitaler Technologien auf das menschliche Selbstverständnis und Miteinander umfassend untersucht und hierzu im März 2023 eine umfangreiche Stellungnahme veröffentlicht. Darin gibt er zahlreiche Empfehlungen für den Einsatz künstlicher Intelligenz in verschiedenen Anwendungsbereichen.
Vor allem auf EU-Ebene wird versucht, die genannten Risiken regulatorisch in den Griff zu bekommen, etwa durch die Vorgaben der Datenschutzgrundverordnung (DSGVO). Auch der Digital Markets Act (DMA) sowie der Digital Services Act (DSA) sind in diesem Zusammenhang hervorzuheben. Ihr Ziel ist es unter anderem, den Missbrauch der Monopolstellung großer Online-Plattformen sowie die Verbreitung illegaler Inhalte wie Hasskommentare und Desinformation einzudämmen.
KI hat kein Gewissen
In der Diskussion geht es nicht nur um den Einfluss von (Daten-)Technik auf uns Menschen, sondern umgekehrt auch um die Frage, inwieweit wir Menschen Technik gezielter als bisher steuern müssen. Denn wenn immer mehr Arbeiten durch Maschinen ausgeführt oder unterstützt werden, die teilweise oder vollständig autonom arbeiten, dann muss es auch für sie Rechte und Pflichten geben.
Um dies zu ermöglichen, werden wir Entwickler:innen und Nutzer:innen solcher Maschinen ein hohes Maß an Transparenz abfordern müssen. Denn künstliche Intelligenz hat kein natürliches, also menschliches, Gewissen.
Ein weiteres Risiko im Zusammenhang mit KI und rapide wachsender Rechenleistung schließlich sehen Kritiker:innen in der sogenannten Singularität. Gemeint ist damit die Gefahr, dass sich künstliche Intelligenz mithilfe weiter steigender Rechenleistung selbsttätig rasant verbessert und so außer Kontrolle gerät. Expert:innen sprechen sogar von Computern, die intelligenter als Menschen sein könnten. Es heißt, dass ein solches System die letzte Erfindung sei, die der Mensch macht – weil ihm anschließend alles weitere aus der Hand genommen ist.
Digital Ethics hat hierbei die wichtige Aufgabe, zu hinterfragen, wie sich eine solche Entwicklung verhindern beziehungsweise regulieren lässt. Auch die bereits angesprochenen Empfehlungen des Deutschen Ethikrats drehen sich maßgeblich um diese Fragen: Wie können die Potenziale künstlicher Intelligenz genutzt werden, ohne dass dabei die Technik den Menschen völlig ersetzt oder dessen Entfaltung beschränkt?
Der Weg zur ethischen KI
In diesem Zusammenhang fordern selbst führende KI-Entwickler:innen eine Selbstverpflichtung von KI-Unternehmen und perspektivisch auch eine starke internationale Regulierung dieser Technologie, um die zukünftig von ihr ausgehenden Risiken für die Menschheit einzudämmen. Längst beschäftigt das Thema internationale Formate wie den Europarat, die G20, die OECD und die UN.
Vorreiterin auf dem Pfad der KI-Regulierung ist aber die EU, die mit der geplanten Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI-Verordnung) den „ersten KI-Rechtsrahmen überhaupt“ setzen will. Die EU-Kommission beschäftigt sich bereits seit 2018 mit der Frage, wie ein solcher Rechtsrahmen aussehen kann. Seit 2021 diskutieren das Europaparlament und die Mitgliedsstaaten die konkrete Ausgestaltung, wobei durch neue Anwendungen, wie etwa den Chatbot ChatGPT, zwischenzeitlich auch neue Fragen zum Umgang mit KI hinzugekommen sind.
Die EU verfolgt dabei ein Konzept, mit dem einerseits eine europäische „KI-Exzellenz“ vom Labor bis hin zum Markt gefördert werden soll, etwa durch das Schaffen günstiger Entwicklungs- und Einführungsvoraussetzungen. Vor allem aber soll sichergestellt sein, dass die in der EU verwendeten KI-Systeme sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sind. Hierzu hatte das Europäische Parlament eine lange Liste von Ethikgrundsätzen im Zusammenhang mit KI und Robotik aufgestellt, deren Schutz zukünftig durch die KI-Verordnung gewährleistet werden soll.
Neue Formen des digitalen Miteinanders
Die Frage nach ethischen Standards stellt sich ebenso mit Blick auf neue Formen der digitalen Interaktion, insbesondere im aufkommenden Metaverse, dem „begehbaren“ virtuellen Internet. Basierend auf technischen Grundlagen wie Virtual und Augmented Reality (VR/AR), Kryptowährungen, Non-Fungible Token (NFTs) und künstlicher Intelligenz sollen sich im Metaverse sowohl Menschen als auch KI-basierte Charaktere in Gestalt ihrer Avatare in einer 3D-Infrastruktur bewegen, Informationen aufrufen, miteinander kommunizieren und handeln können. Neben zahlreichen Chancen ergeben sich daraus auch neue ethische Risiken und Dilemmata. Zu nennen sind beispielsweise die gesteigerten Möglichkeiten der Verhaltensanalyse auf Basis der deutlich umfangreicheren digitalen Interaktion, die für Profiling und Manipulation missbraucht werden können, oder die Gefahren von Diskriminierung und Desinformation innerhalb der neuen virtuellen Welten.
Ob und welche Sicherheitsleitplanken sich hierbei verankern lassen, hängt eng mit der Frage der Kontrolle über das Metaverse zusammen. Denn neben solchen Plattformen, die durch eine zentrale Instanz verwaltet werden, existieren auch Metaverse-Welten, deren Nutzungsrichtlinien ausschließlich von einer dezentralisierten autonomen Organisation (DAO) festgelegt werden. Hier bestimmt also allein die Masse der Nutzer:innen über die Regeln der virtuellen Welt. Für staatliche Regulatoren und geschäftliche Akteure stellt sich mit Blick auf solche Entwicklungen nicht nur die Frage, welche ethischen Vorgaben für das Metaverse gelten sollen, sondern vor allem, wie diese überhaupt durchgesetzt werden können.