Wenn Mitarbeitende für ihre Arbeitstätigkeit KI-Tools wie ChatGPT, Google Gemini oder Bing Chat nutzen, ist dies rechtlich riskant. Sie verletzen möglicherweise arbeitsrechtliche Pflichten und es kann zu Datenschutz- und Urheberrechtsverstößen kommen, für die auch das Unternehmen haftet.
Die Nutzung von ChatGPT und Co. am Arbeitsplatz kann arbeitsrechtliche Konsequenzen haben
Die Pflicht zur Arbeitsleistung ist im Zweifel eine höchstpersönliche. Das bedeutet nicht, dass den Beschäftigten keine Hilfsmittel erlaubt sind; sie dürfen ihre Arbeit jedoch nicht vollständig auf einen Dritten verlagern. In welchem Umfang KI genutzt werden darf, hängt von der im Einzelfall geschuldeten Arbeitsleistung ab. Können etwa Sachbearbeiter:innen mit Hilfe von KI die Qualität und Effizienz der Arbeitsprozesse verbessern, wird dies sicherlich im Unternehmensinteresse sein. Dagegen wird von „Kreativen“ grundsätzlich eine eigenständige Leistung erwartet. Auch hier ist es inzwischen weit verbreitet, dass KI genutzt wird. Allerdings dürfte es weiterhin unzulässig sein, wenn Mitarbeitende ihre Arbeit vollständig und ohne Wissen des Arbeitgebers durch eine KI erledigen lassen.
Arbeitnehmer:innen sollten sich auch bewusst sein, dass die vom Chatbot generierten Texte nicht immer frei von Fehlern sind. Übernehmen sie falsche Inhalte, werden ihnen diese als eigene Fehler zugerechnet. Das wird im Zweifel auch dann gelten, wenn der Arbeitgeber die Verwendung von KI im Rahmen der Arbeitserbringung ausdrücklich gestattet hat.
Bei der Einführung von KI sind die Beteiligungsrechte des Betriebsrats zu prüfen
Möchte der Arbeitgeber ChatGPT oder ein anderes KI-Tool im Unternehmen zum Einsatz bringen, muss er unter Umständen auch den Betriebsrat beteiligen. Ein Mitbestimmungsrecht besteht etwa dann, wenn die KI geeignet ist, Verhalten und Leistung von Arbeitnehmer:innen zu überwachen. Das ist bereits dann der Fall, wenn Logdaten erfasst werden. Soll KI in größerem Umfang zum Einsatz kommen, könnte das eine „Einführung grundlegend neuer Arbeitsmethoden“ sein. Die Folge wäre, dass ein Interessenausgleich zu verhandeln und gegebenenfalls auch ein Sozialplan abzuschließen wäre. Der Betriebsrat darf zur Beurteilung der Einführung oder Anwendung künstlicher Intelligenz einen Sachverständigen hinzuziehen. Wirkt sich die KI auf Arbeitsabläufe und -verfahren aus oder kreiert der Chatbot Auswahlrichtlinien, muss der Betriebsrat ebenfalls mit an Bord sein.
Auch aufgrund anderer Gesichtspunkte kann die Nutzung von ChatGPT im Unternehmen problematisch werden: Insbesondere kann es zu Datenschutzverstößen und Urheberrechtsverletzungen kommen oder zur Weitergabe von eigenen Geschäfts- oder Betriebsgeheimnissen, wenn diese in den Chatbot eingegeben werden.
Eingegebene Daten sind nicht hinreichend geschützt
Bei künstlicher Intelligenz liegt ein besonderes Augenmerk auf dem Datenschutz. Tools wie ChatGPT erfassen IP-Adressen und Informationen zum Nutzungsverhalten. Geben Nutzer:innen personenbezogene Daten ein, werden diese gespeichert und möglicherweise verwendet. Besonders kritisch ist, wenn es sich um Daten von Dritten handelt. Erfolgt die Nutzung des Chatbots nicht allein zu privaten Zwecken, gilt die Datenschutz-Grundverordnung (DSGVO). Diese schreibt vor, dass personenbezogene Daten nur weitergegeben werden dürfen, wenn eine Rechtsgrundlage dafür besteht. Für die Übermittlung in Drittländer gelten besondere Anforderungen. Bei ChatGPT werden eingegebene Informationen an die Server des Betreibers OpenAI in den USA übermittelt und dort nicht nur zur Erstellung der gewünschten Texte verarbeitet, sondern auch gespeichert und genutzt, um die KI zu trainieren und zu verbessern. Hierzu werden die Daten gegebenenfalls mit weiteren Dritten geteilt. Nutzer:innen haben also kaum Kontrolle darüber, wer am Ende alles Zugriff auf die Daten erhält.
Aufgrund dieser Risiken sind Unternehmen verpflichtet, dokumentierte Risikoanalysen zu erstellen (insbesondere Datenschutz-Folgenabschätzungen und Transfer Impact Assessments) und geeignete zusätzliche Maßnahmen zum Schutz der Daten zu ergreifen.
Zwar stellen einige Anbieter inzwischen mehr Informationen zur Datenverarbeitung und entsprechende Auftragsverarbeitungsverträge bereit, dennoch bestehen häufig noch Unsicherheiten. Unternehmen sollten daher sicherstellen, dass in frei zugänglichen Versionen von KI-Tools keine personenbezogenen Daten eingegeben werden und für den professionellen Einsatz nur Lösungen genutzt werden, die klare Datenschutzvereinbarungen und technische Schutzmaßnahmen bieten.
Betroffene Personen dürfen keiner durch KI getroffenen Entscheidung unterworfen werden
Ferner enthält die DSGVO bereits Regelungen über die Grenzen des Einsatzes von KI. So haben betroffene Personen das Recht, nicht einer ausschließlich durch eine KI getroffenen Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Soll ein KI-Tool also beispielsweise zum automatisierten Formulieren von Arbeitszeugnissen oder Abmahnungen eingesetzt werden, muss sichergestellt sein, dass die letzte Entscheidung ein Mensch trifft.
Der AI Act sieht unter anderem Transparenzpflichten vor
Vorsicht bei der Nutzung von KI durch Mitarbeitende ist auch aufgrund des AI Acts geboten. Das KI-Gesetz, das am 1. August 2024 in Kraft getreten ist und ab dem 1. August 2026 überwiegend anwendbar ist, sieht unter anderem Transparenzpflichten vor. Zum Beispiel müssen Deepfake-Inhalte als Inhalte offengelegt werden, die künstlich erzeugt oder manipuliert wurden.
Wer Texte von KI-Tools veröffentlicht, könnte Urheberrechte verletzen
Laut Nutzungsbedingungen überträgt OpenAI alle Rechte am Ergebnis auf die Nutzer:innen. Allerdings: Es ist ihnen verboten, zu behaupten, dass der Output von einem Menschen generiert wurde. Die Nutzungsbedingungen sehen ferner vor, dass OpenAI sowohl den Input, also die Fragen an den Chatbot, als auch den Output weiterverwenden darf.
Doch kann OpenAI überhaupt über die Rechte an den generierten Texten verfügen? Der Chatbot erschafft seine Texte aus Inhalten, die er im Internet findet oder die andere Nutzer:innen eingegeben haben. Daher stellt sich die Frage: Inwieweit gelten die Urheberrechte der Originalurheber dieser Inhalte fort? Eindeutig zu beantworten ist dies bei reinen Reproduktionen und Übersetzungen urheberrechtlich geschützter Texte. Hier bestehen die Rechte des Originalurhebers fort. Das ist beispielsweise der Fall, wenn ChatGPT einen Songtext wiedergeben soll, der noch nicht gemeinfrei ist. Ebenso verhält es sich, wenn das KI-Tool auf Anweisung eine Szene aus einem bestehenden Drehbuch umschreibt. Orientiert sich der Output nah am Originalwerk, kann die Umgestaltung nicht frei verwendet werden. Das wäre der Fall, wenn einzelne Charaktere wiederzuerkennen sind – vorausgesetzt sie verfügten im Original über selbstständigen Urheberrechtsschutz.
Das Erstellen von Fachtexten durch ChatGPT, Gemini & Co. ist weniger kritisch. Fachtexte müssen nach dem EuGH hohe Anforderungen erfüllen, um Urheberrechtsschutz genießen zu können. In der Regel wird der Output – zumindest bei ChatGPT – auch nicht aus kompletten Textbausteinen oder Satzfragmenten erstellt, sondern durch das GPT-Sprachmodell Wort für Wort neu und autonom formuliert. Und das hinter den Texten stehende Wissen schützt das Urheberrecht grundsätzlich nicht. Jedoch kann man auch bei Fachtexten nicht ausschließen, dass die generierten Texte urheberrechtlich geschützte Bestandteile enthalten.
An KI-generierten Werken entsteht grundsätzlich kein Urheberrecht
Eine weitere Frage: Wer hat das Urheberrecht an dem KI-generierten Text? Nach deutschem Recht kann nur ein Mensch Schöpfer eines Werkes und damit Urheber sein. Auch der EuGH verlangt eine freie kreative Entscheidung für die Entstehung eines Urheberrechts. Bei einem KI-Tool fehlt es an einer persönlichen geistigen Schöpfung. Dies deckt sich auch mit Stellungnahmen zum US-amerikanischen Recht.
Zum jetzigen Zeitpunkt sollte generative KI aus urheberrechtlicher Sicht allenfalls als Inspirationsgrundlage dienen. Denn wer den Output der KI veröffentlicht, riskiert, Urheberrechte Dritter zu verletzen.
Unternehmen sollten die Nutzung von KI regeln
Erlaubt der Arbeitgeber seinen Mitarbeitenden, Tools wie ChatGPT bei der Arbeit zu nutzen, setzt er sich erheblichen Haftungsrisiken aus. Denn zum einen muss sich der Arbeitgeber das Verhalten seiner Arbeitnehmer:innen meist als eigenes zurechnen lassen, zum anderen treffen den Arbeitgeber eigene gesetzliche Organisationspflichten, insbesondere zur Gewährleistung von Datenschutz und Datensicherheit.
Arbeitgeber sind daher gut beraten, die Nutzung KI-basierter Tools im Unternehmen zu regeln. Dabei wird nach der grundsätzlichen Frage des „Ob“ der Nutzung insbesondere auch zu regeln sein, durch welche Beschäftigtengruppen und für welche Aufgaben KI genutzt werden darf, welche besonderen Voraussetzungen und Vorkehrungen dabei zu beachten sind, welche Prüfpflichten die Arbeitnehmer:innen treffen und welche Folgen etwaige Verstöße nach sich ziehen können.
Viele Arbeitgeber stellen ihren Beschäftigten inzwischen generative KI-Lösungen bereit, die in die Unternehmensumgebung integriert sind und bei denen die Daten im eigenen System verbleiben. Alternativ kann es sinnvoll sein, eigene, speziell auf die Unternehmensanforderungen zugeschnittene KI-Tools zu entwickeln. Auf diese Weise lassen sich die Chancen generativer KI nutzen, ohne unnötige Risiken im Hinblick auf Datenschutz und Vertraulichkeit einzugehen.