Vier Roboter arbeiten mit Laptop

ChatGPT bei der Arbeit nutzen? Nicht immer eine gute Idee

Diese Rechtsfragen sollten Unternehmen im Blick haben.

Ein kostenloses Tool, das kommuniziert wie ein Mensch und das alle möglichen Arbeitsaufträge übernehmen kann – die Versuchung ist groß, Aufgaben von ChatGPT erledigen zu lassen.

ChatGPT bedeutet Chat Generative Pretrained Transformer. Das Tool basiert auf Künstlicher Intelligenz (KI) und kann Texte jeder Art generieren. Es kann beliebige Inhalte erstellen, darunter Fachtexte, Gedichte und Marktstudien. Das KI-Tool beantwortet Fragen, kann einen Programmiercode erstellen, Texte übersetzen, zusammenfassen, vereinfachen und inzwischen sogar die Stimmung des Geschriebenen analysieren. In einer HR-Abteilung könnte der Chatbot beispielsweise Stellenangebote, Richtlinien und Verträge sowie Kündigungsschreiben und Arbeitszeugnisse erstellen.

ChatGPT wurde mit Daten gefüttert, die bis September 2021 im Internet auffindbar waren. Fragen zu aktuelleren Themen wird das Tool daher wahrscheinlich falsch beantworten. Dennoch gilt es als der derzeit fortschrittlichste KI-Chatbot und ist wohl auch der beliebteste. Wenig überraschend ist daher, dass die KI-Anwendung auch in Unternehmen zum Einsatz kommt. Allerdings ist Vorsicht geboten: Arbeitnehmer:innen, die das Tool für ihre Arbeit nutzen, riskieren die Verletzung ihrer arbeitsrechtlichen Pflichten sowie Datenschutz- und Urheberrechtsverstöße, für die auch das Unternehmen haftet.

Nutzung am Arbeitsplatz: Das ist aus arbeitsrechtlicher Sicht zu beachten

Die Pflicht zur Arbeitsleistung ist im Zweifel eine höchstpersönliche. Das bedeutet nicht, dass den Beschäftigten keine Hilfsmittel erlaubt sind; sie dürfen ihre Arbeit jedoch nicht vollständig auf einen Dritten verlagern. In welchem Umfang KI genutzt werden darf, hängt von der im Einzelfall geschuldeten Arbeitsleistung ab. Können etwa Sachbearbeiter:innen mit Hilfe von KI die Qualität und Effizienz der Arbeitsprozesse verbessern, wird dies sicherlich im Unternehmensinteresse sein. Dagegen wird von „Kreativen“ wohl eine eigenständige Leistung ohne derartige Hilfsmittel erwartet. Unzulässig dürfte es jedenfalls sein, wenn Mitarbeiter:innen ihre Arbeit vollständig und ohne Wissen des Arbeitgebers durch eine KI erledigen lassen.

Arbeitnehmer:innen sollten sich auch bewusst sein, dass die vom Chatbot generierten Texte nicht frei von Fehlern sind. Übernehmen sie falsche Inhalte, werden ihnen diese als eigene Fehler zugerechnet. Das wird grundsätzlich auch dann gelten, wenn der Arbeitgeber die Verwendung von KI im Rahmen der Arbeitserbringung ausdrücklich gestattet hat.

Möchte der Arbeitgeber ChatGPT im Unternehmen zum Einsatz bringen, muss er unter Umständen auch den Betriebsrat beteiligen. Ein Mitbestimmungsrecht besteht etwa dann, wenn die KI geeignet ist, Verhalten und Leistung von Arbeitnehmer:innen zu überwachen. Das ist bereits dann der Fall, wenn Logdaten erfasst werden. Soll KI in größerem Umfang zum Einsatz kommen, könnte das eine „Einführung grundlegend neuer Arbeitsmethoden“ sein. Die Folge wäre, dass ein Interessenausgleich zu verhandeln und gegebenenfalls auch ein Sozialplan abzuschließen wäre. Der Betriebsrat darf zur Beurteilung der Einführung oder Anwendung Künstlicher Intelligenz einen Sachverständigen hinzuziehen. Wirkt sich die KI auf Arbeitsabläufe und -verfahren aus oder kreiert der Chatbot Auswahlrichtlinien, muss der Betriebsrat ebenfalls mit an Bord sein.

Auch aus anderen Gesichtspunkten kann die Nutzung von ChatGPT im Unternehmen problematisch werden: Insbesondere kann es zu Datenschutzverstößen und Urheberrechtsverletzungen kommen oder zur Weitergabe von eigenen Geschäfts- oder Betriebsgeheimnissen, wenn diese in den Chatbot eingegeben werden.

 

 

Eingegebene Daten sind nicht hinreichend geschützt

Wie nahezu bei jeder neuen Technologie liegt ein besonderes Augenmerk auf dem Datenschutz. ChatGPT erfasst IP-Adressen und Informationen zum Nutzungsverhalten. Geben Nutzer:innen personenbezogene Daten ein, werden diese gespeichert und möglicherweise genutzt. Besonders kritisch ist, wenn es sich um Daten von Dritten handelt. Erfolgt die Nutzung von ChatGPT nicht allein zu privaten Zwecken, gilt die Datenschutz-Grundverordnung (DSGVO). Diese schreibt vor, dass personenbezogene Daten nur weitergegeben werden dürfen, wenn eine Rechtsgrundlage dafür besteht. Für die Übermittlung in Drittländer gelten besondere Anforderungen. Bei ChatGPT werden eingegebene Informationen an die Server des Betreibers OpenAI in den USA übermittelt und dort nicht nur zur Erstellung der gewünschten Texte verarbeitet, sondern auch gespeichert und genutzt, um die KI zu trainieren und zu verbessern. Hierzu werden die Daten gegebenenfalls mit weiteren Dritten geteilt. Nutzer:innen haben also kaum Kontrolle darüber, wer am Ende alles Zugriff auf die Daten erhält.

Aufgrund dieser Risiken sind Unternehmen verpflichtet, dokumentierte Risikoanalysen zu erstellen (insbesondere Datenschutz-Folgenabschätzungen und Transfer Impact Assessments) und geeignete zusätzliche Maßnahmen zum Schutz der Daten zu ergreifen. Allerdings liegen hierfür aktuell noch keine ausreichenden Informationen über die Datenverarbeitung durch ChatGPT vor. Unternehmen sollten daher sicherstellen, dass aktuell keine personenbezogenen Daten in ChatGPT eingegeben werden.

Ferner enthält die DSGVO bereits Regelungen über die Grenzen des Einsatzes von KI. So haben betroffene Personen das Recht, nicht einer ausschließlich durch eine KI getroffenen Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Soll ChatGPT also zum Treffen von Entscheidungen mit Auswirkungen auf Betroffene eingesetzt werden (zum Beispiel zum automatisierten Formulieren von Arbeitszeugnissen oder Abmahnungen), muss sichergestellt sein, dass die letzte Entscheidung ein Mensch trifft.

Wer Texte von KI-Tools veröffentlicht, könnte Urheberrechte verletzen

Laut Nutzungsbedingungen überträgt OpenAI alle Rechte am Ergebnis auf die Nutzer:innen. Allerdings: Es ist ihnen verboten, zu behaupten, dass der Output von einem Menschen generiert wurde. Die Nutzungsbedingungen sehen ferner vor, dass OpenAI sowohl den Input, also die Fragen an den Chatbot, als auch den Output weiterverwenden darf.

Doch kann OpenAI überhaupt über die Rechte an den generierten Texten verfügen? Der Chatbot erschafft seine Texte aus Inhalten, die er im Internet findet oder die andere Nutzer:innen eingegeben haben. Daher stellt sich die Frage: Inwieweit gelten die Urheberrechte der Originalurheber dieser Inhalte fort? Eindeutig zu beantworten ist dies bei reinen Reproduktionen und Übersetzungen urheberrechtlich geschützter Texte. Hier bestehen die Rechte des Originalurhebers fort. Das ist beispielsweise der Fall, wenn ChatGPT einen Songtext wiedergeben soll, der noch nicht gemeinfrei ist. Ebenso verhält es sich, wenn das KI-Tool auf Anweisung eine Szene aus einem bestehenden Drehbuch umschreibt. Orientiert sich der Output nah am Originalwerk, kann die Umgestaltung nicht frei verwendet werden. Das wäre zum Beispiel der Fall, wenn einzelne Charaktere wiederzuerkennen sind – vorausgesetzt sie verfügten im Original über selbstständigen Urheberrechtsschutz.

Die Erstellung von Fachtexten durch ChatGPT ist weniger kritisch. Fachtexte müssen nach dem EuGH hohe Anforderungen erfüllen, um Urheberrechtsschutz genießen zu können. In der Regel wird der Output bei ChatGPT auch nicht aus kompletten Textbausteinen oder Satzfragmenten erstellt, sondern durch das GPT-Sprachmodell Wort für Wort neu und autonom formuliert. Und das hinter den Texten stehende Wissen schützt das Urheberrecht grundsätzlich nicht. Jedoch kann man auch bei Fachtexten nicht ausschließen, dass die generierten Texte urheberrechtlich geschützte Bestandteile enthalten.

Eine weitere Frage: Wer hat das Urheberrecht an dem KI-generierten Text? Nach deutschem Recht kann nur ein Mensch Schöpfer eines Werkes und damit Urheber sein. Auch der EuGH verlangt eine freie kreative Entscheidung für die Entstehung eines Urheberrechts. Bei ChatGPT fehlt es an einer persönlichen geistigen Schöpfung. Dies deckt sich auch mit Stellungnahmen zum US-amerikanischen Recht.

Zum jetzigen Zeitpunkt sollte ChatGPT aus urheberrechtlicher Sicht allenfalls als Inspirationsgrundlage dienen. Denn wer den Output des Chatbots veröffentlicht, riskiert, Urheberrechte Dritter zu verletzen.

Unternehmen sollten die Nutzung von KI regeln

Erlaubt der Arbeitgeber seinen Mitarbeitenden, ChatGPT bei der Arbeit zu nutzen, setzt er sich erheblichen Haftungsrisiken aus. Denn zum einen muss sich der Arbeitgeber das Verhalten seiner Arbeitnehmer:innen meist als eigenes zurechnen lassen, zum anderen treffen den Arbeitgeber eigene gesetzliche Organisationspflichten, insbesondere zur Gewährleistung von Datenschutz und Datensicherheit.

Arbeitgeber sind daher gut beraten, die Nutzung KI-basierter Tools wie ChatGPT im Unternehmen zu regeln. Dabei wird nach der grundsätzlichen Frage des „Ob“ der Nutzung insbesondere auch zu regeln sein, durch welche Beschäftigtengruppen und für welche Aufgaben KI genutzt werden darf, welche besonderen Voraussetzungen und Vorkehrungen dabei zu beachten sind, welche Prüfpflichten die Arbeitnehmer:innen treffen und welche Folgen etwaige Verstöße nach sich ziehen können.

Die Entwicklung von KI-Systemen schreitet in hohem Tempo voran. Tools wie ChatGPT bieten sicherlich große Chancen für Unternehmen, sofern rechtliche Fragen beachtet werden.