Digitalisierung Organisation und Personal
Voraussichtliche Lesezeit: 5 Minuten

Rechtliche Risiken beim Einsatz von Künstlicher Intelligenz am Arbeitsplatz

ChatGPT ist ein generatives KI-Sprachmodell des kalifornischen Unternehmens OpenAI, das derzeit in aller Munde ist. Dieser auf künstlicher Intelligenz (KI) basierende Chatbot verwendet eine sog. „Deep-Learning-Methode“, mit der Terabytes von Daten, die unzählige Wörter enthalten, durchforstet werden, um Antworten auf Fragen oder Aufforderungen zu erhalten. Die Daten stammen aus Büchern, Wikipedia, Webscraping und anderen Textquellen. Darüber hinaus lernt der Chatbot durch die Eingaben der jeweiligen Nutzer mit.

Einsatzmöglichkeiten in der Arbeitswelt

Mithilfe von ChatGPT können Texte automatisiert erstellt werden. Insbesondere im Personalwesen wird aktuell viel über Anwendungsmöglichkeiten diskutiert, da sich etliche HR-Prozesse mithilfe von KI automatisieren lassen. So können Personalabteilungen auf vielfältige Weise entlastet werden. Dies ist Stand jetzt aber noch Zukunftsmusik; das Tool ist derzeit noch zu fehleranfällig. Doch aufgrund der äußerst großen Lernfähigkeit des Programms besteht durchaus das technische Potenzial, viele HR-Prozesse wie die Erstellung von Stellenbeschreibungen, Bewerbungsabsagen, Arbeitszeugnissen, Arbeitsverträgen oder Kündigungsschreiben automatisiert zu gestalten. Dabei würden zudem personelle Ressourcen geschont werden.

Doch auch für die einzelnen Mitarbeiter könnte sich ChatGPT als nützlich erweisen, z. B. als Recherchemittel, für die Erstellung geschäftlicher Korrespondenz oder zur Anfertigung von dienstlichen Unterlagen.

Aber wie ist es um die rechtliche Zulässigkeit bestellt?

Verarbeitung personenbezogener Daten

Diese liegt vor, wenn bei der Nutzung des Chatbots Angaben gemacht werden, die auf eine Person unmittelbar oder zumindest mittelbar abstellen. Der Arbeitgeber sollte demnach seine Beschäftigten darauf hinweisen, dass bei der Nutzung von ChatGPT keine personenbezogenen Daten von Arbeitskollegen, Kunden oder anderen Organisationen angegeben werden sollten. Aus den „Terms and Conditions“ von OpenAI geht hervor, dass der Chatbot diese Angaben zur Weiterentwicklung des KI-Sprachmodells nutzen kann.  Daher ist es nicht ausgeschlossen, dass von Nutzern eingegebene personenbezogene Daten bei anderen Nutzern von ChatGPT erscheinen können.

Diese Form der Datenweitergabe könnte demnach einen Datenschutzverstoß darstellen, der dem Arbeitgeber zugerechnet wird. Des Weiteren findet ein Datentransfer in die USA (OpenAI ist ein US-Unternehmen) statt, der nach derzeitiger Rechtslage ohne den Abschluss entsprechender Vereinbarungen (z. B. EU-Standardvertragsklauseln) regelmäßig datenschutzrechtswidrig erfolgt. Noch steht eine eindeutige Positionierung der deutschen Datenschutzaufsichtsbehörden zur Nutzung von generativen KI-Sprachmodellen aus.

ChatGPT und die DSGVO

Nutzt die Personalabteilung den Chatbot beispielsweise zur Automatisierung von Prozessen und werden auf diese Weise Arbeitszeugnisse oder Abmahnungen erstellt oder sogar Entscheidungen über die Einstellung eines Bewerbers gefällt, liegt hier häufig eine datenschutzrechtlich problematische Gemengelage vor. Nach Art. 22 DSGVO sind Personen grundsätzlich davor geschützt, dass sie ausschließlich KI-basierten Entscheidungen unterworfen sind. Unabhängig von dem unbestreitbar großen technischen Potenzial des Chatbots können die Dienststellen auch zukünftig die Erstellung von Zeugnissen, Abmahnungen oder auch die Durchführung des Bewerbungsprozessen wohl nicht vollständig automatisiert durchführen lassen. Der KI-Einsatz kann daher nicht gänzlich ohne menschliche Entscheidungskompetenzen bleiben – sonst droht ein Verstoß gegen Art. 22 DSGVO.

Gefährdung von Betriebs- und Geschäftsgeheimnissen

Auch die Wahrung von Betriebs- und Geschäftsgeheimnissen könnte durch die Nutzung von ChatGPT gefährdet sein. Es ist denkbar, dass Beschäftigte Angaben tätigen, die sich auf Interna beziehen. Dadurch könnte die Antwort des Chatbots unter Umständen noch genauer und damit praxisgerechter ausfallen. Problematisch an ChatGPT sind jedoch, dass das Tool die erhaltenen Angaben laut den „Terms & Conditions“ dazu nutzen kann, seine Dienste weiter zu verbessern. Demzufolge könnten andere Nutzer des Programms die entsprechenden Angaben als Output erhalten. Daher sollten die Organisationen ihre Beschäftigten dafür sensibilisieren, bei der Nutzung von ChatGPT keinerlei Angaben über Betriebs- und Geschäftsgeheimnisse zu machen. Andernfalls ist ein vertraulicher Umgang mit solchen sensiblen Organisationsinformationen nicht gewährleistet.

Die Frage der Urheberrechte

Eine Verletzung von Urheberrechten zulasten von OpenAI als Betreiber von ChatGPT ist ausgeschlossen. Urheberrechtlich geschützte Werke liegen nur dann vor, wenn dabei eine persönliche geistige Schöpfung des Urhebers vorhanden ist. Diese kann nur auf menschliche Leistung zurückzuführen sein. Die Ergebnisse von ChatGPT werden ausschließlich auf Grundlage einer KI-basierten Anwendung erstellt – OpenAI kann daher nicht der Urheber des von dem Chatbot erzeugten Outputs sein. Das US-Unternehmen kann den Nutzern keine Nutzungs- und Verwertungsrechte einräumen und sich auch nicht auf solche berufen.

Fraglich ist allerdings, ob Dritten Urheberrechte an den Ergebnissen von ChatGPT zustehen könnten. Bei der Nutzung des Chatbots werden Angaben getätigt, die letztlich einen entsprechenden Output veranlassen. ChatGPT nutzt getätigte Angaben des Nutzers zur Verbesserung der Anwendung, sodass andere Verwender diese Angaben als Output erhalten können. Es ist bislang ungeklärt, ob Nutzer, die mit ihren Angaben einen Output an anderer Stelle bewirken, als Urheber gelten. Somit ist eine Festlegung von Urheberrechten derzeit faktisch nicht möglich.

Ausblick zur rechtssicheren Nutzung von KI

Die (zukünftige) Nutzung von KI-Sprachmodellen wie ChatGPT wird die Gesellschaft und auch das Arbeitsleben nachhaltig verändern – insbesondere die Personalabteilungen. Zwar wird eine solche Nutzung sicherlich die eine oder andere Arbeitserleichterung mit sich bringen, allerdings müssen dabei auch stets die damit einhergehenden rechtlichen Risiken berücksichtigt werden. Aufgrund der Neuartigkeit solcher Tools existieren im Moment nur wenig bis keine gesetzlichen Regelungen.

Der EU-Gesetzgeber arbeitet derzeit unter anderem an einer EU-KI-Verordnung sowie einer KI-Haftungsrichtlinie. Die beiden gesetzgeberischen Vorhaben stellen eine gute Gelegenheit dar, die Rechtslücken bzgl. der Nutzung von KI aktiv anzugehen.

Man darf gespannt sein, inwieweit zukünftig erlassene gesetzliche Verordnungen zu einem praxisgerechten Einsatz von Künstlicher Intelligenz im Arbeitsalltag beitragen werden.