info@pape.de
+49 (0)89 – 954 599 7 0
PAPE Consulting Group AG Personalberatung
Pape Logo

ChatGPT – was bedeutet das für das Recruiting und wie kann man es DSGVO-konform nutzen?

Die künstliche Intelligenz (KI) ist endgültig dabei, die Welt zu erobern. Jedenfalls scheint es so, seit ChatGPT das Licht des digitalen Alltags erblickt hat. Doch erst einmal gilt es, ein paar Dinge zu klären: Können Personalberatungen, Fachabteilungen, Firmenbosse oder Mitarbeiter aus dem Human Resources heute schon sinnvoll ChatGPT nutzen? Und wie ist die rechtliche Lage? Wie kann es im Recruiting genutzt werden? Wie steht es um die rechtlichen Aspekte, insbesondere in Bezug auf die DSGVO? Und zuallererst

Was ist überhaupt ChatGPT?

Definition ChatGPT

In aller Munde ist derzeit „ChatGPT“, eine Software, die es sogar schaffen soll, das deutsche Abitur zu bestehen. Zunächst zur Beruhigung: ChatGPT schafft nur einen mäßigen Abi-Schnitt. Vor allem in Deutsch und Informatik schnitt die KI schlecht ab. Vermutlich ist das aber auch nur eine Frage der Zeit.

Was genau ist denn nun aber „ChatGPT“. Ist es ein Segen für die Menschheit oder macht uns der Fortschritt an dieser Stelle Angst und ist eher eine Bedrohung? Es gibt schon Stimmen in Politik und Wirtschaft, die die Entwicklung stark kontrollieren wollen, weil sie befürchten, dass die künstliche Intelligenz außer Kontrolle geraten kann.

Wir sind also offensichtlich nicht mehr so weit weg von Science-Fiction und der Übernahme der Menschheit durch künstliche Intelligenz, wenn ernst zu nehmende Koryphäen aus der Wirtschaft und der Nähe zum Thema, wie Elon Musk, einer der Apple Gründer Steve Wozniak oder Experten des Hasso-Plattner-Instituts sehr nervös werden. Sie betonen: „KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen.

Nicht einmal die Entwickler verstehen, was sie da gerade eigentlich tun.“ (Entwicklungspause fuer ChatGPT) Grund genug, sich des Themas etwas detaillierter anzunehmen.

Was ist nun ChatGPT?

ChatGPT wurde entwickelt von dem US-amerikanischen Unternehmen OpenAI, das auch DALL-E entwickelt hat, ein Aufsehen erregender Bildgenerator, der fantastische, surreale Bilder aus Textbeschreibungen erzeugen kann.
Die zweite Entwicklung ist ChatGPT, eine Software aus dem Bereich sogenannter „Chatbots“.

Chatbot

Ein Chatbot bezeichnet allgemein eine Anwendung, die Künstliche Intelligenz (KI) verwendet, um sich mit Menschen in natürlicher Sprache zu unterhalten. Der Benutzer kann Fragen stellen, auf welche das System dann auch in natürlicher Sprache antwortet. Wir kennen das zum Beispiel von Webseiten, bei denen sich eine menschliche Animation mit einer Charmeoffensive meldet und uns freundlich bittet, Fragen zu stellen. Die Telekom hat zum Beispiel „Tinka“, eine nette weibliche Dame aus einer anderen Galaxie (sprich Telekom) als 3-D-Animation, die ungeduldig auf Ihre Fragen wartet.

Die Software hinter Tinka kommt aber sehr schnell an ihre Grenzen und kann, je schwieriger die Fragen werden, irgendwann nur noch verzweifelt in Dauerschleife gehen. Die Systeme sind noch nicht wirklich ausgereift. Dahinter verbirgt sich eine Intelligenz, eigentlich eine Logik, die Phrasen und einzelne Schlüsselwörter erkennt und darauf gespeicherte, vorgefertigte Antworten gibt. Wenn aber die Fragen nicht ins trainierte Schema passen, dann sind die Antworten natürlich unsinnig und die liebe Tinka muss zurück in ihre Galaxie. Die Logik hinter Tinka nennt der Fachmann übrigens Algorithmen (Wenn-Dann).

Auch Siri, Alexa oder „Hey Mercedes“ sind prominente Vertreter von Chatbots, auch wenn man sie „Assistenzsysteme“ nennt. Sie basieren genauso auf künstlicher Intelligenz mit Spracherkennung und Kommunikation in beide Richtungen.

Der Oberbegriff „Bot“ leitet sich vom Begriff Roboter her und meint in unserem Zusammenhang jegliche Software, die automatisch sich wiederholende Aufgaben bearbeitet. Aber aufgepasst: Es gibt „gute“ und „böse“ Bots.

Gute Bots arbeiten innerhalb festgelegter Regularitäten, zum Beispiel eben für Assistenzsysteme oder für künstliche Intelligenz wie ChatGPT, um in natürlicher Sprache Informationen zu sammeln und auf Nachfrage weiterzugeben. Damit tun sie erkennbar Gutes, es sei denn, ihr Navi führt sie in eine Sackgasse.

Bösartige Bots sammeln zum Beispiel massenhaft Daten für Werbezwecke und Quelltexte. So erhalten Experten die Meinungen, die Nutzer in sozialen Netzwerken kundtun. Oder sie können zum Ausspionieren von Lücken und Bugs oder Sicherheitslücken bei Servern genutzt werden. Sie hacken Benutzerkonten oder verbreiten im Internet Fake News. Sie können sogar Geld aus E-Commerce-Transaktionen stehlen.

Viele Webseiten setzen sogenannte Captchas ein, mit dem sich ein Bot von einem Menschen unterscheiden lassen soll. Dieser nervige Test als Sicherheitsmechanismus: „Bitte klicken Sie auf alle Bilder, die eine Ampel zeigen“ – sollen den Bot mutmaßlich entlarven.

ChatGPT

ChatGPT (Abkürzung für „Chatbot Generative Pre-trained Transformer“) ist also eigentlich ein Sprachmodul, das sein Wissen aus einer großen Datenmenge bezieht. Quellen dafür sind Wikipedia, Bücher, Nachrichtenartikel, wissenschaftliche Zeitschriften u.a. Die Software wurde auf diese Texte trainiert, wobei Stand heute der Datenbestand nur bis zum Jahr 2021 geht. Neuere Informationen fehlen, aber auch das ist nur eine Frage der Zeit.

Eigentlich ist also ChatGPT keine neue Technologie, dennoch ist sie dabei, all unser Tun zu revolutionieren, weil sie immer weiter perfektioniert wird. In zahllosen Büros, Agenturen und Unternehmensberatungen experimentieren Angestellte und Führungskräfte mit der Software, die fast wie ein Mensch kommunizieren kann.

Erste Unternehmen, die ChatGPT einsetzen, sind im Begriff, dadurch Arbeitskräfte zu ersetzen. Gerade im Kundenservice ergeben sich große Potentiale. Die menschliche Arbeitsweise kann verbessert werden, indem sich wiederholende Aufgaben automatisiert und gleichzeitig eine ansprechende Interaktion mit den Nutzern ermöglicht wird. So lassen sich viele Aufgaben automatisieren, die normalerweise von Menschen erledigt werden. Außerdem können solche Unternehmen ihre Reaktionszeit dadurch radikal verbessern.

Potenzielle Bedenken bestehen natürlich auch, zum Beispiel hinsichtlich des Datenschutzes. ChatGPT kann für Angriffe auf die Cybersicherheit anfällig sein, da es mit dem Internet verbunden ist und möglicherweise zur Verbreitung bösartiger Inhalte oder Viren verwendet werden könnte.

Böswillige Cyberkriminelle könnten Menschen auch dazu verleiten, über den Chatbot persönliche Daten preiszugeben, die sie dann für betrügerische Zwecke oder gezielte Phishing-Angriffe verwenden. Hier müssen also noch klare gesetzliche Grenzen gesetzt werden und enge Kontrollen erfolgen.

ChatGPT: Einsatz im Recruiting

ChatGPT kann auch im Recruiting einige Aufgaben übernehmen: vom Erstellen der Stellenanzeigen über das Verfassen von Karriereseiten-Texten bis hin zur individualisierten Korrespondenz mit dem Kandidaten und den Kunden. Bisher mussten diese Texte in mühevoller Kleinarbeit verfasst werden, wollte man keine automatisierten E-Mails oder Nachrichten versenden. Zwar ersetzt die KI nicht den persönlichen Kontakt. Die enorme Schnelligkeit aber, in der ChatGPT die Antworten produziert, macht das Recruiting effizienter und schneller.

Dennoch bleibt das Recruiting von Mitarbeitern „People Business“. Gute und seriöse Personalberater werden die Selektion und Einstellung von Mitarbeitern, die das wichtigste Gut eines Unternehmens sind, niemals einer künstlichen Intelligenz überlassen.

ChatGPT kann also Prozesse optimieren und Abläufe unterstützen, aber keine Entscheidungsprozesse übernehmen, wer am Ende ein- oder ausgestellt wird.

ChatGPT und die DSGVO

Kommen wir nochmal auf das Thema Datenschutz zurück. Die deutsche Datenschutzgrundverordnung (DSGVO) regelt die Speicherung und den Schutz von personenbezogenen Daten. Diese dürfen nur unter bestimmten Voraussetzungen verarbeitet und gespeichert werden. Die Arbeit im Recruiting basiert im Wesentlichen auf der Einschätzung und Bewertung ebendieser Daten. Verwendet ein Recruiter dabei ChatGPT und lädt personenbezogene Daten hoch, werden diese weiterverarbeitet und im Zusammenhang mit dem Machine Learning gespeichert.

Durch die Bestimmungen der DSGVO müssen Recruiter vor dem Einsatz von ChatGPT durch diese Verarbeitung und Speicherung die explizite Einwilligung der Kandidaten einholen, bevor sie diese weitergeben. Zudem müssen die Daten nach dem spezifischen Zweck (in diesem Fall die Besetzung einer Vakanz) gelöscht werden, wenn der Zweck nicht mehr vorliegt (sprich: nach der erfolgreichen Besetzung der Vakanz). Ein Chat-Verlauf kann zwar problemlos gelöscht werden. Fragt sich nur, ob diese Daten tatsächlich endgültig gelöscht werden. Oder kursieren sie nach der Löschung weiter in einem KI-Datenspeicher?

Nach Artikel 22 der DSGVO hat jeder das Recht, „nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden (…)“. Daher ist auch in naher KI-Zukunft die Verarbeitung personenbezogener Daten oder nur in Ausnahmefällen möglich.

Es müssen also Sicherheitsvorkehrungen getroffen werden, um die DSGVO-Anforderungen auch in Bezug auf ChatGPT zu erfüllen und die Privatsphäre der Bewerber zu schützen. Unternehmen müssen dazu insbesondere ihre Belegschaft schulen und gegebenenfalls Maßnahmen ergreifen.

Deutsches und europäisches Recht

Im Interview mit dem Tagesspiegel sprach sich Bundesarbeitsminister Hubertus Heil (SPD) gegen ein Verbot von ChatGPT aus. Er plädierte aber für Transparenz bei den Programmen. Dabei sagte er: „Das beugt nicht nur Verschwörungstheorien vor, sondern verhindert auch, dass die Systeme ungewünschte Ergebnisse hervorbringen.“ Die Arbeitswelt werde – so Heil – in Zukunft von ChatGPT und ähnlichen System geprägt werden. Daher sei es wichtig, den Umgang mit diesem System zu lernen.

Marit Hansen, die Datenschutzbeauftragte von Schleswig-Holstein, berichtet in einem Interview auf heise.de, dass Schleswig Holstein eine Anfrage an OpenAI mit diversen datenschutzrechtlichen Fragen gestellt hat. Diese sollen bis zum 7. Juni beantwortet werden. Mit der Auswertung und ähnlichen Rückfragen kann dieser Prozess noch bis in den Sommer gehen.

Der Bund arbeitet derzeit an einem Gesetzentwurf, der im Sommer vorliegen soll. Hierin soll unter anderem geregelt werden, wie die KI im Bewerbungsverfahren eingesetzt werden darf.

Geplant sind derzeit auch KI-Verordnungen und KI-Haftungsrichtlinien auf europäischer Ebene. Der „AI-Act“ könnte Ende des Jahres 2023 beschlossen werden und würde dann zwei Jahre später in Kraft treten. Bis dahin bleibt die geschäftliche Nutzung von KI eine rechtliche Grauzone.

Allerdings wird auch dann eine dauerhafte Anpassung zwischen Recht und den Möglichkeiten, die Künstliche Intelligenz bietet, nötig sein. Denn die künstliche hat mit der natürlichen Intelligenz eines gemein: Sie entwickelt sich dynamisch.

Geschrieben: 25. Mai 2023