Startseite » News » „Der Datenschutz setzt dem Einsatz von KI Grenzen“

„Der Datenschutz setzt dem Einsatz von KI Grenzen“ : Interview mit Dr. Julia Förster, Counsel, Freshfields Bruckhaus Deringer Rechtsanwälte Steuerberater PartG mbB

Es empfiehlt sich die regelmäßige zumindest stichprobenartige Überprüfung der Ergebnisse und der Trainingsdaten der KI, da Diskriminierungsrisiken auch durch die Anwendung und entsprechendes „Training“ der KI entstehen können. Zu bedenken ist auch, dass bei dem geplanten Einsatz KI-basierter Systeme im Betrieb der Betriebsrat einzubeziehen ist. Je nach geplantem Einsatz der KI bestehen Informations- und Beratungsrechte und ggf. sogar ein Zustimmungserfordernis.

4 Min. Lesezeit
Künstliche Intelligenz im Bewerbungsprozess
Foto: ©AdobeStock/Sasint

HRP: Es gibt zahlreiche Einsatzmöglichkeiten von KI im Bewerbungsprozess. Was sind die häufigsten bzw erfolgversprechendsten momentan?

Dr. Julia Förster: Die Einsatzmöglichkeiten für KI in allen Stadien des Bewerbungsprozesses sind in der Tat vielfältig und ihr volles Potenzial wohl noch nicht ausgeschöpft. In Deutschland sind viele Unternehmen beim Einsatz von KI im Bewerbungsprozess derzeit noch zurückhaltend. Die Gründe dafür liegen v. a. in den Kosten des Einsatzes, der Sorge vor rechtlichen Risiken und in der Unsicherheit, wie der Einsatz solcher Systeme bei Bewerbern ankommt.

Bereits häufig anzutreffen sind KI-basierte Systeme zur Optimierung von Stellenanzeigen, etwa durch automatischen Abgleich mit den Unternehmenszielen und Job-Profilen. Vor allem in internationalen Konzernen werden regelmäßig auch KI-basierte Chatbots eingesetzt, die Fragen von Bewerbern zu ausgeschriebenen Stellen oder dem Bewerbungsprozess beantworten.

 

HRP: Und in der Zukunft?

Dr. Förster: Wir erwarten einen weiteren Zuwachs beim Einsatz vom KI im Auswahlprozess, z.B. bei der Suche nach geeigneten Kandidaten für eine zu besetzende Stelle in berufsbezogenen Netzwerken. KI kann auch prüfen, ob Kandidaten die formalen Voraussetzungen einer Stelle erfüllen und ein Rating erstellen. Auch die Bewertung von Kandidaten auf Basis öffentlich zugänglicher Informationen, etwa zur Eignung für eine bestimmte Tätigkeit oder möglichen Reputationsrisiken käme in Betracht. Außerdem sind Text-, Stimm-, Sprach- oder Videoanalysetools interessant, die in Interviews oder Assessment-Centern zum Einsatz kommen.

Durchsetzen werden sich vor allem solche KI-basierten Tools, die den zeitlichen Aufwand für die HR-Abteilungen in Bewerbungsverfahren erheblich reduzieren. Es zeichnet sich allerdings ab, dass nicht alle technisch möglichen Optionen auch rechtlich zulässig sein werden.

 

HRP: Stehen diese Ideen nicht in Konflikt mit dem Arbeitnehmerdatenschutz?

Dr. Förster: Der Datenschutz setzt dem Einsatz von KI Grenzen. Die Erhebung von personenbezogenen Daten über Bewerber muss stets erforderlich und angemessen sein, was z.B. bei einer Recherche in freizeitorientierten sozialen Netzwerken wie Facebook oder Instagram von deutschen Datenschutzbehörden in der Regel verneint wird. Unzulässig ist auch die Erstellung umfassender Persönlichkeitsprofile durch eine KI. Art. 22 Abs. 1 der Europäischen Datenschutz-Grundverordnung sieht zudem vor, dass der Einzelne das Recht hat, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu sein. Das bedeutet, dass die Letztentscheidung über die Ablehnung oder die Einstellung eines Bewerbers nicht bei einem KI-System liegen darf. Das System darf die Entscheidung lediglich vorbereiten, getroffen werden muss sie aber von einem Menschen mit entsprechender Entscheidungsbefugnis.

 

HRP: Welches sind die größten Risiken beim Robot Recruitment aus arbeitsrechtlicher Sicht?

Dr. Förster: Neben den datenschutzrechtlichen Risiken sehen wir auch das Risiko von Diskriminierungen durch KI-basierte Anwendungen. Zwar werben die Anbieter KI-basierter Anwendungen häufig damit, objektive, faktenbasierte Entscheidungen zu ermöglichen, die weniger von Vorurteilen oder subjektiven Empfindungen eines Entscheidungsträgers geprägt sind. Eine unzureichende Programmierung oder eine ungenügende Datengrundlage kann aber dazu führen, dass das System logische Schlüsse im Rahmen des Selbstlernprozesses zieht, welche die Gefahr einer (nicht intendierten) Diskriminierung begründen.

 

HRP: Wie muss man sich das genau vorstellen?

Dr. Förster: Wurde etwa der Algorithmus fast ausschließlich mit Daten männlicher Bewerber trainiert, kann es bei der Anwendung zu einer Benachteiligung von Bewerberinnen kommen. Bei dem Einsatz von Sprachanalysetools ist zu bedenken, dass Personen mit einer Sprachbehinderung oder Nicht-Muttersprachler ggf. von dem System nicht angemessen analysiert werden (können), wenn es Unterschiede im Hinblick auf Sprachrhythmus, Satzbau oder Wortwahl gibt. So kann es zu einer Diskriminierung wegen einer Behinderung oder der Herkunft kommen. Die Folgen können beispielsweise Schadensersatz- und Entschädigungsansprüche sein.

 

HRP: Welche Grenzen sollten KI gesetzt werden?

Dr. Förster: Schon das geltende Recht zieht dem Einsatz von KI Grenzen, wie das bereits erwähnte Verbot automatisierter Entscheidungen in Art. 22 der Datenschutzgrundverordnung. Darüber hinaus gibt es derzeit verschiedene regulatorische Bestrebungen auf nationaler und europäischer Ebene. Ein gemeinsames Papier des Bundesministeriums für Arbeit und Soziales und des Bundesministerium des Inneren und für Heimat aus April 2023 mit Vorschlägen für einen modernen Beschäftigtendatenschutz verweist u.a. auf den Regelungsbedarf bei der Bewerberauswahl mit Hilfe von KI. Ein konkreter Entwurf für ein Beschäftigtendatenschutzgesetzes liegt allerdings noch nicht vor.

Im Zentrum der regulatorischen Bemühungen steht die KI-Verordnung auf EU-Ebene, die im März 2024 durch das EU-Parlament verabschiedet werden soll.  Dem Entwurf zufolge sollen KI-Systeme mit einem sog. unannehmbarem Risiko verboten werden. Im Arbeitskontext sind dies etwa Systeme zur Emotionserkennung am Arbeitsplatz und zur Kategorisierung einzelner Personen aufgrund biometrischer Daten, um daraus die ethnische Herkunft, politische Auffassungen, Zugehörigkeit zu einer Gewerkschaft, religiöse oder weltanschauliche Überzeugungen oder die sexuelle Orientierung abzuleiten.

Für KI-Systeme mit einem sog. hohen Risiko werden zusätzliche rechtliche Verpflichtungen geschaffen, wie beispielsweise eine menschliche Aufsicht für die KI-Systeme, die über die erforderliche Kompetenz, Ausbildung und Befugnis sowie die notwendige Unterstützung verfügt.

Hierunter werden beispielsweise KI-Systeme fallen, die für die Auswahl von Personen verwendet werden sollen, insbesondere für die Bekanntmachung gezielter Stellenausschreibungen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern.

 

HRP: Wann sollten KI-Entscheidungen überprüft und hinterfragt werden?

Dr. Förster: Schon vor dem ersten Einsatz von KI sollten Unternehmen die Anwendung „auf Herz und Nieren“ prüfen, um Diskriminierungsrisiken möglichst auszuschließen. Wie bereits dargelegt muss zudem die Letztentscheidung über die Stellenbesetzung immer bei einem Menschen und nicht bei der KI liegen. Es empfiehlt sich auch die regelmäßige zumindest stichprobenartige Überprüfung der Ergebnisse und der Trainingsdaten der KI, da Diskriminierungsrisiken auch durch die Anwendung und entsprechendes „Training“ der KI entstehen können.

Zu bedenken ist auch, dass bei dem geplanten Einsatz KI-basierter Systeme im Betrieb der Betriebsrat einzubeziehen ist. Je nach geplantem Einsatz der KI bestehen Informations- und Beratungsrechte und ggf. sogar ein Zustimmungserfordernis.

 

HRP: Vielen Dank für das interessante Interview.

 

Dr. Julia Förster
© Freshfields Bruckhaus Deringer

Dr. Julia Förster, Counsel, Freshfields Bruckhaus Deringer

Andere interessante News

Frau in den Wechseljahren wedelt sich frische Luft zu

„Entscheidend ist, dass das Thema Wechseljahre am Arbeitsplatz enttabuisiert wird.“

Im Interview mit Anne Hayes, Director of Sectors and Standards Development bei der internationalen Normierungsorganisation British Standards Institution (BSI), sprachen wir über de...

Gleichstellung klappt noch nicht: Blaues Männchen steht auf Münzberg höher als das rote Männchen

Interne Gleichstellung bleibt Prüfstein für Unternehmen

Die interne Gleichstellung bzw. die Lohntransparenz bleiben herausfordernd für die Unternehmen. 30 Prozent arbeiten bereits aktiv an der Verbesserung der Lohngleichheit. Oftmals fe...

Mann schläft bei langweiligem Meeting auf dem Tisch

Zu viel Zeit für unnötige Aufgaben

„Wenn Menschen ihre Arbeitszeit nicht sinnvoll einsetzen können, ist das eine Verschwendung kostbarer Zeit und wertvoller Ressourcen – gerade, wenn aufgrund des demografischen Wand...