Startseite » News » „Der Datenschutz setzt dem Einsatz von KI Grenzen“

„Der Datenschutz setzt dem Einsatz von KI Grenzen“ : Interview mit Dr. Julia Förster, Counsel, Freshfields Bruckhaus Deringer Rechtsanwälte Steuerberater PartG mbB

Es empfiehlt sich die regelmäßige zumindest stichprobenartige Überprüfung der Ergebnisse und der Trainingsdaten der KI, da Diskriminierungsrisiken auch durch die Anwendung und entsprechendes „Training“ der KI entstehen können. Zu bedenken ist auch, dass bei dem geplanten Einsatz KI-basierter Systeme im Betrieb der Betriebsrat einzubeziehen ist. Je nach geplantem Einsatz der KI bestehen Informations- und Beratungsrechte und ggf. sogar ein Zustimmungserfordernis.

4 Min. Lesezeit
Künstliche Intelligenz im Bewerbungsprozess
Foto: ©AdobeStock/Sasint

HRP: Es gibt zahlreiche Einsatzmöglichkeiten von KI im Bewerbungsprozess. Was sind die häufigsten bzw erfolgversprechendsten momentan?

Dr. Julia Förster: Die Einsatzmöglichkeiten für KI in allen Stadien des Bewerbungsprozesses sind in der Tat vielfältig und ihr volles Potenzial wohl noch nicht ausgeschöpft. In Deutschland sind viele Unternehmen beim Einsatz von KI im Bewerbungsprozess derzeit noch zurückhaltend. Die Gründe dafür liegen v. a. in den Kosten des Einsatzes, der Sorge vor rechtlichen Risiken und in der Unsicherheit, wie der Einsatz solcher Systeme bei Bewerbern ankommt.

Bereits häufig anzutreffen sind KI-basierte Systeme zur Optimierung von Stellenanzeigen, etwa durch automatischen Abgleich mit den Unternehmenszielen und Job-Profilen. Vor allem in internationalen Konzernen werden regelmäßig auch KI-basierte Chatbots eingesetzt, die Fragen von Bewerbern zu ausgeschriebenen Stellen oder dem Bewerbungsprozess beantworten.

 

HRP: Und in der Zukunft?

Dr. Förster: Wir erwarten einen weiteren Zuwachs beim Einsatz vom KI im Auswahlprozess, z.B. bei der Suche nach geeigneten Kandidaten für eine zu besetzende Stelle in berufsbezogenen Netzwerken. KI kann auch prüfen, ob Kandidaten die formalen Voraussetzungen einer Stelle erfüllen und ein Rating erstellen. Auch die Bewertung von Kandidaten auf Basis öffentlich zugänglicher Informationen, etwa zur Eignung für eine bestimmte Tätigkeit oder möglichen Reputationsrisiken käme in Betracht. Außerdem sind Text-, Stimm-, Sprach- oder Videoanalysetools interessant, die in Interviews oder Assessment-Centern zum Einsatz kommen.

Durchsetzen werden sich vor allem solche KI-basierten Tools, die den zeitlichen Aufwand für die HR-Abteilungen in Bewerbungsverfahren erheblich reduzieren. Es zeichnet sich allerdings ab, dass nicht alle technisch möglichen Optionen auch rechtlich zulässig sein werden.

 

HRP: Stehen diese Ideen nicht in Konflikt mit dem Arbeitnehmerdatenschutz?

Dr. Förster: Der Datenschutz setzt dem Einsatz von KI Grenzen. Die Erhebung von personenbezogenen Daten über Bewerber muss stets erforderlich und angemessen sein, was z.B. bei einer Recherche in freizeitorientierten sozialen Netzwerken wie Facebook oder Instagram von deutschen Datenschutzbehörden in der Regel verneint wird. Unzulässig ist auch die Erstellung umfassender Persönlichkeitsprofile durch eine KI. Art. 22 Abs. 1 der Europäischen Datenschutz-Grundverordnung sieht zudem vor, dass der Einzelne das Recht hat, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu sein. Das bedeutet, dass die Letztentscheidung über die Ablehnung oder die Einstellung eines Bewerbers nicht bei einem KI-System liegen darf. Das System darf die Entscheidung lediglich vorbereiten, getroffen werden muss sie aber von einem Menschen mit entsprechender Entscheidungsbefugnis.

 

HRP: Welches sind die größten Risiken beim Robot Recruitment aus arbeitsrechtlicher Sicht?

Dr. Förster: Neben den datenschutzrechtlichen Risiken sehen wir auch das Risiko von Diskriminierungen durch KI-basierte Anwendungen. Zwar werben die Anbieter KI-basierter Anwendungen häufig damit, objektive, faktenbasierte Entscheidungen zu ermöglichen, die weniger von Vorurteilen oder subjektiven Empfindungen eines Entscheidungsträgers geprägt sind. Eine unzureichende Programmierung oder eine ungenügende Datengrundlage kann aber dazu führen, dass das System logische Schlüsse im Rahmen des Selbstlernprozesses zieht, welche die Gefahr einer (nicht intendierten) Diskriminierung begründen.

 

HRP: Wie muss man sich das genau vorstellen?

Dr. Förster: Wurde etwa der Algorithmus fast ausschließlich mit Daten männlicher Bewerber trainiert, kann es bei der Anwendung zu einer Benachteiligung von Bewerberinnen kommen. Bei dem Einsatz von Sprachanalysetools ist zu bedenken, dass Personen mit einer Sprachbehinderung oder Nicht-Muttersprachler ggf. von dem System nicht angemessen analysiert werden (können), wenn es Unterschiede im Hinblick auf Sprachrhythmus, Satzbau oder Wortwahl gibt. So kann es zu einer Diskriminierung wegen einer Behinderung oder der Herkunft kommen. Die Folgen können beispielsweise Schadensersatz- und Entschädigungsansprüche sein.

 

HRP: Welche Grenzen sollten KI gesetzt werden?

Dr. Förster: Schon das geltende Recht zieht dem Einsatz von KI Grenzen, wie das bereits erwähnte Verbot automatisierter Entscheidungen in Art. 22 der Datenschutzgrundverordnung. Darüber hinaus gibt es derzeit verschiedene regulatorische Bestrebungen auf nationaler und europäischer Ebene. Ein gemeinsames Papier des Bundesministeriums für Arbeit und Soziales und des Bundesministerium des Inneren und für Heimat aus April 2023 mit Vorschlägen für einen modernen Beschäftigtendatenschutz verweist u.a. auf den Regelungsbedarf bei der Bewerberauswahl mit Hilfe von KI. Ein konkreter Entwurf für ein Beschäftigtendatenschutzgesetzes liegt allerdings noch nicht vor.

Im Zentrum der regulatorischen Bemühungen steht die KI-Verordnung auf EU-Ebene, die im März 2024 durch das EU-Parlament verabschiedet werden soll.  Dem Entwurf zufolge sollen KI-Systeme mit einem sog. unannehmbarem Risiko verboten werden. Im Arbeitskontext sind dies etwa Systeme zur Emotionserkennung am Arbeitsplatz und zur Kategorisierung einzelner Personen aufgrund biometrischer Daten, um daraus die ethnische Herkunft, politische Auffassungen, Zugehörigkeit zu einer Gewerkschaft, religiöse oder weltanschauliche Überzeugungen oder die sexuelle Orientierung abzuleiten.

Für KI-Systeme mit einem sog. hohen Risiko werden zusätzliche rechtliche Verpflichtungen geschaffen, wie beispielsweise eine menschliche Aufsicht für die KI-Systeme, die über die erforderliche Kompetenz, Ausbildung und Befugnis sowie die notwendige Unterstützung verfügt.

Hierunter werden beispielsweise KI-Systeme fallen, die für die Auswahl von Personen verwendet werden sollen, insbesondere für die Bekanntmachung gezielter Stellenausschreibungen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern.

 

HRP: Wann sollten KI-Entscheidungen überprüft und hinterfragt werden?

Dr. Förster: Schon vor dem ersten Einsatz von KI sollten Unternehmen die Anwendung „auf Herz und Nieren“ prüfen, um Diskriminierungsrisiken möglichst auszuschließen. Wie bereits dargelegt muss zudem die Letztentscheidung über die Stellenbesetzung immer bei einem Menschen und nicht bei der KI liegen. Es empfiehlt sich auch die regelmäßige zumindest stichprobenartige Überprüfung der Ergebnisse und der Trainingsdaten der KI, da Diskriminierungsrisiken auch durch die Anwendung und entsprechendes „Training“ der KI entstehen können.

Zu bedenken ist auch, dass bei dem geplanten Einsatz KI-basierter Systeme im Betrieb der Betriebsrat einzubeziehen ist. Je nach geplantem Einsatz der KI bestehen Informations- und Beratungsrechte und ggf. sogar ein Zustimmungserfordernis.

 

HRP: Vielen Dank für das interessante Interview.

 

Dr. Julia Förster
© Freshfields Bruckhaus Deringer

Dr. Julia Förster, Counsel, Freshfields Bruckhaus Deringer

Andere interessante News

Gleichstellung

Gleichberechtigung und Gleichstellung

Dem Willen nach streben 84 Prozent der Männer und 89 Prozent der Frauen nach einer ausgeglichenen Arbeitsteilung. Doch die Wirklichkeit sieht anders aus. Auch beim Thema Kinderbetreuung geht die Selbsteinschätzung von Männern und Frauen auseinander. Dabei stand es um die gleichberechtigte Sorgearbeit während der Pandemiezeit besser.

KI-Assistent

Wachstum für KMU und Buchhalter dank generativer KI

Copilot wird für Buchhalter die Zusammenarbeit und Kommunikation mit Kunden revolutionieren. Durch die Automatisierung der Datenerfassung und -zusammenführung wird der Zeit- und Arbeitsaufwand für diese manuellen Aufgaben erheblich reduziert und mögliche Fehler minimiert.

Digitalexperte

Digitalisierungsberufe: So viele Fachkräfte fehlen bis 2027

Gefragt sind beispielsweise Informatiker, Elektroniker, Elektro-Ingenieure oder technische Systemplaner. Wie sich die Fachkräftesituation in solchen Digitalisierungsberufen verändern könnte, zeigt eine neue IW-Studie. Bis 2027 wird die Zahl der Beschäftigten in diesen Berufen um knapp 14 Prozent auf mehr als drei Millionen steigen.