Dass künstliche Intelligenz (KI) nicht mehr aus dem öffentlichen Diskurs wegzudenken ist, sollte mittlerweile so gut wie jedem Leser unseres Blogs klar geworden sein. An KI werden besondere Anforderungen durch den Datenschutz, als auch durch die KI-Verordnung (KI-VO) gestellt, wie wir hier geschildert haben. Dass die Bewertung eines KI-Systems im Einzelfall durchaus komplex ist und mitunter seltsame Blüten treibt, wollen wir heute anhand eines Beispiels aus dem Personalbereich zeigen.

KI-Einsatz im Recruiting

Insbesondere im Rahmen des Recruitings bestehen diverse Möglichkeiten, Auswahlprozesse mittels KI-Einsatz zu optimieren. Bereits im Rahmen der Gestaltung von Stellenanzeigen ist KI in der Lage, historische Daten (z. B. erfolgreich ausgefüllte Positionen) zu analysieren und Formulierungen vorzuschlagen, um die Wahrscheinlichkeit zu erhöhen, dass passende Bewerber angesprochen werden. Begriffe, die potenziell abschreckend wirken, wie geschlechtsspezifische oder zu technische Sprache, können automatisch erkannt und angepasst werden. Darüber hinaus kann KI durch die Analyse von Bewerberdaten und Markttrends empfehlen, welche Kompetenzen, Qualifikationen und Benefits besonders relevant sind, um die Attraktivität der Anzeige zu steigern.

Darüber hinaus ist auch eine personalisierte Ausspielung gegenüber potenziellen Bewerbern möglich. Mithilfe von Algorithmen kann die KI analysieren, welche Kandidaten auf Basis ihrer Online-Aktivitäten, Lebensläufe oder Social-Media-Profile potenziell an einer Position interessiert sind. So werden Anzeigen gezielt an Personen ausgespielt, die tatsächlich zur Rolle passen. Auch sind dynamische Inhalte denkbar. KI kann Anzeigen in Echtzeit anpassen, um spezifische Interessen und Präferenzen der Zielgruppe widerzuspiegeln. Beispielsweise könnte eine Anzeige für eine Marketingposition unterschiedliche Schwerpunkte setzen, je nachdem, ob der potenzielle Bewerber Erfahrung im digitalen oder klassischen Marketing hat.

Auch im Rahmen der Auswahl von Bewerbern ist der Einsatz von KI denkbar. So können beispielsweise Lebensläufe und Anschreiben analysiert werden, um relevante Qualifikationen, Kompetenzen und Erfahrungen zu identifizieren. Auch können Systeme die Anforderungen der Stelle mit den Daten der Bewerber vergleichen und Ranglisten der am besten passenden Kandidaten erstellen, wobei die Letztentscheidungsbefugnis bei einem Menschen verbleiben muss. Solche Systeme könnten möglicherweise auch Soft Skills oder kulturelle Passung berücksichtigen, wenn entsprechende Daten vorliegen. Auch können Video-Interviews oder Online-Assessments hinsichtlich potenzieller Stärken und Schwächen mittels KI analysiert und ausgewertet werden.

Einordnung des KI-Systems im Rahmen der KI-VO

Für die Einordnung eines solchen KI-Systems in den Regelungsdschungel der KI-VO konzentrieren wir uns im Rahmen dieses Beitrags auf die Einschätzung, ob es sich hierbei um ein Hochrisiko-System nach Art.6 KI-VO handeln würde. Dies dürfte bereits ausreichen, um jedem Leser die Undurchsichtigkeit der KI-VO nahezubringen.

Nach Art.6 Abs.1 KI-VO handelt es sich bei dem zu überprüfenden KI-System um ein Hochrisiko-System mit entsprechend umfangreichen Pflichtenkatalogen aus der KI-VO, sofern

  1. das KI-System als Sicherheitsbauteil eines Produkts verwendet wird, welches unter die in Anhang I zur KI-VO aufgeführten Harmonisierungsvorschriften fällt, oder wenn das KI-System selbst ein solches Produkt ist und
  2. dieses Produkt, bzw. das KI-System selbst einer Konformitätsbewertung durch Dritte im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme gemäß dieser Harmonisierungsvorschriften unterzogen wird

Wer sich nun einmal die Vorschriften in Anhang I anschaut, findet dort wohlklingende Richtlinien wie „Richtlinie 2013/53/EU […] über Sportboote und Wassermotorräder und zur Aufhebung der Richtlinie 94/25/EG“. Sofern der Verdacht nahesteht, dass ein KI-System als Sicherheitsbauteil eines Produkts, dass zum Beispiel dieser Richtlinie unterfällt, verwendet werden soll, wäre dies anhand dieser Richtlinie zu prüfen.

Da diese Richtlinien oftmals nicht durch Übersichtlichkeit und leichte Verständlichkeit punkten, ist bereits dieser erste Schritt zeitaufwändig und bindet Ressourcen.

Bezogen auf Recruiting-Tools scheidet ein Unterfallen unter Harmonisierungsvorschriften nach Anhang I aus. Allerdings gibt es nach Art.6 KI-VO noch eine zweite Möglichkeit, wann ein Hochrisiko-System vorliegen kann.

Regelungen über Regelungen

Nach Art.6 Abs.2 KI-VO gelten zusätzlich zu den in Absatz 1 genannten Systemen auch die in Anhang III KI-VO genannten KI-Systeme als hochriskant.

Dies umfasst unter anderem KI-Systeme, die für biometrische Erkennung eingesetzt werden, oder zur Strafverfolgung oder den Zugang zu grundlegenden öffentlichen Diensten und Leistungen eingesetzt werden.

Unter Nr. 4 werden dabei auch KI-Systeme erfasst, die im Bereich Beschäftigung und Personalmanagement eingesetzt werden. Dies könnte für KI-Systeme im Bereich Recruiting einschlägig sein.

Der Einsatz von KI-Systemen zu den oben genannten Zwecken im Recruiting fällt dabei bereits unter Nr. 4 lit. a), der ausdrücklich KI-Systeme benennt, die bestimmungsgemäß verwendet werden, um gezielte Stellenanzeigen zu schalten, Bewerbungen zu sichten oder zu filtern und Bewerber zu bewerten.

Wer jetzt denkt, dass damit die Einordnung als Hochrisiko-System feststeht und man sich den Pflichten aus der KI-VO widmen kann, der liegt allerdings falsch.

Stattdessen geht es nun mit der Ausnahme in Art.6 Abs.3 KI-VO weiter. Denn danach handelt es sich trotz des Unterfallens des KI-Systems unter Anhang III nicht um ein Hochrisikosystem, wenn es „kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.“

Dies soll der Fall sein, wenn eine der anschließend im Gesetzestext aufgeführten Bedingungen erfüllt ist. Für unseren Fall des KI-Einsatzes im Rahmen des Recruitings könnte hier lit. d) einschlägig sein, da das KI-System „dazu bestimmt (ist), eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke, der in Anhang III aufgeführten Anwendungsfälle relevant ist.“

Hier könnte argumentiert werden, dass der Einsatz von KI-Systemen für das Schalten von personalisierten Stellenanzeigen und auch die Bewertung bzw. das Vorsortieren von Bewerbungsunterlagen eine Vorbereitung für die letztendliche menschliche Entscheidung im Rahmen des Personalmanagements nach Anhang III der KI-VO darstellt.

Die Folge: Es handelt sich bei dem entsprechenden KI-System dann trotz des grundsätzlichen Unterfallens unter Anhang III KI-VO nicht um ein Hochrisiko-System.

War’s das?

Ist damit also die Einordnung beendet? Aber natürlich nicht, denn da wo es eine Ausnahme gibt, gibt es auch immer mindestens eine Ausnahme von der Ausnahme. Diese findet sich in Art. 6 Abs.3 S.3 KI-VO.

Danach handelt es sich bei dem zu prüfenden KI-System dann doch wieder um ein Hochrisiko System, wenn es ein Profiling einer natürlichen Person vornimmt. Für die Definition des Begriffs „Profiling“ verweist dann Art. 3 Nr.52 KI-VO auf die Definition in Art. 4 Nr. 4 DSGVO.

Danach liegt Profiling vor, wenn „personenbezogene Daten verwendet werden, um bestimmte persönliche Aspekte (einer natürlichen Person) zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, (…) persönlicher Vorlieben, Interessen, Zuverlässigkeit, Verhalten (…) zu analysieren oder vorherzusagen.“

Dies könnte je nach Einsatz des KI-Systems im Rahmen des Recruitings vorliegen. Zwar erscheint dies bei Vorschlägen für die Erstellung von Stellenanzeigen nicht zuzutreffen, sofern ein KI-System aber dazu genutzt wird eine Vorauswahl der BewerberInnen anhand solcher persönlichen Aspekte zu treffen, oder auch um anhand persönlicher Interessen Stellenausschreibungen auf die spezifische Person zuzuschneiden, erscheint eine Prüfung dieser Rückausnahme erforderlich.

Die Folge: Je nach Einsatzzweck und Ausgestaltung kann es sich bei dem eingesetzten KI-System somit doch um ein Hochrisikosystem i.S.d. KI-VO handeln. Hier ist, wie so oft bei Juristen, eine Einzelfallentscheidung gefragt.

Wer sich also von der KI-VO erhofft hat, dass diese klar und eindeutig die Klassifizierung von KI-Systemen ermöglicht, der sieht sich bereits durch die Regelungen in Art.6 KI-VO eines Besseren belehrt.

Fazit

Die KI-VO und ihr Wechselspiel zwischen Ausnahmen, Rückausnahmen und Verweisen auf Anhänge, Harmonisierungsvorschriften und weitere europäische Rechtsakte führt nicht zu einer Vereinfachung der Entwicklung und Anwendung von KI-Systemen und -Modellen, sondern vielmehr zu einer weiteren bürokratischen Belastung für Unternehmen.

Bereits beim Prüfen der Einordnung eines KI-Systems nach Art.6 KI-VO fühlt man sich unweigerlich an Asterix und Obelix und ihrer Jagd nach dem Passierschein A 38 erinnert. Dies wird noch verstärkt durch die fast schon wie eine Drohung wirkenden Art.6 Abs. 5 – Abs.8 KI-VO, nach denen die EU-Kommission noch Leitlinien zur praktischen Umsetzung des Art.6 KI-VO, sowie eine umfassende Liste praktischer Beispiele bereitstellen will und befugt ist, auch zusätzliche Ausnahmen von der Einordnung als Hochrisiko-System i.S.d. Art.6 Abs.3 Unterabsatz 2 KI-VO hinzuzufügen bzw. zu ändern.

Das erklärte Ziel der KI-VO, einen sicheren und einfachen Datenbinnenmarkt zu schaffen und so „KI made in EU“ zu einem Innovationstreiber zu machen, wird so sicher nicht erreicht. Vielmehr ist zu befürchten, dass sich die KI-VO und der damit einhergehende weiter steigende Bürokratieaufwand als Innovationsbremse erweist.

Bei dem schwierigen Weg durch den gesamten Regelungsdschungel der KI-Verordnung beraten wir Sie gerne. Weitere Informationen finden Sie auch hier.