News

Lernende Systeme im Recruiting
Lernende Systeme im Recruiting

KI goes Gesetz?

Während in der EU noch heiß über die Chancen und Risiken eines allgemeinen KI-Gesetzes diskutiert wird, machen einige Gesetzgeber in den USA bereits Nägel mit Köpfen – und das sogar in sehr spezifischen Bereichen wie dem Recruiting. In New York ist dazu nun das erste Regelwerk verabschiedet worden. Doch was genau beinhaltet es? Wie ist der Stand in der EU? Und was gilt es für Unternehmen zu beachten?

Lebenslauf-Scanning, intelligentes Chat-Botting, Erstellen von Stellenanzeigen – schon lange werden Künstliche Intelligenz und automatisierte Systeme von Unternehmen und Arbeitsvermittlungsagenturen im Rahmen der Personalbeschaffung eingesetzt. Jetzt ist das nicht mehr so ohne Weiteres möglich – zumindest nicht in New York. Am 5. Juli 2023 verabschiedete das New Yorker Department of Consumer and Worker Protection (DCWP) ein Gesetz, das die Nutzung von „Automated Employment Decision Tools“ (AEDT) regeln soll. Als AEDT gilt dabei „jeder Rechenprozess, der aus maschinellem Lernen, statistischer Modellierung, Datenanalyse oder künstlicher Intelligenz abgeleitet ist und vereinfachten Output liefert – einschließlich einer Bewertung, Klassifizierung oder Empfehlung –, der dazu dient, Ermessensentscheidungen im Hinblick auf Beschäftigungsentscheidungen, die Auswirkungen auf natürliche Personen haben, wesentlich zu unterstützen oder zu ersetzen“.

Zwar dürfen Unternehmen und Personalagenturen diese Systeme weiterhin einsetzen, jedoch sind sie – so sieht es das neue Gesetz vor – fortan dazu verpflichtet, Kandidatinnen und Kandidaten mitzuteilen, welche KI-Instrumente bei der Personalauswahl zum Einsatz kommen und welche Kriterien und Merkmale diese zur Prüfung der beruflichen Qualifikation heranziehen.

Bias-Audit für KI-Tools vor

Zudem sind Unternehmen und Arbeitsvermittlungsagenturen dazu angehalten, die Tools ein Jahr vor ihrer Anwendung im Einstellungsverfahren einem sogenannten Bias-Audit zu unterziehen, dessen Durchführungsdatum und Ergebnisse öffentlich einsehbar sein müssen. Dabei handelt es sich um eine Untersuchung, bei der ein unabhängiger Prüfer die Systeme auf mögliche „Verzerrungen“ hin überprüft und sicherstellt, dass diese nicht vorliegen – sprich: die Gleichbehandlung von Menschen, unabhängig ihrer Herkunft, Rasse sowie ihres Geschlechts, gegeben ist.

Verzerrungen durch KI sind nicht selten

Dass die Durchführung eines solchen Bias-Audits durchaus Sinn ergibt, wird mit Blick auf die Forschung deutlich. So weisen die Ergebnisse verschiedener Studien darauf hin, dass Verzerrungen durch KI keineswegs eine Seltenheit sind. Zu diesem Schluss kommen auch die Wirtschaftswissenschaftler Lara Fleck, Nicholas Rounding und Pelin Özgül. In ihrer im Rahmen des Forschungsprojekts ai:conomics entstandenen und vom BMAS finanziell geförderten Publikation „Künstliche Intelligenz in der Personalauswahl“, für die sie einige dieser Studien untersucht haben, halten sie fest, dass auch KI durchaus voreingenommen sein und Vorurteile potenziell verstärken kann. Als Gründe nennt das Forschungs-Trio den Einsatz von nicht repräsentativen Daten und Trainingsmustern, falsch gelabelte Ergebnisse sowie voreingenommene Programmierer bzw. Programmiererinnen – kurz: Input, der bereits verzerrt in die lernenden Systeme gespeist wird und zur Reproduzierung diskriminierender Auswahlprozesse führt.

Die Erfahrung, welche gravierenden Auswirkungen das haben kann, hat der Online-Versandhändler Amazon gemacht. 2018 setzte der Technologiekonzern ein selbst entwickeltes, computergestütztes System ein, das KI und maschinelles Lernen verwendete, um Bewerberprofile automatisch zu analysieren und potenzielle Kandidatinnen und Kandidaten für Einstellungsgespräche zu identifizieren. Dabei nutzte das System Arbeitsleistungsdaten vergangener Einstellungen, um zu lernen, welche Bewerber bzw. Bewerberinnen erfolgreich waren. Da die überwiegende Mehrheit dieser Daten von Männern stammte, lernte die KI, männliche Bewerber zu bevorzugen und Frauen bzw. Bewerbende, deren Attribute mit Frauen assoziiert wurden, zu benachteiligen. Diese Voreingenommenheit wurde zwar nach einer internen Prüfung durch Amazon aufgedeckt, woraufhin das System nicht mehr verwendet wurde, führte aber zugleich die Gefahren und somit die Dringlichkeit einer Regelung des Einsatzes von KI vor Augen.

Europäer betrachten Regelwerk mit gemischten Gefühlen

Auch in Europa ist man sich dieser Dringlichkeit bewusst – und sogleich der blockierenden Wirkung, die ein Regelwerk und mögliche Einschränkungen in der Nutzung hinsichtlich Fortschritt und Wettbewerbsfähigkeit mit sich bringen könnten. „Es kommt jetzt darauf an, zügig einen klugen Weg zu finden, der uns genug Raum für den positiven Nutzen im Einsatz von KI lässt“, umriss Volker Wissing, Bundesminister für Digitales und Verkehr, kürzlich die Lage auf LinkedIn. Ideen, wie dieser Weg aussehen könnte, gibt es auch bereits. Im Dezember vergangenen Jahres einigten sich die EU-Staaten auf ein Regelwerk (s. Kasten), das einem risikobasierten Ansatz folgt – was so viel heißt, wie: je höher das Risiko bei der Nutzung der KI, desto strenger die Regeln. Die Hoffnung, die diesem Ansatz zugrunde liegt, dürfte klar sein: Innovationen fördern, ohne die Grundrechte von Menschen zu verletzen. Oder mit den Worten von Margrethe Vestager, Executive Vice-President for a Europe fit for the Digital Age, ausgedrückt: „Future-proof and innovation-friendly, our rules will intervene where strictly needed: when the safety and fundamental rights of EU citizens are at stake.“

Entwurf des europäischen KI-Gesetzes

1. Unannehmbares Risiko: KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme werden verboten. Sie umfassen:

  • kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, z.B. Kindern; 
  • soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
  • biometrische Echtzeit-Fernidentifizierungssysteme, zum Beispiel Gesichtserkennung – bis auf einige Ausnahmen.

2. Hochrisiko-KI-Systeme: KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt: 1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören z.B. Spielzeug und Luftfahrt. 2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen. Darunter: 

  • biometrische Identifizierung und Kategorisierung von natürlichen Personen; 
  • allgemeine und berufliche Bildung;
  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen. 

Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet.

3. Begrenztes Risiko: KI-Systeme mit begrenztem Risiko sollen minimale Transparenzanforderungen erfüllen, indem sie die Nutzenden z.B. darauf aufmerksam machen, wenn diese mit KI interagieren. Dies gilt auch für KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren (zum Beispiel Deepfakes).

Sonstiges: Generative Foundation-Modelle wie ChatGPT müssen zusätzliche Transparenzanforderungen erfüllen:

  • Offenlegung, dass der Inhalt durch KI generiert wurde;
  • Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
  • Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.
Quelle: managerseminare.de; Europäisches Parlament: europarl.europa.eu

Kein dringender Handlungsbedarf für Unternehmen

Für Unternehmen, die KI-Systeme im Einsatz haben, ergibt sich hieraus wohl so bald noch kein Handlungsbedarf. Denn obwohl die Abgeordneten sich kürzlich auf eine Position zur Regulierung von KI geeinigt haben, sind die Gespräche mit den Mitgliedsstaaten im Rat sowie der EU-Kommission über die endgültige Ausgestaltung des Gesetzes noch am Laufen. Bis diese Verhandlungen abgeschlossen sind, können gut noch Monate ins Land gehen – wenn nicht sogar Jahre. Laut einer Einschätzung der Tagesschau wird die KI-Verordnung wohl nicht vor 2026 anwendbar sein. Trotz der noch in weiter Zukunft vermuteten Auswirkungen des „AI Acts“ empfehlen Technologieexperten Unternehmen jedoch trotzdem, sich mit dem Regelwerk auseinanderzusetzen und die Konsequenzen möglicher Einschränkungen für die Arbeitsprozesse zu eruieren, etwa wenn ein KI-System im Bereich „Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit“ eingesetzt wird – wozu auch Rekrutierungstools zählen – und somit als „hochriskant“ gilt.

Anzeige
Dienstrad ist Must-have Benefit für Firmen
Dienstrad ist Must-have Benefit für Firmen
Im New Work-Umfeld kämpfen Unternehmen um die besten Köpfe. Für die Personalbindung und das Recruiting sind Benefits unerlässlich. Das Dienstrad ist dabei essentiell, ergab eine Lease a Bike-Studie.

Zudem schadet es sicher nicht, die ethischen Herausforderungen, die der Einsatz von KI immer mit sich bringt, im Unternehmen zu thematisieren. Laut der Vorsitzenden des deutschen Ethikrats, Alena Buyx, dürfe KI den Menschen zum Beispiel nicht ersetzen. Ziel des KI-Einsatzes sei es vielmehr, die menschliche Entfaltung zu erweitern – statt sie zu vermindern. Zusammen mit den anderen Mitgliedern des unabhängigen Beratungsgremiums legte Buyx Anfang des Jahres einen 287 Seiten umfassenden Bericht mit Empfehlungen zum Einsatz von KI vor. Zwar beziehen sie sich vorerst nur auf die vier Bereiche Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung, doch erstellte der Ethikrat ergänzend ein Kapitel zu zehn Querschnittsthemen, die bereichsübergreifend von Bedeutung für die ethische Einordnung von KI-Anwendungen sind. Darin empfiehlt er unter anderem, KI-Einsatz zu planen sowie dessen Folgen zu evaluieren, KI nur zum Zwecke der Unterstützung und nicht zum Zwecke der Ersetzung von Entscheidungen zu verwenden, menschliche Kontrolloptionen sicherzustellen, den Verlust menschlicher Fertigkeiten zu vermeiden und Datensouveränität und gemeinwohlorientierte Datennutzung zu gewährleisten.

Wir setzen mit Ihrer Einwilligung Analyse-Cookies ein, um unsere Werbung auszurichten und Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Bei dem eingesetzten Dienstleister kann es auch zu einer Datenübermittlung in die USA kommen. Ihre Einwilligung bezieht sich auch auf die Erlaubnis, diese Datenübermittlungen vorzunehmen.

Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen zur Datenverarbeitung und den damit verbundenen Risiken finden Sie hier.
Akzeptieren Nicht akzeptieren
nach oben Nach oben