News

HR-KI unter der Lupe

Künstliche Intelligenz ist manchmal gar nicht so intelligent. Im Gegenteil: Je nachdem, mit welchen Daten aus der Vergangenheit ein Algorithmus gefüttert wird, können beim Einsatz von KI auch unfaire und unzuverlässige Szenarien herauskommen. Weil dies nicht zuletzt beim KI-Einsatz im Personalmanagement problematisch ist, widmet sich seit einigen Monaten das Forschungsprojekt „ExamAI – KI Testing & Auditing“ unter anderem der Erforschung von KI-Anwendungen in diesem Sektor. Genauer gesagt, geht es in dem unter Leitung der Gesellschaft für Informatik e.V. (GI) stehenden Projekt darum, Anforderungen an wirkungsvolle Test- und Auditverfahren für KI zu beschreiben und Vorschläge für deren Implementierung zu entwickeln. Nun haben die Forscher erste Zwischenergebnisse ihrer Arbeit vorgelegt – darunter eine Publikation, die sich um „KI-Systeme im Personal- und Talentmanagement“ dreht (zu finden unter:
testing-ai.gi.de/fileadmin/PR/Testing-AI/ExamAI_Publikation_Anwendungsszenarien_KI_HR.pdf). Die dort beschriebenen Szenarien, einschließlich der aufgeworfenen Problem- und Fragestellungen, sollen die Basis für weitere Untersuchungen und Diskussionen bieten, um die Gefahren von Ungleichbehandlungen, Sicherheitsrisiken und Rechtsverstößen bei der Anwendung von KI im Personalbereich einzudämmen. Andere Experten und Expertinnen, aber auch Betroffene sowie die interessierte Fachöffentlichkeit sind ausdrücklich dazu aufgefordert, sich an dem Open-Science-Projekt zu beteiligen und in den Austausch mit den Forschern zu treten.
​

Wir setzen mit Ihrer Einwilligung Analyse-Cookies ein, um unsere Werbung auszurichten und Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Bei dem eingesetzten Dienstleister kann es auch zu einer Datenübermittlung in die USA kommen. Ihre Einwilligung bezieht sich auch auf die Erlaubnis, diese Datenübermittlungen vorzunehmen.

Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen zur Datenverarbeitung und den damit verbundenen Risiken finden Sie hier.
Akzeptieren Nicht akzeptieren
nach oben Nach oben