Für alle Fragen rund um unsere Webseite, unsere Medien und Abonnements finden Sie hier den passenden Ansprechpartner:
Übersicht AnsprechpartnerGender Bias sind nicht nur menschlich, sondern stecken auch in generativer KI. Das zeigt eine Studie eines Forschungsteams der UC Berkeley, der Stanford University und der University of Oxford. Für die Studie ließen die Forschenden ChatGPT fast 40.000 Lebensläufe für 54 unterschiedliche Berufe generieren. Teilweise wurden dabei typisch männliche oder weibliche Vornamen vorgegeben, die hinsichtlich Popularität, ethnischer Zuschreibung und weiterer Merkmale aufeinander abgestimmt waren, einige Profile erstellte ChatGPT ohne Namensvorgabe vollständig selbst. Anschließend wiesen die Forschenden ChatGPT zusätzlich dazu an, die generierten Lebensläufe zu bewerten.
Trugen die Profile weiblich konnotierte Namen, schrieb die KI den betreffenden Personen im Durchschnitt ein um 1,6 Jahre geringeres Alter zu und attestierte ihnen weniger Berufserfahrung als vergleichbaren Profilen mit männlichen Namen. Außerdem bewertete die KI männliche Profile bei identischen Berufen und Positionen systematisch besser und stufte sie als geeigneter ein. Diese Ergebnisse zeigten sich unabhängig davon, ob die Namen für die Lebensläufe vorgegeben wurden oder ob ChatGPT sie selbst generierte, was laut den Forschenden zeigt, dass die Voreingenommenheit der Technologie tief im System verankert ist.
Beitrag von Janine Dengel aus managerSeminare 338, Mai 2026