Künstliche Intelligenz: Wie funktioniert diskriminierungsfreies Recruiting?
![Dr. Philipp Karl Seegers](https://www.healthrelations.de/app/uploads/resized/2024/08/Dr.-Seegers-100x54-c-center.jpg)
"Unser Ziel ist es, den Arbeitsmarkt diskriminierungsfreier zu machen", sagt Dr. Philipp Karl Seegers, Geschäftsführer von candidate select GmbH (CASE). Er hat nach seiner Promotion in Volkswirtschaftslehre zusammen mit den Mitbegründern seines Unternehmens einen Algorithmus entwickelt, mit dem akademische Abschlüsse auf Basis großer Datensätze verglichen werden können. Inzwischen berücksichtigt der Algorithmus auch ausländische und nicht-akademische Abschlüsse.
© Screenshot[/caption]
Die Vision: Mit einem Kontrollmechanismus sollen Algorithmen Diskriminierung messbar machen. Außerdem sollen sie Lebensläufe fair und zuverlässig vorauswählen. Bei der Optimierung und Validierung dieser Algorithmen unterstützen die assoziierten Partner Deutsche Telekom, Studitemps, Simon Kucher & Partners und Viega das Projekt. Das Forschungsvorhaben wird mit einem Gesamtvolumen von rund einer Million Euro im Zeitraum vom 01.01.2020 bis zum 31.12.2021 durchgeführt und mit Fördermitteln der europäischen Kommission und des Landes Nordrhein-Westfalen unterstützt.
Der Name, die Herkunft, das Geschlecht des Bewerbers – schon mit diesen wenigen Informationen erstellt unser Gehirn ein Bild eines Kandidaten. Das kann starke Auswirkungen auf die Entscheidung im Auswahlprozess haben. Diskriminierungsfreies Recruiting verfolgt das Ziel, solche kognitiven Verzerrungen menschlicher Entscheidungen bei der Personalauswahl zu neutralisieren, um keinen zu benachteiligen. Es geht im Kern um die Fragen: Wie übersehe ich niemanden? Wie vermeide ich es, den falschen Bewerber einzustellen?
Mit KI Diskriminierung im Recruiting abbauen
Aktuell arbeitet sein Unternehmen gemeinsam mit der Universität Köln an dem Forschungsprojekt FAIR. Die Abkürzung steht für "Fair Artificial Intelligence Recruiting". Ziel ist es, anhand von Algorithmen Diskriminierungsfaktoren im Recruiting systematisch zu erkennen und zu beseitigen. "Algorithmen sind per se neutraler als Menschen und diesen Vorteil wollen wir fürs Recruiting nutzen." Informationen wie Bildung, berufliche Erfahrung, außeruniversitäres und soziales Engagement, aber auch Fähigkeiten, wie das Beherrschen bestimmter Programmiersprachen oder Sprachkenntnisse fließen in den Algorithmus ein. Ein speziell entwickelter Index macht zudem Diskriminierungsneigungen von Algorithmen und Menschen in Bewerbungsprozessen messbar. Fotos werden in dem Screening nicht berücksichtigt, um eine Beeinflussung durch das Aussehen, Geschlecht und Herkunft des Bewerbers zu vermeiden. "Und im Gegensatz zum Menschen kann man bei einem Algorithmus auch sicherstellen, dass er ein eventuell auf dem Lebenslauf befindliches Foto wirklich ignoriert." Algorithmen könnten zudem besser als Menschen fehlerhafte oder manipulierte Angaben identifizieren. Außerdem treffen sie ihre Entscheidungen unabhängig von Stress oder Müdigkeit.Fair Artificial Intelligence Recruiting
[caption id="attachment_24945" align="alignleft" width="200"]![FAIR Projekt](https://www.healthrelations.de/app/uploads/2024/08/FAIR-300x177.jpg)