Künstliche Intelligenz: Wie funktioniert diskriminierungsfreies Recruiting?

154
Dr. Philipp Karl Seegers
Dr. Philipp Karl Seegers, Geschäftsführer von candidate select: "Algorithmen sind per se neutraler als Menschen." © candidate select GmbH

Algorithmen können besser als Menschen diskriminierungsfreie Recruiting-Entscheidungen treffen. Diese Vision steht am Anfang des Forschungsprojekts „FAIR“ – Fair Artificial Intelligence Recruiting. Ein Gespräch mit Initiator Dr. Philipp Karl Seegers,  Geschäftsführer des HR-Tech-Unternehmens candidate select.

Der Name, die Herkunft, das Geschlecht des Bewerbers – schon mit diesen wenigen Informationen erstellt unser Gehirn ein Bild eines Kandidaten.  Das kann starke Auswirkungen auf die Entscheidung im Auswahlprozess haben. Diskriminierungsfreies Recruiting verfolgt das Ziel, solche kognitiven Verzerrungen menschlicher Entscheidungen bei  der Personalauswahl zu neutralisieren, um keinen zu benachteiligen. Es geht im Kern um die Fragen: Wie übersehe ich niemanden? Wie vermeide ich es, den falschen Bewerber einzustellen?

„Unser Ziel ist es, den Arbeitsmarkt diskriminierungsfreier zu machen“, sagt Dr. Philipp Karl Seegers,  Geschäftsführer von candidate select GmbH (CASE). Er hat nach seiner Promotion in Volkswirtschaftslehre zusammen mit den Mitbegründern seines Unternehmens einen Algorithmus entwickelt, mit dem akademische Abschlüsse auf Basis großer Datensätze verglichen werden können. Inzwischen berücksichtigt der Algorithmus auch ausländische und nicht-akademische Abschlüsse.

Mit KI Diskriminierung im Recruiting abbauen

Aktuell arbeitet sein Unternehmen gemeinsam mit der Universität Köln an dem Forschungsprojekt FAIR. Die Abkürzung steht für „Fair Artificial Intelligence Recruiting“.  Ziel ist es, anhand von Algorithmen Diskriminierungsfaktoren im Recruiting systematisch zu erkennen und zu beseitigen. „Algorithmen sind per se neutraler als Menschen und diesen Vorteil wollen wir fürs Recruiting nutzen.“ Informationen wie Bildung, berufliche Erfahrung, außeruniversitäres und soziales Engagement, aber auch Fähigkeiten, wie das Beherrschen bestimmter Programmiersprachen oder Sprachkenntnisse fließen in den Algorithmus ein. Ein speziell entwickelter Index macht zudem Diskriminierungsneigungen von Algorithmen und Menschen in Bewerbungsprozessen messbar.

Fotos werden in dem Screening nicht berücksichtigt, um eine Beeinflussung durch das Aussehen, Geschlecht und Herkunft des Bewerbers zu vermeiden. „Und im Gegensatz zum Menschen kann man bei einem Algorithmus auch sicherstellen, dass er ein eventuell auf dem Lebenslauf befindliches Foto wirklich ignoriert.“ Algorithmen könnten zudem besser als Menschen fehlerhafte oder manipulierte Angaben  identifizieren. Außerdem treffen sie ihre Entscheidungen unabhängig von Stress oder Müdigkeit.

Fair Artificial Intelligence Recruiting
FAIR Projekt
© Screenshot

Die Vision: Mit einem Kontrollmechanismus sollen Algorithmen Diskriminierung messbar machen. Außerdem sollen sie Lebensläufe fair und zuverlässig vorauswählen. Bei der Optimierung und Validierung dieser Algorithmen unterstützen die assoziierten Partner Deutsche Telekom, Studitemps, Simon Kucher & Partners und Viega das Projekt. Das Forschungsvorhaben wird mit einem Gesamtvolumen von rund einer Million Euro im Zeitraum vom 01.01.2020 bis zum 31.12.2021 durchgeführt und mit Fördermitteln der europäischen Kommission und des Landes Nordrhein-Westfalen unterstützt.

Unbewusste Verzerrungen beim Lebenslauf-Screening

Warum ist diskriminierungsfreies Recuriting für Personaler so wichtig? „Zusätzlich zu der ethischen und moralischen Dimension verursacht Diskriminierung im Recruiting, simpel gesagt, betriebswirtschaftliche Kosten“, so Dr. Philipp Karl Seegers.  Zwar sei in den letzten Jahren einiges erreicht worden, beispielsweise entwickeln viele Unternehmen Pläne, wie sie ihre Personalarbeit verändern wollen, doch die Forschung auf dem Gebiet zeige: Die Benachteiligungen bestimmter Gruppen bestehen weiterhin. „Wichtig hierbei ist, die meisten Personaler wollen gar nicht diskriminieren. Es handelt sich oft um eher unterbewusste Verzerrungen, weshalb Diskriminierung in frühen Prozessschritten wie dem Lebenslauf-Screening stärker auftritt als zum Beispiel im Interview.“

Und was ist mit dem „Bauchgefühl“ und der Erfahrung eines Personalverantwortlichen, zählen die beim diskriminierungsfreien Recruiting künftig nicht mehr? „Menschen sind sehr gut darin, Dinge wie Sympathie schnell einzuschätzen, das können Algorithmen nicht. Allerdings haben wir ja in vielen Situationen HR-Verantwortliche, die die Bewerberinnen und Bewerber zwar auswählen, später aber gar nicht mit diesen zusammenarbeiten. Und unser Bauchgefühl beschreibt ja oft etwas, das ich gar nicht genau erklären kann.“ Infolge dessen komme es zu den kognitiven Verzerrungen bei der Entscheidung. Hier kann die Technik dabei helfen, vorauszuwählen, zu sortieren und zu beraten. „Aber das bedeutet nicht, dass in der Zukunft Recruiterinnen und Recruiter nicht mehr gebraucht werden. Die letzte Entscheidungsinstanz soll beim Menschen liegen.“

SCHREIBE EINEN KOMMENTAR

Please enter your comment!
Please enter your name here