Die Chancen von KI

Verantwortungsvolle KI im Recruiting bietet eine echte Chance, Diskriminierung systematisch zu reduzieren. Sämtliche Diskriminierungsmuster, die sich in einer KI manifestieren, stammen ja aus historischen Diskriminierungen durch menschliche Entscheidungen. Indem wir diese Biases in KI identifizieren und entfernen, kann KI dabei helfen, das reale Ausmaß an Diskriminierung gegenüber dem Status-Quo drastisch zu reduzieren. Wir möchten durch klare ethische Leitlinien und aktiver Forschung dazu beitragen, dass Kandidat:innen dank KI tatsächlich nach individuellen Fähigkeiten und Eignung ausgewählt werden – und nicht nach Stereotypen auf Basis von Geschlecht, Herkunft, Alter oder anderen personenbezogenen Merkmalen.

Mit KI lassen sich Diskriminierung und Grundrechtsverletzungen im Vergleich zu menschlichen Entscheidungsprozessen systematisch reduzieren! Wir verstehen uns als Vorreiter in der Entwicklung dazu geeigneter KI.

Wir verstehen uns nicht nur als Vorreiter im Bereich der Entwicklung leistungsfähiger KI-Systeme für das Active Sourcing, sondern auch in der Umsetzung und Weiterentwicklung des state of the art im Hinblick auf verantwortungsvolle KI. Dies betrifft nicht nur, aber insbesondere die Themen:

  • Grundrechte in Bezug auf die Verwendung von Daten für das KI-Training
  • Grundrechte bei der Anwendung von KI im Allgmeinen
  • Grundrecht der Diskriminierungsfreiheit im Speziellen

Wir möchten wir in diesem Artikel speziell darauf eingehen, was wir im Hinblick auf die Vermeidung von Diskriminierung unternehmen, da es sich hierbei um einen Themenbereich mit großen potentiellen Auswirkungen (positiven wie negativen) und gleichzeitig hoher technischer Komplexität handelt.

100% human-in-the-loop

Unabhängig von allen Anstrengungen zur Weiterentwicklung und Innovation im Bereich verantwortungsvoller KI führen wir bis auf Weiteres eine 100%-Qualitätsprüfung der KI-Ergebnisse durch hochqualifizierte Mitarbeiter:innen durch. Insbesondere die KI-generierten Shortlists werden von hochqualifizierten Mitarbeiter:innen mit mehrjähriger Berufserfahrung im Active Sourcing kontrolliert, bevor sie für die Ansprache von Kandidat:innen verwendet werden. Im Zuge der menschlichen Aufsicht gewinnen wir strukturierte und repräsentative Qualitätsdaten, die wir in den Entwicklungsprozess zurückfließen lassen.

Gestaltung der Datensätze

Ein unverzichtbarer Ansatzpunkt zur Vermeidung von Bias in KI-Systemen ist die Gestaltung und Überwachung der Trainingsdaten. Diesbezüglich ergreifen wir die folgenden Maßnahmen:

Keine Diskriminierungsmerkmale in Daten

Gemäß dem Allgemeinen Gleichbehandlungsgesetz (AGG) (§1 AGG) und Artikel 21 der Charta der Grundrechte der Europäischen Union (GRC) ist es unzulässig, Menschen aufgrund bestimmter persönlicher Merkmale zu benachteiligen. Diese Grundsätze gelten nicht nur für den Menschen als handelnde Instanz, sondern auch für den Einsatz automatisierter Systeme, etwa im Kontext von KI-basiertem Recruiting. Der EU AI Act verweist beispielsweise explizit auf Art. 21 GRC.

Das AGG (§1) schützt vor Benachteiligung wegen:

  • der Rasse oder ethnischen Herkunft
  • des Geschlechts
  • der Religion oder Weltanschauung
  • einer Behinderung
  • des Alters
  • der sexuellen Identität

Artikel 21 (1) GRC verbietet Diskriminierung insbesondere aufgrund von:

  • Geschlecht
  • Rasse
  • Hautfarbe
  • ethnischer oder sozialer Herkunft
  • genetischen Merkmalen
  • Sprache
  • Religion oder Weltanschauung
  • politischer oder sonstiger Anschauung
  • Zugehörigkeit zu einer nationalen Minderheit
  • Vermögen
  • Geburt
  • Behinderung
  • Alter
  • sexueller Ausrichtung
  • Staatsangehörigkeit

Wir verwenden im Zusammenhang mit unserem KI-System keine direkten Merkmale, die diesen gesetzlich geschützten Kategorien zuzuordnen sind. Das gilt sowohl für unsere Trainingsdaten als auch für die Daten, die im operativen Betrieb unserer KI-Systeme verwendet werden. Durch dieses Vorgehen schließen wir aus, dass die Systeme explizit auf Basis solcher Merkmale diskriminierende Muster lernen oder reproduzieren.

Keine verzichtbaren “Hoch-Risiko-Proxies” in Daten

Die Entfernung direkter Diskriminierungsmerkmale aus Daten (in Training und Nutzung) ist nicht hinreichend zur Vermeidung von Diskriminierungsmustern. Leistungsstarke KI-Modelle wie das unsere sind in der Lage Diskriminierungsmerkmale auch aus sehr schwach korrelierten anderen Merkmalen abzuleiten und dadurch entsprechende Muster zu lernen. Ein relativ offensichtliches Beispiel: Eine KI könnte aus der Bezeichnung einer Bildungseinrichtung Rückschlüsse auf die ethnische Herkunft ziehen. Solche indirekten Merkmale werden Proxies oder Proxy-Merkmale genannt.

Wir klassifizieren Attribute unserer Daten im Hinblick auf ihr Risiko, als Proxy auf diese Weise zu Diskriminierung beizutragen. Muss dieses Risiko als hoch bewertet werden, entfernen wie die Merkmale, sofern sie nicht unbedingt für die Funktionsfähigkeit des KI-Modells erforderlich sind. Dies sind insbesondere:

  • Namensbestandteile
  • Arbeitsort
  • Zeitpunkte/Jahreszahlen die länger als 10 Jahre zurückliegen (als Proxy für Alter)

Debiasing-Technologie

Selbst wenn die oben beschriebenen datenbezogenen Maßnahmen gewissenhaft umgesetzt werden, ist das noch keine Garantie dafür, dass die Ergebnisse des Modells vollständig diskriminierungsfrei sind. Erstens kann das Modell auch aus schwachen Proxies unter Umständen Schlüsse auf Diskriminierungsmerkmale ziehen. Zweitens sind nicht alle starken Proxies für die Funktionsfähigkeit des Modells verzichtbar. Es ist deshalb erforderlich, auf Modellebene (in Abgrenzung zur Datenebene) Maßnahmen zu ergreifen. Diese Maßnahmen werden als Debiasing bezeichnet.

Was ist Debiasing?

Debiasing bezeichnet Maßnahmen um diskriminierende Strukturen in KI-Modellen aufzudecken und ihnen technisch entgegenzuwirken. Es existieren einige erprobte Vorgehensweisen aus Wissenschaft und Praxis, die allerdings nicht plug&play angewendet werden können. Die Umsetzung erfordert eine Anpassung an das konkrete Modell, den Anwendungskontext sowie die betroffenen Verzerrungstypen. Die wissenschaftliche Auseinandersetzung mit KI-Bias und Debiasing ist aktuell weiterhin in vollem Gange und damit dynamisch. Wir halten aktuelle Entwicklungen kontinuierlich im Blick und tragen mit eigener Forschung und Entwicklung dazu bei.

Unsere eigene Forschung und Entwicklung zu Debiasing

Wir haben eine Technologie zur aktiven Entfernung von Bias entwickelt, die speziell auf unser KI-Modell angepasst ist. Diese Technologie greift den neuesten Stand der technik auf und ergänzt diesen durch innovative Eigenentwicklungen.

Unsere Debiasing-Technologie basiert auf einem Zusammenspiel des Basis-KI-Modells mit zwei weiteren KI-Modellen: Vereinfachend lässt sich die Wirkungsweise so beschreiben: nach dem Training des Basis-Modells (zur Erstellung der Shortlists) wird ein weiteres Modell darauf ausgerichtet, aus bestimmten Zwischenergebnissen des Basis-Modells Diskriminierungsmerkmale so präzise wie möglich zu erkennen (“Diskriminator”).

Zusätzlich werden an spezifischen Stellen des Basismodells Komponenten integriert, die als Gegenspieler des Diskriminators dienen. Sie sollen die (Zwischen-)Ergebnisse des Basismodells so modifizieren, dass die Ergebnisqualität hoch bleibt, der Diskriminator allerdings an der Erkennung von Diskriminierungsmerkmalen gehindert wird. Diese Komponenten bezeichnen wir als “Immunsystem” des Modells. Diskriminator und Immunsystem werden simultan trainiert bis Erkennung von Diskriminierungsmerkmalen nicht mehr wirksam möglich ist. Das Immunsystem “verbleibt” im Modell und sorgt im Produktivbetrieb für diskriminierungsfreie Ergebnisse.

Häufige Fragen