KI-Bias bezeichnet systematische Verzerrungen in KI-Systemen, die zu unfairen oder diskriminierenden Ergebnissen führen können. Ursache sind häufig unausgewogene oder historisch verzerrte Trainingsdaten – etwa wenn ein Modell aus früheren Auswahlentscheidungen lernt, in denen bestimmte Gruppen unterrepräsentiert sind.
Im Recruiting-Kontext sind die Folgen besonders sensibel. Wenn ein Modell mit einem Datensatz trainiert wurde, in dem Frauen seltener in Führungspositionen sind, kann es Frauen für Führungsrollen niedriger bewerten. Ein bekanntes Beispiel ist ein Modell von Amazon, das Bewerbungen mit „women" im Lebenslauf herabstufte und deshalb eingestellt wurde.
Gegenmaßnahmen sind technisch und organisatorisch: ausgewogene Trainingsdaten, faire Bewertungsmetriken, Human-in-the-Loop-Reviews, regelmäßige Bias-Audits, transparente Dokumentation und klare Beschwerdewege. In Europa schreibt der EU AI Act zusätzliche Schutzmaßnahmen für Hochrisiko-Anwendungen wie Recruiting vor.
Lunigi setzt KI gezielt da ein, wo sie hilft – beim Finden passender Stellen –, lässt menschliche Entscheidungen aber bei den Suchenden selbst.