Fairness in KI ist ein Designprinzip, das die systematische Benachteiligung von Personen oder Gruppen durch KI-Systeme vermeiden soll. Grundlage sind formale Fairness-Begriffe wie „Demographic Parity" (gleiche Annahmequoten zwischen Gruppen), „Equal Opportunity" (gleiche Trefferquoten bei tatsächlich Geeigneten) oder „Calibration" (gleiche Genauigkeit über Gruppen hinweg). Die Begriffe sind teilweise mathematisch nicht gleichzeitig erfüllbar – das macht den Diskurs anspruchsvoll.
Im Recruiting wird Fairness konkret in mehreren Schritten verankert: ausgewogene Trainingsdaten, kontextsensitive Bewertungsmetriken, menschliche Überprüfung sensibler Entscheidungen, klare Erklärbarkeit („Warum wurde diese Bewerbung niedriger bewertet?") und ein offener Beschwerdeprozess. Auch klassische Antidiskriminierungsregeln wie das AGG bleiben gültig.
Für Bewerbende heißt Fairness vor allem: Recht auf transparente, nachvollziehbare Entscheidungen und auf menschliche Überprüfung. Wer das Gefühl hat, durch KI benachteiligt worden zu sein, sollte das Gespräch mit Personalstellen oder Beratungsstellen suchen.
Lunigi orientiert sich an diesen Prinzipien: KI sortiert Stellen, die finale Entscheidung trifft die Person.