People Analytics als Mittel zur Verbesserung der Lohngleichheit

Der Gender Pay Gap ist real. Dr. Margrét Vilborg Bjarnadóttir, Gründerin von PayAnalytics, beschäftigt sich in ihrem Gastbeitrag dabei mit den Möglichkeiten, die Analytic-Tools bieten – aber auch mit ihren Grenzen.

Lohnungleichheit ist ein drängendes Problem, das sich durch die Pandemie verschärft hat. Millionen von Frauen sind aus dem Erwerbsleben ausgeschieden, und viele Menschen haben den Arbeitgeber gewechselt. People Analytics, die Anwendung quantitativer Instrumente auf die Wertschöpfungskette der Mitarbeiter*innen, kann Unternehmen bei der Verwirklichung von Lohngleichheit und der Schaffung gerechterer Arbeitsplätze unterstützen. Diese Instrumente müssen jedoch mit Bedacht eingesetzt werden, denn selbst wenn sich Firmen um Lohngleichheit bemühen, können ihre Daten immer noch historische Vorurteile widerspiegeln und zu Diskriminierungen aufgrund von ethnischer Zugehörigkeit, Geschlecht und Klasse führen.

Die Grenzen von KI-basierten Tools erkennen

Heutzutage werden KI-basierte People-Analytics-Tools von Manager*innen eingesetzt, um die Produktivität zu messen, wichtige Entscheidungen über Einstellungen, Vergütungen, Beförderungen und Schulungsmöglichkeiten zu treffen und Gehaltsunterschiede in Bezug auf Geschlecht, ethnische Zugehörigkeit oder andere wichtige demografische Kategorien zu erkennen und zu beseitigen. Der zunehmende Einsatz von KI in der Personalabteilung muss jedoch überwacht werden, um zu gewährleisten, dass die Daten qualitativ hochwertig und zuverlässig sind, denn die Analysen der KI sind nur so gut wie die ihnen zugrundeliegenden Daten und Annahmen. Folgende Faktoren müssen dabei berücksichtigt werden:

  1. Daten sind nicht neutral und können Voreingenommenheit enthalten. People-Analytics-Tools basieren in der Regel auf den historischen Daten eines Arbeitgebers zur Rekrutierung, Bindung, Beförderung und Vergütung der Arbeitskräfte. Solche Daten erfassen die Entscheidungen und Einstellungen der Vergangenheit. Führungskräfte müssen sich darum bewusst sein, dass ihre retrospektiven Daten sowohl alte als auch aktuelle Voreingenommenheiten widerspiegeln können und ihnen möglicherweise nicht in vollem Umfang dabei helfen, die Komplexität des Personalmanagements in einer zunehmend vielfältigen Belegschaft zu bewältigen. So können beispielsweise Noten als Indikator für Intelligenz oder berufliche Lizenzen oder Zertifikate als Maßstab für Fähigkeiten herangezogen werden. Diese Maßstäbe sind jedoch unvollständig und enthalten oft Verzerrungen. Deswegen ist es wichtig, bei der Anwendung von diesen Tools die potenziellen Diskrepanzen zwischen dem, was Unternehmen messen wollen (z. B. Intelligenz oder Lernfähigkeit), und dem, was sie tatsächlich messen (z. B. die Leistung in damaligen Schultests), zu berücksichtigen.

  2. Die Leistung eines People-Analytics-Tools hängt auch vom Algorithmus ab. Arbeitgeber sollten bedenken, dass Modelle bei Personen aus demografischen Mehrheitsgruppen wahrscheinlich am besten abschneiden, bei weniger gut vertretenen Gruppen jedoch schlechter. Dies liegt daran, dass Algorithmen in der Regel die Gesamtgenauigkeit maximieren. Dadurch hat die Leistung für die Mehrheitsbevölkerung bei der Festlegung der Algorithmus-Parameter mehr Gewicht als die Leistung für die Minderheitenbevölkerung. Außerdem gibt es kein wirklich „ethnisch blindes“ oder „geschlechtsblindes“ Modell, und das explizite Weglassen der ethnischen Zugehörigkeit oder des Geschlechts in einem Modell macht diese nicht „demografisch neutral“ – im Gegenteil, es kann sie sogar verschlechtern. Wenn die demografischen Kategorien nicht gleichmäßig über die gesamte Organisation verteilt sind, was fast immer der Fall ist, werden selbst sorgfältig erstellte Modelle nicht zu gleichen Ergebnissen für alle Gruppen führen.

Verzerrungen zuverlässig feststellen

Um sicherzustellen, dass die People-Analytics-Tools eine nützliche und vorteilhafte Entscheidungshilfe liefern, können Unternehmen eine Reihe von Werkzeugen einsetzen. Ein besonders hilfreiches Werkzeug ist ein Bias-Dashboard. Ein Dashboard fasst zusammen, wie das Tool in verschiedenen Gruppen abschneidet, und ermöglicht so die frühzeitige Erkennung potenzieller Verzerrungen. Es hebt sowohl die statistische Leistung als auch die Auswirkungen seiner Anwendung auf verschiedene Gruppen hervor. Beim Einstellungsprozess kann das Dashboard zum Beispiel die potenziellen Bewerber*innen zusammenfassen, die auf verschiedenen Websites (z. B. LinkedIn) kontaktiert wurden, sowie den Anteil jeder Gruppe, der sich beworben hat, ein Vorstellungsgespräch erhalten hat und schließlich eingestellt wurde.

Neben der Überwachung statistischer Leistungskennzahlen können Führungskräfte auch explizit auf Verzerrungen testen. So können sie beispielsweise untersuchen, wie individuelle Merkmale wie Erfahrung oder Ausbildung zu Gehaltserhöhungen in verschiedenen Gruppen beitragen. Sie können auch die Ergebnisse des jährlichen Beurteilungsprozesses untersuchen. Wenn beispielsweise Mitarbeiter*innen einer bestimmten ethnischen Gruppe überproportional häufig für eine Gehaltserhöhung vorgeschlagen werden, ist dies ein Zeichen dafür, dass das KI-Tool oder der Entscheidungsprozess möglicherweise verzerrt ist und die Empfehlungen des KI-Tools die Voreingenommenheit verstärken. Es könnte aber auch sein, dass das Tool unverhältnismäßig viele Minderheiten als Kandidat*innen für eine Gehaltserhöhung identifiziert, weil sie in Firmen tendenziell unterbezahlt sind; in diesem Fall hilft das KI-Tool, das Problem zu lösen.

Es ist wichtig zu bedenken, dass kein Modell vollständig ist. Zum Beispiel können die zwischenmenschlichen Fähigkeiten der Arbeitskräfte ihren Erfolg im Unternehmen beeinflussen, ohne dass dies unbedingt in den Personaldaten zum Ausdruck kommt. Die Nutzer*innen von People-Analytics-Tools müssen sich dieser zusätzlichen Faktoren bewusst sein und lernen, wie sie diese systematisch in den Entscheidungsprozess einbeziehen können. Wenn es quantifizierbare Daten zu diesen Faktoren gibt, sollten sie in Betracht ziehen, diese zu sammeln. Wenn ein KI-Algorithmus zur Entscheidungsfindung eingesetzt wird, muss die Firma in der Lage sein, allen Beteiligten zu erklären, was das Ergebnis bedeutet und wie es zustande gekommen ist. Algorithmen können bei der Interpretation vergangener Daten und der Erkennung von Mustern helfen, aber People Analytics ist immer noch ein Bereich, in dem der Mensch im Mittelpunkt der Entscheidungsfindung steht – die endgültigen Entscheidungen und die Verantwortung für diese Entscheidungen liegen also bei den Menschen.

Fazit

Personalanalysetools, insbesondere solche, die auf KI basieren, sind aus dem modernen Personalwesen nicht mehr wegzudenken. Quantitative Modelle sollen jedoch das menschliche Urteilsvermögen unterstützen, nicht ersetzen. Unternehmen müssen sich der Verzerrungen durch maschinelles Lernen und der Grenzen von Modellen bewusst bleiben. Um den größtmöglichen Nutzen aus KI und anderen People-Analytics-Tools zu ziehen, sollten Führungskräfte konsequent überwachen, wie die Anwendung in Echtzeit funktioniert, welche expliziten und impliziten Kriterien zum Trainieren des Tools verwendet werden und ob die Ergebnisse der vom Tool empfohlenen Entscheidungen verschiedene Gruppen auf unbeabsichtigte Weise unterschiedlich beeinflussen. Um People Analytics angemessen zu nutzen und wirklich gerechte Arbeitsplätze zu schaffen, müssen Manager*innen lernen, die richtigen Fragen zu ihren Daten, ihren Entscheidungen, ihren quantitativen Modellen und ihrer Software zu stellen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.