HR-Analytics Was gegen People Analytics spricht 1. „Not everything that can be counted counts and not everything that counts can be counted“ Es stimmt schon: Das HR-Geschäft ist eines, bei dem selten zählbare Produkte in harter Währung gehandelt werden. Stattdessen wimmelt es von Konzepten und Konstrukten, die man weder di- rekt beobachten noch zählen kann: Motivation, transformationale Führung, psychologische Si- cherheit, Vertrauen, Kultur und vieles (Zwischen-) Menschliche mehr. Es herrscht weitgehend Kon- sens, dass all das erfolgskritisch ist. Weniger ei- nig ist man sich, welche Faktoren den Konzepten zugrunde liegen und wie man ihren Erfolgsbei- trag misst (was auch daran liegt, dass „Erfolg“ je nach Situation immer etwas anders definiert wird). Wird man sich nicht wenigstens im eigenen Unternehmen darüber einig, was wie gemessen werden soll, lohnt sich der Aufwand für People Analytics nicht. 2. „Wo Menschen sind, da menschelt’s“ Selbst wenn eine Einigung über die Bedeutung der (Kenn-)Zahlen herbeigeführt wurde: Wer glaubt, dass am Tisch der Entscheider nur auf Basis von Zahlen entschieden wird, läuft Gefahr, mikropo- litische Machenschaften zu übersehen und zwi- schen ihnen aufgerieben zu werden. Auch Mana- ger sind soziale Wesen und als solche streben sie unter anderem nach Macht – und schrecken dabei vor Manipulation, Täuschung, Drohungen und vie- lem anderen nicht zurück. Weitere „sachfremde“ Aspekte sind beispielsweise Fairness, Anerken- nung, Reziprozität und Vertrauen. Sie sind gerade in komplexen und von Unsicherheit geprägten Ar- beits- und Entscheidungssituationen vorteilhaft, lassen sich aber nicht berechnen. Mehr noch: Wer hier rechnet und berechnend agiert, dem wird ge- rade nicht vertraut oder schnell mal ein Gefallen getan. 3. „Zahlen sprechen nicht für sich – wir verleihen ihnen einen Sinn“ Daten und noch mehr Informationen, die man aus Daten zieht, sind immer zu einem gewissen Grad manipuliert. Im Wortsinn meint das zunächst nur: etwas mit der Hand bearbeiten. Daten für People Analytics müssen immer angefasst und aufbe- reitet werden, weil fehlende Werte abgeschätzt, Ausreißer eventuell ausgeschlossen und insbe- sondere unstrukturierte Daten in rechenfähiges Format gebracht werden müssen. Die Realität sendet uns nicht einfach eine Botschaft mit der Wahrheit, sondern wir setzen Mittel ein, um ei- nen Aspekt zu erhellen, womit notwendigerweise andere Perspektiven ausgeblendet werden – und manche Phänomene ganz im Dunkeln bleiben. Wer beispielsweise nur die Kosten von Recrui- tingkanälen mit der Anzahl der eingegangenen Bewerbungen in Beziehung setzt, weiß danach nicht, ob es auch geeignete Kandidaten waren, ob diese tatsächlich ein Angebot angenommen haben und wie lange es gedauert hat, bis sie im Alltag ihre volle Leistung abrufen konnten. Zwar gibt es theoretisch für all diese Aspekte eigene Daten, aber welche als relevant erachtet werden, ist eine menschliche Zu-Tat. Genauso braucht es menschliche Urteils- und Schaffenskraft, um aus Analysen Handlungsempfehlungen abzuleiten. Rote Zahlen verraten einem nicht, wie man sie schwarz bekommt. 4. „Auch Algorithmen haben Vorurteile“ Dieser Satz stimmt, wenn Data Scientists in den Formeln der Machine-Learning-Algorithmen manchen Merkmalen bewusst ein höheres Ge- wicht zuschreiben. Allerdings führen die bewuss- ten oder unbewussten Vorurteile von Entwicklern eher selten zu verzerrten Ergebnissen. Eine gra- vierendere Rolle spielen verzerrte Datensätze, etwa wenn diese nicht repräsentativ und unaus- gewogen sind oder vorhandene Diskriminierun- gen einfach abbilden. Dann tritt die Schattenseite der Verwendung von firmeneigenen Daten ans Tageslicht: Wer nur die eigenen Daten nimmt, schmort im eigenen Saft. Die Algorithmen passen dann zu gut auf die vor- liegenden Daten, während andersartige Daten zu falschen Vorhersagen führen. Wurden in der Ver- gangenheit nur männliche Weiße zu Chefs beför- dert, dann sind das die Daten, mit denen der Al- gorithmus arbeiten muss, um Vorschläge oder Vorhersagen zu machen. Vor diesem Problem waren selbst die Datenprofis bei Amazon nicht gefeit. Es gibt dutzende Studien, wie es zu ver- zerrten Ergebnissen bei automatisierten Vorher- HR Performance 4/2021 53