Karriere: Dem Algorithmus ausgeliefert?

Gastkommentar13. November 2014, 13:34
4 Postings

Aktive und passive Datenspuren im Netz werden immer wichtiger - gerade auch für die Karriere. Was an Big Data bei der Erstellung von Profilen gefährlich ist

Welche Online-Spiele ich spiele, welchen Netzwerken ich angehöre, welche MOOCs - also digitale Lerneinheiten- ich absolvierte, welche Open Software ich programmiert und Online-Beiträge geschrieben habe: Alles wird in ein solches Profil einfließen und als Basis für mehr oder weniger kluge Algorithmen dienen, die Wahrscheinlichkeiten über meinen beruflichen Erfolg berechnen und so über Einstellung oder berufliches Fortkommen entscheiden.

Leicht vorstellbar ist, dass die Relevanz eines Zeugnisses einer Massenuniversität im Vergleich zu den Teilnahmen an MOOCs oder zum Feedback der Crowd zu meinen Arbeiten, abnehmen wird. Im Unternehmen werden die Personalabteilungen dieses Profil mit internen Beobachtungen anreichern, mit Vergleichsgruppen und historischen Daten spiegeln und so empirische Prognosen über unsere Eignungen bzw. unser Fortkommen erstellen.

Automatisierte Algorithmen

Nun sind solche Profilerstellungen bzw. Prognosen über Leistungsfähigkeit und Erfolg in einer Organisation nichts Neues. Jedes Einstellungsgespräch und jeder Einstellungstest, jedes Assessmentcenter und Karriereberatungsgespräch verfolgen dasselbe Ziel. Und mehr noch: Die Festlegung unserer Laufbahn erfolgt eigentlich schon im Kindesalter.

Für einen "automatisierten" Score bzw. Algorithmus, der auf unseren Netzaktivitäten und -spuren basiert, ließe sich, so gesehen, zumindest argumentieren, dass dieser mitunter gerechter und transparenter sein kann, als subjektive Methoden, mit denen man Leute nach eigenen (Vor-)Urteilen bewertet, den sogenannten impliziten Persönlichkeitstheorien: Wir alle haben bestimmte Entscheidungskriterien, nach denen wir jemanden bzw. seine erwarteten Handlungen beurteilen und bewerten.

Auf Netzdaten zurückgreifen

Das Problem ist, dass unsere Kriterien selten wissenschaftlichen Ansprüchen folgen. Und so sind die Studien Legion, die nachweisen, dass wir bevorzugt Leute einstellen, die gewisse ästhetische Kriterien erfüllen oder einfach so sind wie wir.

Für einen auf Netzdaten basierenden Karrierealgorithmus ließe sich auch anbringen, dass hier die Möglichkeit bestünde, dass unsere dokumentierten Handlungen jene Kriterien übertrumpfen können, nach denen wir in der Regel auch bewertet werden und die wir gar nicht beeinflussen können: Geburtsort, Gesellschaftsschicht der Eltern usw. So gesehen, würde diese Bewertung also jenen meritokratischen, d. h. auf tatsächlichen Leistungen und Beiträgen fußenden Prinzipien Rechnung tragen, wie sie sich in Projekten der Crowd im Netz immer mehr durchsetzen: Dort ist es zudem egal, welchen Hintergrund und welche Referenzen jemand hat, solange er/sie das Problem lösen kann (Anticredentialismus).

Unvollständig, missbraucht

Ähnlich wie in der realen Welt ist aber zu befürchten, dass dieser Score missbraucht, ungerecht bzw. einfach unvollständig ist, paradoxerweise etwa dann, wenn Daten über uns lückenhaft sind (Datenschutz!?) und deshalb andere Korrelationen herangezogen werden, die funktionieren, ohne dass man immer weiß, warum.

So wurde etwa bekannt, dass eine auf die Auswahl von Programmierern spezialisierte Personalberatung einen Score erstellt, der auch auf dem Peer-Feedback hinsichtlich Arbeiten in Open-Software-Projekten basiert. Nachdem aber nicht alle Entwickler an solchen Projekten mitarbeiten, musste die Personalagentur sich anderwärtig behelfen. Man fand heraus, dass erfolgreiche Programmierer eine bestimmte japanische Manga-Seite besuchten. Nicht dass man diese Korrelation erklären konnte, statistisch gesehen, war sie aber vorhanden.

Abhängigkeit und Einschränkungen

Schlimmer noch ist aber die Pfadabhängigkeit und Einschränkung unserer Optionen, die solche Scores und Prognosen bewirken, indem sie einen bestimmten Karriereweg vorzeichnen, der unseren Fähigkeiten und Interessen nicht entspricht, weil wir etwa noch keine Chance hatten, diese Fertigkeiten und Motivationen anzuwenden, einzuüben oder einfach nur im Netz darstellen konnten. Was passiert, wenn uns Algorithmen einen bestimmten Weg prognostizieren und so Potenziale nicht erkennen, weil unsere Segmentgruppe diese statistisch nicht erkennbar widerspiegelt: Wenn ich die Zukunft kenne, kann ich sie dann noch ändern?

Gibt es Lösungen für dieses Problem, oder sind wir den Algorithmen ausgeliefert? Eigentlich sind Abhilfen gar nicht so kompliziert, wenn auch ungewöhnlich: Organisationen, die Profile ihrer Mitarbeiter erstellen, könnten die Regeln einführen, dass a) den Mitarbeitern dieses Profil und auch relevante Algorithmen zugänglich gemacht und b) die Mitarbeiter die Möglichkeit haben, dieses Profil zu kommentieren und zu ergänzen.

Unternehmen könnten zudem den meritokratischen und anticredentialistischen Gedanken der Netzcommunity aufgreifen und anstelle von oder ergänzend zu Bewerbungsgesprächen und künstlichen Assessments, Kandidaten zur konkreten Mitarbeit in geöffneten und "sicheren" Bereichen der Organisation einladen. Innovations- und Softwareentwicklungsplattformen zeigen bereits, wie dies geht: Auf diesen Plattformen stellen Unternehmen Arbeitspakete, Projekte und ungelöste Probleme dar und laden die anonyme Community ein, diese zu lösen bzw. abzuarbeiten.

Nicht alle Vorbehalte gelöst

Die besten Arbeiten werden ausgewählt, prämiert, und manchmal werden die Leistungserbringer auch eingestellt. Damit werden natürlich nicht "automatisch" alle Vorbehalte aufgelöst. Ein deutscher Maschinenhersteller verwarf etwa die Lösung für ein technisches Problem, als bekannt wurde, dass der Kreative aus Indien kam. Aber die Spielräume für derartig irrationales Verhalten werden in der globalisierten Wirtschaft wohl geringer.

Vieles beim Umgang mit neuen Technologien lässt sich also durch eine Neuformulierung der Machtfrage bzw. des Zugangs zu Daten und Informationen lösen. Wenn unsere Avatare auch unserem Einfluss unterliegen, ist vielleicht mehr erreicht als heute, da Information über unsere Karrieren und diese betreffende Entscheidungsprozesse oft irrational, ungerecht und vor allem intransparent sind. (DER STANDARD, 8./9.11.2014)

Ayad al-Ani war Rektor und Professor an der ESCP sowie Professor an der Hertie School of Governance. Aktuell forscht er am Alexander-von-Humboldt-Institut für Internet und Gesellschaft und ist Geschäftsführer der digitalen Beratungsagentur tebble.

Share if you care.