Kann eine Künstliche Intelligenz (KI) im Job fairere Entscheidungen treffen als Menschen? Wenn die richtigen Voraussetzungen dafür geschaffen werden, definitiv. Ein Kommentar.
Kündigung per KI – ist das fair?
In den letzten Tagen gab es viel Aufregung um Personalentscheidungen bei Amazon sowie bei der VW-Tochter Moia. In beiden Fällen hatten smarte Algorithmen teilweise schwer nachvollziehbare Arbeitsentscheidungen getroffen.
Bei Amazon ging es darum, dass Algorithmen die Lieferfahrer:innen konstant bewerten und dann, bei kleinsten Fehlern, ein automatisiertes Kündigungsschreiben per Bot herausschicken.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und Brand Manager (m/w/d NEXTREND GmbH in Flörsheim am Main |
||
Social Media Manager / Social Media Managerin (m/w/d) BGHM Berufsgenossenschaft Holz und Metall in Mainz |
Bei Moia wiederum kategorisiert ein Algorithmus „produktive“ und „nicht-produktive“ Arbeitszeiten, sodass Fahrer:innen beispielsweise Toilettenpausen im digitalen System beantragen mussten und diese als „nicht-produktive“ Zeit auch nicht abgerechnet wurden.
Diese Beispiele zeigen gut, wie es nicht laufen sollte. Dennoch: Wir werden es künftig viel häufiger erleben, dass Algorithmen über unsere Jobs entscheiden – und das ist gut so.
Menschen treffen viel schlechtere Entscheidungen
Denn wenn wir ehrlich sind, sind Personalentscheidungen im Unternehmen häufig sehr beliebig. Da geht es um persönliche Vorlieben, subjektives Empfinden oder auch individuelle Empfindlichkeiten und Sympathien, und weniger darum, ob eine Person ihren Job gut macht oder wirklich für die Stelle geeignet ist.
Hinzu kommen häufig noch Vorurteile gegen bestimmte Gruppen, derer wir uns manchmal sogar gar nicht bewusst sind. Studien zeigen immer wieder, wie genau solche unterbewussten Vorurteile (unfaire) Personalentscheidungen beeinflussen.
Wir sind nun einmal menschlich und genau das ist das Problem.
KI im Job spart Geld und vermeidet Konflikte
Daher kommen ja bereits jetzt schon viele Technologien in der Personalabteilung zum Einsatz. Langfristig jedoch kann eine gut programmierte Künstliche Intelligenz (KI) aber viel objektiver und präziser entscheiden als eine rein menschliche Personalabteilung.
Gleichzeitig spart dies natürlich sehr viel Aufwand, Zeit, Personal und Geld, verhindert aber auch Konflikte. Denn wenn sich alle einig sind, dass die KI fair ist, gibt es auch nicht mehr allzu viel über Entscheidungen zu streiten.
Das ist die Theorie. In der Praxis müssen allerdings fünf Bedingungen erfüllt sein, damit Personalentscheidungen per KI wirklich fair sind. Denn, das zeigen Fälle wie Amazon oder auch Moia sehr deutlich: Es kann andernfalls auch gründlich schiefgehen.
1. Parameter für KI müssen fair sein
Die beste Grundlage für faire Entscheidungen einer KI im Job ist natürlich die sorgfältige Entwicklung dieser Technologien. Daran sollten daher nicht nur Programmierer:innen mitwirken, sondern auch die Personalabteilung genauso wie Angestellte und idealerweise auch Arbeits-, Rechts- und Ethikexperten.
Denn nur so können fundierte und vor allem auch faire Parameter für eine Bewertung von Personal entwickelt werden.
Zum Beispiel: Wie schnell und fehlerfrei Mitarbeiter:innen ihre Aufgaben erledigen, sollte sicherlich ein Bewertungskriterium sein. Doch wie sieht es aus mit Kriterien wie Einsatzbereitschaft, Motivationsfähigkeit, Kritikfähigkeit oder gutem Team-Spirit?
Auch das sind schließlich wichtige Aspekte im Job. Gleichzeitig müssen KIs Fehler differenzierter bewerten, als wir es im Fall von Amazon gesehen haben. Und die Angestellten selbst müssen die KI als fair empfinden, damit die Technologie überhaupt Akzeptanz findet.
Dazu müssen auch moralische Grundwerte mit einprogrammiert werden, sodass eine KI beispielsweise nicht grundsätzlich ältere Angestellte auf die Entlassungsliste setzt.
2. Algorithmen vs. Mensch: Sie müssen den Test bestehen
Eine KI für Job-Entscheidungen zu entwickeln, ist aber nur der erste Schritt. Sie muss dann in der Praxis getestet werden. Dabei sollten in einer Testphase menschliche Mitarbeitende und die KI voneinander unabhängige Personalentscheidungen treffen.
Unternehmen müssen diese Daten dann genau analysieren und vergleichen. Welche Entscheidungen stimmen überein? Wo hat die KI Fehler gemacht oder eventuell sogar fairere Entscheidungen getroffen? Wo muss man nachbessern?
Erst bei hohen Erfolgsquoten ab 90 oder 95 Prozent sollte die KI dann zum Einsatz kommen. Natürlich bewerten dies am Ende auch subjektive Menschen. Doch wenn am Bewertungsprozess mehrere Personen beteiligt sind, ist das bereits gerechter als es derzeit in vielen Personalabteilungen zugeht.
3. Personalentscheidungen per KI müssen transparent sein
Dazu gehört aber auch, dass die Entscheidungen der KI im Job transparent sein müssen – auch für Angestellte. Im Fall von Amazon war es beispielsweise so, dass der Algorithmus eine Mitarbeiterin plötzlich in ihrer Bewertung herabstufte, sie aber nie erfahren hat, warum.
Das ist nicht in Ordnung. Nur wenn Mitarbeitende verstehen, was sie falsch gemacht haben und auch die Chance bekommen, sich zu verbessern, kann eine derartige KI im Job-Alltag langfristig bestehen.
4. KI darf und muss hinterfragt werden
Dazu gehört auch, dass die KI hinterfragt werden darf und muss, sowohl von der Personalabteilung als auch von Angestellten. Denn egal wie gut man eine KI programmiert: Es wird immer Fehler geben oder auch Aspekte, die sich verbessern lassen.
Denn Fälle aus der Medizin haben gezeigt: Es kann fatal sein, wenn sich Menschen blind auf die Technologie verlassen. Daher müssen Unternehmen Prozesse entwickeln, mit denen sie regelmäßig die Technologie hinterfragen.
5. Rechtliche Rahmenbedingungen schaffen
Zu guter Letzt sollte nicht jedes Unternehmen beliebig entscheiden können, wie eine KI Angestellte einstellt und entlässt. Schließlich geht es ja auch um menschliche Existenzen. Gesetzliche Rahmenbedingungen, die hier zumindest grobe Grenzen festlegen, sind daher entscheidend.
Ja, KI im Job ist die Zukunft
Es mag mit Blick auf Amazon und Moia erschreckend und ungerecht wirken, wenn Künstliche Intelligenzen Job-Entscheidungen treffen. Doch das Prinzip an sich ist, mit gründlicher Entwicklung und einem transparenten Prozess, vielversprechend.
Letztlich hat Künstliche Intelligenz großes Potenzial, um viel fairere Jobentscheidungen zu treffen als wir Menschen es können.
Auch interessant: