Auf der Suche nach neuen Mitarbeitern sollten Unternehmen den Prinzipien der Fairness und Gleichberechtigung folgen. Doch ein neuer Fall aus der Welt von Amazon zeigt, dass solche Grundsätze schnell in Schieflage geraten – selbst wenn künstliche Intelligenzen involviert sind.

Kleine Frau neben großem Mann
© ArtFamily - Shutterstock

Eigentlich klingt es nach einer zukunftsträchtigen Strategie: Im Hause Amazon sollte eine künstliche Intelligenz seit 2014 dabei helfen, Bewerbungsverfahren zu optimieren und bei der Einstellung neuer Mitarbeiter zu helfen. Dazu wurde eine KI in ein Tool integriert, welche dann automatisch Bewerbungstexte bewertet hatte. Das Ziel war dabei, vielversprechende Bewerber herauszufiltern.

Funktioniert hat der Einsatz der künstlichen Intelligenz jedoch nicht so, wie geplant: Wie Heise Online mit Verweis auf Reuters berichtet, hatte die KI Frauen im Rahmen der Bewertungen „systematisch benachteiligt“.

Benachteiligung wurde vom Menschen gelernt

Grund der besagten Benachteiligung war, dass der Algorithmus mit Datensätzen vorangegangener Auswahlverfahren gefüttert wurde und von den entsprechenden Entscheidungen – das heißt von den Daten der früheren, angenommenen Bewerber – lernte. Auf Basis dieses Vorgehens sollte die KI erkennen, welche Eigenschaften im Rahmen von Bewerbungen von Amazon als positiv bewertet und dementsprechend bevorzugt würden.

„Weil das Unternehmen aber Teil einer von Männern dominierten Industrie ist, waren in den zugrunde gelegten vergangenen zehn Jahren vor allem Männer eingestellt worden“, heißt es bei Heise weiter. Demnach schlussfolgerte der Algorithmus, dass die Bewerbung einer Frau ganz grundsätzlich schlechter zu bewerten sei als die eines konkurrierenden Mannes. „Allein das Geschlecht sorgte dabei für die Herunterstufung“ – und zwar nur, weil das System aus vorangegangenen menschlichen Entscheidungen lernte.

Tool unterliegt grundlegendem KI-Problem

Ein Team von Amazon habe das Tool im Verlauf zwar angepasst, dennoch hätten die entsprechenden Stellen nicht sicherstellen können, dass das System künftig nicht dennoch zu diskriminierenden Entscheidungen kommen würde. Für das Tool war eigentlich vorgesehen, dass dieses den Auswahlprozess der Bewerbungen komplett übernimmt. Aufgrund der Fehlerhaftigkeit und der beschriebenen Diskriminierungen war der Algorithmus jedoch nie über das Stadium einer vorschlagenden Instanz hinausgekommen. Heute setze Amazon die Software demnach „nur noch in deutlich eingeschränktem Umfang“ ein.

Das Problem, dem sich Amazon hier gegenübersieht, ist kein Einzelfall: Da Menschen Systeme programmieren, selbst jedoch kaum neutral agieren, werden die Algorithmen – ob gewollt oder nicht – häufig zwangsläufig auch nicht neutral geschrieben. Da sie immer wieder mit gewissen emotional/kulturell/religiös oder sonstig belasteten Grundannahmen versehen werden, führen diese programmierten Datensätze zu Fehlern. – Ein Grundproblem bei der Arbeit mit Algorithmen und künstlicher Intelligenz.

/
Geschrieben von Tina Plewinski

Kommentare

#1 Avenger 2018-10-18 06:55
Man kann es auch anders sehen.... :)

Wenn eine "Künstliche Intelligenz", die rein logisch handelt, der Meinung ist, dass man besser Männer als Frauen einstellen sollte, dann sollte uns das zu denken geben.



Kommentar schreiben

Sicherheitscode
Captcha aktualisieren