Aktuelle Nachrichten

21.10.2019

Präventive Maßnahmen gegen algorithmenbasierte Ungleichbehandlung

Algorithmenbasierte Systeme können Zeit und Geld sparen, bergen aber auch vielfältige Gefahren der Benachteiligung Einzelner oder ganzer Bevölkerungsgruppen. Das zeigt eine Studie des Karlsruher Instituts für Technologie (KIT). Der Autor empfiehlt daher präventive Maßnahmen: Firmen könnten ihre Personalmitarbeiter beispielsweise von Antidiskriminierungsstellen beraten lassen.

Im HR-Bereich werden Algorithmen bereits vielfach bei der Auswahl neuer Mitarbeiter eingesetzt. Es erweise sich jedoch oft als Trugschluss, dass dies zwangläufig zu objektiveren und damit faireren Entscheidungen führt, sagt Studienautor Carsten Orwat vom KIT: "Kritisch wird es insbesondere dann, wenn die Algorithmen mit tendenziösen Daten arbeiten und auf eigentlich geschützte Merkmale zurückgreifen." Dazu zählten Alter, Geschlecht, ethnische Herkunft, Religion, sexuelle Orientierung oder Behinderungen.

Die Studie, die im Auftrag der Antidiskriminierungsstelle des Bundes erstellt wurde, zeigt anhand von knapp 50 Beispielen aus der Praxis, wo entsprechende Risiken lauern. Ein Problem bestehe beispielsweise darin, dass manche Systeme mit Daten trainiert werden, die Ungleichbehandlungen oder Stereotypen abbilden. Sie würden nicht nur übernommen, sondern könnten sich dadurch auch verbreiten oder verstärken.

Allein aus dem Bereich Arbeitsleben schildert die Studie acht Beispiele, in denen es durch Algorithmen zu Ungleichbehandlungen von Personen kam. So werde in Dänemark derzeit gerichtlich gegen Firmen vorgegangen, die die Differenzierungsmöglichkeiten von Facebook genutzt haben oder nutzen, um bestimmte Stellenanzeigen auf der Onlineplattform nur für Männer zu schalten.

Am sinnvollsten erscheinen Carsten Orwat präventive Maßnahmen, um Diskriminierungen bei algorithmenbasierten Differenzierungen zu begegnen. Beratungsangebote für Personaler und IT-Mitarbeiter könnten unter anderem dafür sensibilisieren, nur Datensätze zu verwenden, die "keine diskriminierenden Praktiken oder Ungleichheiten widerspiegeln". Um Algorithmen künftig von vornherein diskriminierungsfrei zu gestalten, müssten sie bereits während ihrer Entwicklung geprüft werden.

Dieser Beitrag wurde erstellt von David Schahinian.