Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Digitalisierung
Racist Robots: Wie lässt sich Diskriminierung durch AI beheben?

Racist Robots: Wie lässt sich Diskriminierung durch AI beheben?

Toni Gau | 08.07.19

Die Jobsuche verläuft mittlerweile größtenteils digital - und das Finden von Mitarbeitern auch. Doch was tun, wenn dieses System diskriminierend ist?

„Objektivität“ ist ein großes Wort, dem man als Mensch nicht immer treu sein kann – ob aus persönlichen oder gesellschaftlichen Gründen. Wäre man vollends objektiv, würde man Arbeitnehmer anhand ihrer Fachkompetenz, ihres Wissens und Fleißes auswählen, nicht wegen Geschlecht oder Hautfarbe. Zu viele Arbeitgeber scheinen biased, wollen den Unmarked Case, wie man es in der Soziologie nennt – weiß, männlich, heterosexuell. Die Idee, diese Problematik zu lösen, indem AI das Auswahlverfahren durchführt, scheint zunächst logisch. Wie kann eine Künstliche Intelligenz schließlich nicht objektiv sein? Doch wenn die AI mit Daten arbeitet, welche auf tradierten Mustern des Einstellens von Mitarbeitern beruht, die per se nicht unvoreingenommen sind, ist die Technik nicht ansatzweise so objektiv, wie die Idee dahinter annahm und schadet der Arbeitswelt und Gesellschaft mehr, als ihr letztendlich zu helfen.

In einem Interview mit The Guardian erklärte Ruha Benjamin, Soziologin und Professorin am Institut für afroamerikanische Studien der Princeton University und Gründerin von Just Data Lab, wie Diskriminierung in Form von Sexismus, Rassismus und derartigem in künstliche Intelligenzen eingebettet wird, warum das für betroffene, potentielle Arbeitnehmer ein gewaltiges Problem darstellt und wie man dagegen vorgehen kann.

Die Problemlösung des 21. Jahrhunderts: weitergeben

Benjamin zufolge scheint ein Problem der Neuzeit, dass wir mittlerweile dazu tendieren jegliches sich auftuende Problem an die Technik weiterzugeben, unter der Annahme, diese könne es ohnehin besser – und wenn nicht besser, dann zumindest zuverlässiger als man selbst. So nun auch bei Bewerbungen, welche von diversen Unternehmen mittels Künstlicher Intelligenz bearbeitet werden. Die Problematik ist dabei so simpel wie folgenschwer. Es resultiert in Outsourcing an die AI en masse. Wie allgegenwärtig der Prozess des Weitergebens ist, realisieren wir auch im Alltag, wenn wir nicht weiter wissen und uns zunächst an Google wenden, statt intensiv nachzudenken oder ein Buch aufzuschlagen. Selbstverständlich handelt es sich hierbei um eine Komfortsache, die man niemanden zum Vorwurf machen kann oder eher sollte. Wenn wir Technologie haben, die uns einen so einfachen Problemlösungsprozess bietet, dann wäre es naiv diese nicht zu nutzen, doch nicht so naiv wie ihr blindlings  vertrauen. Denn auch wenn Technologie im Optimalfall sehr strikt und automatisiert operiert, ist diese nicht fehlerfrei.

Racist Robots

Eine Headline, die bis vor Kurzem noch schockierte – wie können Roboter denn rassistisch sein? – bis zur Realisation, dass dies tatsächlich Sinn ergibt. Ruha Benjamin reagierte darauf folgendermaßen:

Something which really sparked my interest was a series of headlines and articles I saw which were all about a phenomenon dubbed “racist robots”. Then, as time went on, these articles and headlines became less surprised, and they started to say, of course, the robots are racist because they’re designed in a society with these biases.

Dass Roboter oder Künstliche Intelligenzen rassistisch sind, sei also nicht unmöglich, sofern man in einer Gesellschaft lebt, die weiterhin diskriminierende Standpunkte in sich verankert hat, ob bewusst oder nicht. Dementsprechend scheint es sogar plausibel, denn die Künstliche Intelligenz arbeitet lediglich mit den Daten, welche wir ihr zur Verfügung stellen können. Den Daten, die aus unserer gesellschaftlichen Struktur entstehen. Als Beispiel versuchen viele Künstliche Intelligenzen Risiken oder Gefahren zu vermeiden. Anhand der ihnen gegebenen Daten werden somit afro- oder lateinamerikanische Bürger von der AI wahrscheinlicher aussortiert, da Polizisten eher dazu tendieren diese zu investigieren. Ein gesellschaftlicher Bias, der sich somit in der AI widerspiegelt, da die Intelligenz nun annimmt, dass von diesen Personengruppen ein höheres kriminelles Risiko ausgeht. Dadurch, dass diese Daten von einem gesellschaftlichen Vorurteil ausgehen, kann die AI unmöglich objektiv operieren. Dementsprechend werden unter anderem bei der Jobsuche diese Personengruppen direkt benachteiligt, indem sie aufgrund realitätsfernen Inputs per Outsourcing nicht weiter mit einbezogen werden, ungeachtet ansonsten guter Qualifikationen. Ob die Person nun tatsächlich jemals eine Straftat begangen hat, spielt hierbei keine Rolle.

Auch Frauen zeigen sich hiervon betroffen

Nicht nur der Ethnie wegen wird vonseiten Künstlicher Intelligenz diskriminiert. Wie gesagt ist alles, was nicht dem Unmarked Case entspricht, betroffen. Frauen werden ebenfalls oftmals zu Unrecht outgesourced und treffen somit auf Probleme in der Arbeitswelt, obwohl keine tatsächliche Rechtfertigung besteht. Die Begründung liegt einzig und allein im Geschlecht. Analog hierzu stellt Benjamin einen aktuellen Vorfall beim Big Player Amazon in Bezug:

There are other areas too, such as Amazon’s own hiring algorithms, which discriminated against women applicants, even though gender wasn’t listed on those résumés. The training set used data about who already worked at Amazon. Sometimes, the more intelligent machine learning becomes, the more discriminatory it can be – so in that case, it was able to pick up gender cues based on other aspects of those résumés, like their previous education or their experience.

Hierbei eröffnet sich offensichtlich ein weiteres Probleme bei der Anwendung von AI in der Arbeitswelt. Sie ist fähig Dinge zu ermitteln, die wir höchstwahrscheinlich nicht wahrnehmen würden. Bei der Verarbeitung von Bewerbungen per Hand käme einem Menschen anhand der gegebenen Daten wohl nicht in den Sinn, es könnte sich bei der anonymen Bewerbung um eine Frau handeln. Zumindest nicht in dem Ausmaß, in dem AI fähig ist dies zu ermitteln. Frauen und insbesondere Mütter stoßen bereits zu genüge auf Probleme in der Arbeitswelt, mit denen Männer nicht zu kämpfen haben, aufgrund bestimmer sozialer Erwartungshaltungen oder Ansichten.

Benjamin befürchtet, diese Problematik könnte sich auch noch an ganz andere Personengruppen richten, welche bisher nicht betroffen sind, denn nicht nur die Personengruppen selbst sind betroffen. Die AI geht auch die Social Media-Profile von Bewerbern durch und schaut, ob in deren Freundeskreisen risikoreiche Kontakte enthalten sind. Die Diskriminierung weitet sich also aus. Letztendlich aber werden Männer gegenüber Frauen de facto in der Arbeitswelt bevorzugt, doch sollte das Geschlecht eigentlich keine Rolle spielen für den eventuellen Arbeitgeber. Sobald selbst die Anonymität nicht vor dieser Form der Diskriminierung schützt, liegt ein ernsthaftes Problem vor, welches nur zwei Optionen offen lässt: Entweder man überdenkt den Einsatz der AI nochmal oder man korrigiert ihre Fehler. Doch wie?

Eine neue Gesetzeslage – hilft sie?

Damit sich ein Fall wie bei Amazon nicht wiederholt, wurde debattiert, ob eine neue Gesetzeslage, welche derlei Fälle nicht dulden würde, zur Problemlösung beitragen könnte. Benjamin zeigt sich diesbezüglich skeptisch.

The passing of a law can be a placeholder for much more significant progress because people prematurely celebrate, even if not much changes. But I do increasingly think that legislation has a role to play. Even if a particular law is just a regulation in a state, or one country in Europe, it can be very effective because if these companies want to roll out technologies universally, and then they find they have to change something up for a certain jurisdiction, it can then be an obstacle.

Dementsprechend könnte eine hieran angepasste Gesetzgebung also durchaus hilfreich sein, doch handelt es sich dabei nicht um den Deus Ex Machina, welcher die AI plötzlich objektiv und gleichberechtigend machen würde. Die Soziologin ermahnt, man solle nicht zu früh die Siegesflaggen hissen, denn zu schnell gebe man sich mit kleinen Erfolgen zufrieden, obwohl das Problem längst nicht beseitigt ist.

Problembewusstsein und das Silicon Valley

2017 begann Ruha Benjamin ein Buch zu diesem Themenkomplex zu schreiben: Race After Technology, welches sie dieses Jahr veröffentlichte. Damals schien ihr, dass dieser bisher größtenteils missachtet wurde und kein wirkliches Problembewusstsein zur diskriminierenden AI herrschte. Über die zwei Jahre hinweg habe sich dies ihrer Ansicht nach jedoch geändert. Vor allem seit Fällen wie Cambridge Analytica sei diese Thematik mehr im Gespräch als je zuvor und Menschen als Kollektiv scheinen zu begreifen, inwiefern hier ein wirkliches Problem vorliegt. Dass Big Tech letztendlich nicht unser großer Retter in goldener Rüstung ist, sondern viel mehr etwas, das mit Vorsicht zu begutachten ist, da es wirkliche Schäden anrichten kann. Man beginnt also der Technik nicht blind zu vertrauen, sondern diese auch tatsächlich zu hinterfragen.

Ein wichtiger Aspekt zur Lösung des Problems sei ebenfalls mehr Diversität im Silicon Valley. Dort arbeiten mitunter die klügsten Köpfe im Tech-Bereich und mehr Vielfalt unter den dort Arbeitenden würde ebenso bedeuten, dass von der Diskriminierung betroffene Arbeiter ein Verständnis mitbringen, welches sich den Unmarked Cases entzieht, wodurch man effizienter dagegen vorgehen könnte. Dazu müsste dies aber auch tatsächlich in Angriff genommen werden.

More diversity in Silicon Valley is important, but won’t automatically address algorithmic bias. Unless all those diverse people are empowered to challenge discriminatory design processes, diversity is a ruse. We need a complete overhaul of the larger accountability structures that shape tech development, and we definitely can’t wait for Silicon Valley to become more diverse before implementing much stronger regulation and accountability.

Der Weg dahin ist also lang, man befinde sich aber ihrer Ansicht nach auf dem richtigen Weg und das Ziel sei lohnenswert: Nicht nur eine Arbeitswelt, sondern auch eine Gesellschaft, die nicht aufgrund nebensächlicher Faktoren wie Hautfarbe, Geschlecht oder ähnlichem diskriminiert, in der Chancengleichheit gang und gäbe ist und in der Worte wie „empowered“ keinerlei Bedarf mehr haben – denn wären wir alle auf sozialer Augenhöhe, müssten wir eventuell auf derartige Begriffe nicht mehr zurückgreifen. Schließlich liegen die Nachteile nicht ausschließlich in der Arbeitswelt vor.

Ruha Benjamin behandelt diesen Diskurs ausführlich in ihrem Buch Race After Technology und wer sich hierzu eine differenziertere Meinung bilden mag, sollte in dieses eventuell einen Blick werfen.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*

Melde dich jetzt zu unserem HR-Update an und erhalte regelmäßig spannende Artikel, Interviews und Hintergrundberichte aus dem Bereich Human Resources.