Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Twitter-Algorithmus bevorzugt anscheinend weiße Gesichter

Twitter-Algorithmus bevorzugt anscheinend weiße Gesichter

Aniko Milz | 22.09.20

Eine Reihe von Tests zeigte, dass der Twitter-Algorithmus Schwarze Personen in Fotos teilweise ignoriert und sie in der Vorschau ausschneidet.

Einige Twitter User starteten am Wochenende ein Experiment. Nachdem Doktorand Colin Madland entdeckte, dass Zoom den Kopf seines Schwarzen Kollegen bei der Nutzung von virtuellen Hintergründen ausradierte, postete er diesen Umstand auf Twitter. Dort wurde schnell offensichtlich, dass auch der Kurznachrichtendienst ein Problem hatte: Madland tweetete einen Screenshot des Zoom Meetings. Er und sein Kollege waren darauf nebeneinander zu sehen. Der Twitter Algorithmus entschied jedoch, nur Madlands Gesicht in der Vorschau des Tweets zu zeigen. Mehrere User entschieden sich dazu, selbst zu testen und posteten Bilder eines Schwarzen und eines weißen Mannes nebeneinander. In den meisten Fällen wurde der weiße Mann, im Beispieltweet Mitch McConnell, angezeigt, nicht aber Barack Obama, der auf dem Foto auch zu sehen ist.

Der Twitter Algorithmus ignoriert die Gesichter Schwarzer Menschen

Wer aber bestimmt, welcher Bereich eines Bildes angezeigt wird? Auf Twitter wurde 2018 ein neuer Algorithmus eingeführt, der den spannendsten Ausschnitt eines Bildes erkennen und in der Vorschau anzeigen soll. Besonders hochkantige Bilder werden in der Vorschau zurechtgeschnitten. Daher experimentierten viele der User nun mit selbsterstellten Bildern, die aus dem Foto eines weißen Menschen und dem eines Schwarzen Menschen bestanden, die durch ein einfarbiges Quadrat getrennt wurden. Wieder und wieder entschied sich der Algorithmus in der Vorschau, den weißen Menschen abzubilden.

Dass Algorithmen nicht unbedingt neutral sind, dürfte bekannt sein. Dahinter steht nicht zwangsläufig eine rassistische Einstellung der Entwickler. Meist liegt deren gesellschaftliche Befangenheit einem rassistischem Bias in der Software zugrunde. Das passiert, wenn beispielsweise Gesichtserkennungssoftware mit überwiegend hellhäutigen Gesichtern angelernt wird. Ein frühes Beispiel ist auch die sogenannte Shirley-Card – das Foto einer hellhäutigen Frau, das der Maßstab in der Entwicklung von Farbfilmen war.

Twitter verspricht eine Untersuchung und Änderung des Algorithmus

Twitter reagierte zügig auf die Empörung der User und sieht sich die Sache an. Eine Sprecherin gab Mashable gegenüber an, dass das Modell vor dem Launch auf rassistischen oder geschlechtsspezifischen Bias hin untersucht wurde:

Our team did test for bias before shipping the model and did not find evidence of racial or gender bias in our testing. But it’s clear from these examples that we’ve got more analysis to do. We’re looking into this and will continue to share what we learn and what actions we take.

Parag Agrawal, der Chief Technology Officer bei Twitter, meldete sich zu Wort und versprach, den Algorithmus unter die Lupe zu nehmen. Auch Zoom hat angekündigt, eine eigene Analyse durchzuführen.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*