Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Social Media Marketing
Transparenz-Report: AI hilft Facebook gegen Hate Speech

Transparenz-Report: AI hilft Facebook gegen Hate Speech

Aniko Milz | 20.11.20

Facebook hatte in diesem Jahr stark mit Hate Speech zu kämpfen. Auf der sozialen Plattform wurde eine Rekordzahl hasserfüllter Inhalte entfernt.

In einem neu veröffentlichten Transparency Report zeigt Facebook auf, wie viel Hate Speech Content auf der Plattform proaktiv entfernt wurde. Dabei hat sich das soziale Netzwerk in diesem Jahr verstärkt auf Artificial Intelligence verlassen.

Zweimal im Jahr veröffentlicht Facebook seit inzwischen sieben Jahren den Transparency Report. Während in diesen früher eher offengelegt wurde, was für Anfragen die Regierung für User-Daten stellt, steht nun der Prozess im Vordergrund, mit dem die Plattform gegen Hate Speech vorgeht. Laut den Angaben im Report bestehen 0,10 bis 0,11 Prozent des Contents, den User sehen, aus hasserfülltem Content. Das entspricht zehn oder elf Views auf 10.000 Views. Facebook gibt an, immer mehr Inhalte zu finden und proaktiv zu entfernen, bevor User diese zu Gesicht bekommen. Hate Speech definiert Facebook dabei als Inhalte, die andere Menschen aufgrund eines bestimmten Merkmals angreifen:

[…] we define hate speech as anything that directly attacks people based on protected characteristics, including race, ethnicity, national origin, religious affiliation, sexual orientation, sex, gender, gender identity or serious disability or disease.

AI statt Moderatoren: Doch wie schnell passt die Technologie sich an?

In diesem Jahr hat Facebook einige Änderungen an den eigenen Richtlinien vorgenommen. So verbannte das Unternehmen erst Inhalte der QAnon-Verschwörungsgruppe und anschließend die von Holocaust-Leugnern. Auch in Bezug auf Inhalte zu der Coronapandemie musste Facebook eine klare Linie finden. Die neuen Richtlinien und eine sich verändernde Sprache, die neue Ereignisse aufgreift, erschwerten es, zu verbannenden Content rechtzeitig zu identifizieren. Schließlich ist die AI auf diese Inhalte noch nicht trainiert und Content-Moderatoren sollten im Home Office gewissen Inhalten nicht ausgesetzt werden. Dennoch heißt es im Community Standards Enforcement Report, der Teil des Transparenzberichts ist, dass mittlerweile 95 Prozent von hasserfülltem Content entfernt werden kann, bevor er von Nutzenden gemeldet wird.

© Facebook

Wie auf der Grafik zu sehen ist, hat Facebook damit eine erstaunliche Verbesserung im Vergleich zu den vergangenen Jahren geschafft. In 2017 wurden nur etwa 24 Prozent des Contents proaktiv entfernt. Zudem stieg die Anzahl der entfernten Inhalte dramatisch an. Während im letzten Quartal 2019 etwa 645.000 Inhalte entfernt wurden, waren es im dritten Quartal 2020 6,5 Millionen.

Dennoch steht Facebook in der Kritik, nicht genug im Kampf gegen Hate Speech zu unternehmen. In einer kürzlich abgehaltenen Senatsanhörung verteidigten sowohl Mark Zuckerberg für Facebook als auch Jack Dorsey für Twitter ihre Content-Moderation-Praktiken. Beide schienen am Ende gewillt, vermehrt gegen Hate Speech vorzugehen – allerdings in ihrem eigenen Tempo über die nächsten Jahre hinweg.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*