Social Media Marketing

Facebook gibt ein Update zur Einhaltung der Community Standards

Der neue Report zeigt: Das Unternehmen ist auf einem guten Weg. Doch nicht allen Feldern wird ausreichend Beachtung geschenkt.

© Facebook

Facebook hat kürzlich den dritten Community Standards Enforcement Report veröffentlicht, der Q4 2018 und Q1 2019 abdeckt. In diesem möchte das Unternehmen öffentlich und transparent aufzeigen, was im Kampf gegen die Verletzungen der Richtlinien unternommen wird. Ein Augenmerk lag hierbei auf Verletzungen der Richtlinien in folgenden Kategorien: Nacktheit und sexuelle Handlungen von Erwachsenen, Bullying und Belästigungen, Nacktdarstellung von Kindern und deren sexuelle Ausbeutung, Fake Accounts, Hate Speech, regulierte Produkte, Spam, terroristische Propaganda und anstößige Inhalte.

© Facebook (Zum Vergrößern anklicken)

Die Metriken, die der Bericht beachtet, sind im Folgenden aufgelistet:

Prevalence beschreibt die Häufigkeit mit der Content gesichtet wurde, der die Community Standards verletzt. Diese wird durch Stichproben hochgerechnet. Schätzungsweise kommen auf 10.000 Views von Content auf Facebook 11-14 Views, die gegen die Nacktheits- und sexuelle Aktivitäten-Richtlinien verstoßen. Ca. 25 Views von 10.000 sollen gegen die Gewalt- und explizite Inhalte-Richtlinien verstoßen.

Gegen wie viel Content tatsächlich etwas unternommen wurde, geben die Zahlen unter Content Actioned an. Dabei zeigt die Proactive Rate,wie viel von dem Content Actioned, schon bevor ein Nutzer ihn gemeldet hat, von Facebooks AI entdeckt wurde.

Immer mehr Hate Speech wird proaktiv entdeckt. © Facebook

Unter Appeals and Correcting Our Mistakes gibt Facebook erstmalig in dem Bericht an, wie viel Content wiederhergestellt wurde, nachdem er unrechtmäßig gelöscht wurde. Denn Postende können Einspruch dagegen einlegen, dass ihr Content von der Plattform genommen wurde, was dann wiederum von Facebook überprüft wird.

Seit Sommer 2018 wird AI genutzt, um proaktiv Content zu finden, der gegen die Bestimmungen bezüglich regulierter Waren verstößt. In Q1 2019 wurden nach Angaben des Berichts 900.000 Inhalte gefunden, die mit Drogenverkauf oder -ankauf zu tun hatten, die unter Data on Regulated Goods aufgelistet werden. Von den 900.000 Inhalten wurden 83 Prozent proaktiv entdeckt. Im Bereich Schusswaffen waren dies auf 670,000 Inhalte, 470.000 Funde, also eine Rate von 70 Prozent.

Mehr schädlicher Content wird von AI entdeckt als von Usern gemeldet. © Facebook

Nicht zu allen Inhalten werden die passenden Schritte unternommen

Während die Entwicklungen der Maßnahmen hinsichtlich der oben angeführten Kategorien vielversprechend aussehen, gibt es noch immer Inhalte, gegen deren Existenz auf Facebook nicht genug unternommen wird. So fand die Tierrechtsorganisation Lady Freethinker in der Zeitspanne von Oktober 2018 bis Februar 2019 2.000 Posts, die Hundekämpfe oder illegalen Handel mit Hunden für Hundekämpfe promoteten – außerdem über 150 Seiten, Gruppen und Profile, die mit Hundekämpfen zu tun haben, wie in einem Bericht veröffentlicht wurde.

Die AI findet nur das, wonach sie suchen soll

Facebook hatte Probleme, die Inhalte zu finden, da – wie auch im Drogengeschäft – oft Abkürzungen oder kodierte Worte genutzt werden, nach denen das System nicht sucht. Doch anders als im Bereich Drogen wurden hier bisher auch keine Bemühungen unternommen, die gängigen Begriffe zu lernen und anschließend nach ihnen zu suchen. Facebook reagierte auf den Bericht mit einem Statement und gab an, Nachforschungen anzustellen.

We’re grateful to Lady Freethinker for bringing these posts to our attention and we have contacted them so we can get the information we need to investigate this content,

sagte ein Sprecher Facebooks dem Guardian gegenüber. Wie immer fordert das Soziale Netzwerk seine Nutzer dazu auf, jeden Inhalt zu melden, der gegen die Community Standards verstößt, doch eigene Anstrengungen scheinen zunächst nur in den Bereichen unternommen zu werden, die nur Menschen betreffen – dabei teilweise auch etwas zu übereifrig, wie in letzter Zeit vermehrt kritisiert wurde. So hatte das Unternehmen vor Kurzem beispielsweise eine Kampagne gegen Brustkrebs wegen zu viel Nacktheit von der Plattform gelöscht. Hier sollten die Prioritäten der Kategorien eventuell etwas überarbeitet werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.