Facebook veröffentlicht Bericht: Fake Accounts zu 99,6 Prozent selbst erkannt, Hate Speech nur zur Hälfte

Im Community Standards Enforcement Report klärt Facebook darüber auf, wie mit Übertretungen umgegangen wird. Die Proaktivität hat deutlich zugenommen.

Facebook veröffentlicht Community Guidelines Enforcement Report, Screenshot YouTube, © Facebook

Das Soziale Netzwerk hat seinen Bericht zur Durchsetzung der Gemeinschaftsstandards veröffentlicht. Dabei zeigt sich, dass in den meisten Fällen, in denen Facebook wegen eines unangemessenen Inhalts handelt, das Team von über 30.000 Sicherheitsbeauftragten den Content identifizierte. Zuvor war die Quote geringer, doch Facebook optimierte seine proaktive Technologie zum Aufdecken solcher Inhalte.

Zu den Kategorien, die als Verletzung der Gemeinschaftsstandards angesehen werden, gehören:

  • Mobbing und Belästigung (diese Kategorie ist neu)
  • Nacktheit und sexuelle Ausbeutung von Kindern (diese Kategorie ist neu)
  • Fake Accounts
  • Spam
  • Gewalt und graphische Inhalte
  • Hate Speech
  • terroristische Propaganda
  • Nackheit und sexuelle Aktivität Erwachsener

Bisher ermittelt Facebook zu diesen Bereichen, wie verbreitet die unzulässigen Inhalte sind, gegen wie viele Content-Einheiten vorgegangen wurde und wie oft Facebook dabei handelte, bevor ein User den spezifischen Inhalte meldete. Derzeit werden außerdem Metriken entwickelt, um zu prüfen, wie schnell Facebook im Fall der Übertretung handelt und wie oft Fehler korrigiert werden.

Insgesamt handelte Facebook im dritten Quartal 2018 gegen rund 63 Millionen Inhalte exklusiv Spam und Fake Accounts. Im gleichen Zeitraum wurden eine Milliarde und 231 Millionen Spam-Inhalte sowie 754 Millionen Fake Accounts entfernt. Hier ist der Zuwachs der unzulässigen Inhalte deutlich.

Klarer Zuwachs beim Einschreiten gegen Spam-Inhalte vonseiten Facebooks, © Facebook

Bei anderen Bereichen, der terroristischen Propaganda oder der Nackheit und sexuellen Aktivität Erwachsener ging die Zahl der beanstandeten Inhalte, gegen die Maßnahmen ergriffen wurden, zurück. Deutlich gestiegen ist sie wiederum im Kontext von graphisch dargestellter Gewalt.

Die Zahl der von Facebook oder seinen Usern erkannten unzulässigen Inhalte, gegen die das Unternehmen dann vorgeht, ist allerdings nur ein Hinweis auf die tatsächliche Entwicklung solchen Contents auf der Plattform. Deutlich wird aber, dass Facebook viel öfter gegen Content vorgeht, der selbst als unangemessen identifiziert wurde, bevor eine Nutzermeldung den Hinweis gab. Bei den meisten Kategorien liegt der Wert deutlich über der 90-Pozent-Grenze. Einzig Mobbing und Belästigung sowie Hate Speech zeigen hier schwache Werte. Aspekte, die mitunter schwieriger automatisiert zu erkennen sind. Doch man darf hoffen, dass Facebook künftig auch hier proaktiv mehr Inhalte entfernen wird, ehe sie von Usern gemeldet werden müssen.

Alle Ergebnisse im Detail gibt es im Bericht; Verständnishilfen bietet Facebook in einem entsprechenden Guide.

Facebook wird proaktiver beim Durchsetzen der Gemeinschaftsstandards

Über Niklas Lewanczik

Niklas Lewanczik

Niklas hat an der Uni Hamburg Deutsche Sprache und Literatur sowie Medien- und Kommunikationswissenschaften studiert und schreibt als Redakteur über Social Media, SEO und innovative Themen im Kontext des digitalen Marketing. Wenn er sich nicht gerade dem Marketing zuwendet, dann womöglich den Entwicklungen im modernen Fußball oder dem einen oder anderen guten Buch.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.