Politik

Facebook ergreift deutlich mehr Maßnahmen gegen Hate Speech und Terrorpropaganda

Facebooks Maßnahmen gegen Hate Speech und Co. werden umfassender. Während etwa deutlich mehr Gewaltbilder entdeckt werden, wird auch bei immer mehr gehandelt.

Facebook bekämpft Hate Speech, Terror, Spam und Co., Screenshot YouTube, © Facebook

Immer wieder stehen Social Media wie Facebook in der Kritik, weil dort Hate Speech, Terrorpropaganda oder unangemessene Inhalte überhaupt grassieren und Fake Accounts digitale Intransparenz widerspiegeln. Ein neuer Bericht Facebooks deckt nun auf, wie verbreitet derlei Phänomene auf der Plattform sind und wie effektiv Facebooks Prüfungsmechanismen inzwischen greifen.

Der Community Standards Enforcement Preliminary Report: Zuwachs der Gegenmaßnahmen 2018

Erstmals legt Facebook den Community Standards Enforcement Preliminary Report vor. Dieser soll für mehr Transparenz hinsichtlich der Bekämpfung von Negativphänomenen wie Hate Speech, Spam, Terrorpropaganda usw. sorgen. Der Bericht bezieht Daten von Oktober 2017 bis März 2018 mit ein und betrifft die Durchsetzung der Richtlinien Facebooks in Bezug auf folgende Aspekte:

  • graphisch dargestellte Gewalt
  • sexuelle Aktivität und pornographische Nacktheit
  • terorristische Propaganda
  • Hate Speech
  • Spam
  • Fake Accounts

Insgesamt sollen vier zentrale Fragen beantwortet werden:

  1. Wie verbreitet sind die spezifischen Übertretungen der Richtlinien auf der Plattform?
  2. Gegen wie viele Inhalte werden Maßnahmen ergriffen?
  3. Wie viel unangemessener Content wird entdeckt, ehe Nutzer ihn melden?
  4. Wie schnell wird gegen Verstöße vorgegangen?

Bisher können zur vierten Frage noch keine gesicherten Metriken angegeben werden, während Facebook auch zur Frage der Verbreitung nur bedingt Antworten aufweist.

Die Erkenntnisse des Berichts exemplarisch dargestellt

Wir suchen uns einige der genannten Aspekte heraus und schauen, welche Ergebnisse Facebook hierzu hinsichtlich der Eindämmung vorzuweisen hat. Beim Beispiel graphisch dargestellter Gewalt finden sich Zahlen dazu, wie verbreitet das Phänomen auf der Plattform ist, auch im Vergleich zum vierten Quartal 2017. Demnach gab es einen leichten Zuwachs solcher Bilder. Wurden im vierten Quartal 2017 noch 16 bis 19 von 10.000 Bildern als gewaltvoll und damit nicht mit den Richtlinien im Einklang erkannt, waren es im ersten Quartal 2018 22 bis 27.

Die Verbreitung von Gewaltbildern bei Facebook in den letzten beiden Quartalen, © Facebook

Trotz dieses leichten Anstiegs zeigt der Bericht jedoch auch gute Nachrichten. Denn im selben Zeitraum wurde die Zahl der Inhalte, gegen die Maßnahmen ergriffen wurden, von 1,2 Millionen auf 3,4 Millionen erhöht.

Die Zahl der von Facebook mit Maßnahmen bedachten Inhalte, die gewaltvolle Bilder darstellen in den letzten beiden Quartalen, © Facebook

Grund für diesen Zuwachs ist laut Facebook ebenfalls die Bereinigung eines Problems bei der Überprüfung von Fotos. Zudem bedeutete mehr gewaltvoller graphischer Content mehr notwendige Maßnahmen. Dabei hat Facebook auch die Prozentzahl gesteigert, die anzeigt, wie vieler Inhalten man sich annahm, ehe diese von Nutzern gemeldet wurden.

Die Prozentzahl der von Facebook mit Maßnahmen bedachten Inhalte, ehe diese von Nutzern gemeldet wurden in den letzten beiden Quartalen, bezogen auf gewaltvolle Bilder, © Facebook

Bei den meisten weiteren Verstößen sind keine Daten zur Verbreitung angegeben, nur bei sexueller Aktivität und pornographischer Nacktheit lässt sich in Bezug auf den Content ein Anstieg von 0,06-0,08 Prozent auf 0,07-0,09 Prozent erkennen.

Wie sieht es in anderen Bereichen aus? Unterschiede bei Terrorpropaganda und Hate Speech

In den meisten Bereichen hat Facebook einen Zuwachs an Content verzeichnet, gegen den Maßnahmen ergriffen werden. So war der Unterschied von Oktober 2017 bis zum März 2018 etwa bei der Terrorpropaganda (von 1,1 auf 1,9 Millionen Inhalte) und bei Hate Speech (1,6 auf 2,5 Millionen Inhalte) deutlich zu erkennen.

Allerdings zeigen sich prägnante Unterschiede bezogen auf die unangemessenen Inhalte, die Facebook findet, ehe sie von Nutzern gemeldet werden. Bei der Terrorpropaganda sind es inzwischen ganze 99,5, zuvor bereits 97 Prozent.

Prozentzahl der unangemessenen Inhalte, die Facebook findet, ehe sie von Nutzern gemeldet werden, bezogen auf Terrorpropaganda, © Facebook

Dagegen ist dieser Wert in Bezug auf Hate Speech noch schwach. Zwar ist er von 24 auf 38 Prozent gestiegen.

Prozentzahl der unangemessenen Inhalte, die Facebook findet, ehe sie von Nutzern gemeldet werden, bezogen auf Hate Speech, © Facebook

Doch das heißt auch, dass bislang deutlich weniger als die Hälfte der Inhalte, die Hate Speech enthalten, von Facebook erkannt werden. Nicht zuletzt wegen derlei Defiziten macht Facebook überhaupt diesen Bericht publik; und baut verstärkt auf Überprüfungen und Sicherheitsaspekte bezüglich der Inhalte auf der Plattform. Eine Meldung der letzten Woche zeigt, dass die Mitarbeiterzahl in diesem Bereich von 10.000 auf 20.000 anwachsen soll. Hierbei wird auch offenbar, dass Facebooks Community Operations Team in Deutschland vom CCC (Competence Call Center) und Arvato unterstützt wird.

Das CCC unterstützt Facebook bei der Content-Prüfung in Deutschland, © Facebook

Der langfristige Kampf gegen unangemessene Inhalte braucht Transparenz – und Investitionen

Wenn bei Facebook stetig mehr die Richtlinien verletzende Inhalte auftauchen, bedarf es zum Schutz der Community des Sozialen Netzwerks auch effektiverer Prüfungsmechanismen. Die Meldungen von Kooperationen und Personalaufstockungen zeugen bereits von den nötigen Investitionen, die das Unternehmen in diesem Bereich tätigt. Denn ohne diese werden Social Media auch trotz geltender Richtlinien mit Hate Speech, Pornographie oder Spam Content angereichert. Dem ist aufgrund der sozialen Komponente dieser Plattformen Einhalt zu gebieten.

Dabei darf nicht vergessen werden, dass ein Wert von sieben bis neun von 10.000 Bildern, die sich auf sexuelle Praktiken oder pornographische Nacktheit beziehen, recht gering ist. Vor allem wenn man bedenkt, dass die Plattform für zwei Milliarden Nutzer als Projektionsfläche genutzt werden kann. Demnach greifen die Sicherheitsmaßnahmen Facebooks bis zu einem gewissen Grad schon. Ein effizientes Kontrollsystem ist jedoch immerzu vonnöten. Und der transparente Zugang zum Thema, der mit dem neuen Community Standards Enforcement Preliminary Report vorliegt, ist hierfür ein extrem wichtiger Schritt. Einerseits stellt er Facebooks häufig infrage gestellte Maßnahmen gegen verwerfliche Inhalte deutlich aus. Und bietet dem Unternehmen künftig eine gute Rechtfertigungsgrundlage bei Kritik. Andererseits können Nutzer und Werbetreibende die Fortschritte bei der Durchsetzung der Facebook-Richtlinien verfolgen. Hier zeigt die Tendenz an, dass künftig wohl deutlich mehr Inhalte früher als unangemessen erkannt und verbannt werden.

Das wird bei dem gleichbleibenden oder noch größeren Einfluss Facebooks auf die Gesellschaft umso grundlegender sein. Denn mit einer zunehmenden Verschmelzung von digitaler und offline gelebter Gesellschaft wird auch asoziales oder kriminelles Verhalten im Netz, bei Facebook und andernorts als Problem relevant bleiben. Der Kampf dagegen geht weiter; von jetzt an aber mit mehr Transparenz.

Wie der neue Facebook-Bericht mit seiner Methodologie zu verstehen ist, zeigt das Unternehmen in einem Zusatzdokument eigens an.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.