Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Social Media Marketing
Facebooks Kriterien zum Löschen von Inhalten: Das Problem ist weit größer

Facebooks Kriterien zum Löschen von Inhalten: Das Problem ist weit größer

Tina Bauer | 23.05.17

Die internen Schulungsunterlagen für Facebookmitarbeiter zeigen, dass das Netzwerk große Probleme mit der Moderation hat - und diese auch nicht lösen will.

Facebook gilt als eine der fortschrittlichsten Werbeplattformen mit Targetingmöglichkeiten, an die nicht einmal Google herankommt. Das überproportionale Wachstum des Netzwerks allerdings führt zu immer mehr Problemen. Facebook gilt als Sammelbecken für Hatespeech, Rassismus und Gewalt. Die Möglichkeit des Livestreamens hat darüber hinaus dazu geführt, dass User Vergewaltigungen, Morde und weitere kriminelle Taten filmen und Millionen von Nutzern diese Inhalte sehen können. Der Content kann zwar ebenfalls von jedem Nutzer gemeldet werden. Dass Facebook daraufhin aber in Aktion tritt, ist äußerst selten der Fall. Nun veröffentlichte der Guardian am vergangenen Sonntagnachmittag interne Papiere, die dem Blatt von Facebook-Mitarbeitern zugespielt wurden. Dabei geht es um die Kriterien, nach denen Inhalte gelöscht werden.

Gewalt ist nicht gleich Gewalt

Der Guardian weiß von über 100 Dokumenten, bestehend aus internen Schulungsunterlagen. Diese geben darüber Aufschluss, nach welchen Kriterien Facebook Inhalte, die Gewalt, Hatespeech, Terrorismus, Pornografie, Rassismus und Selbstverletzung beinhalten, löscht. Die Anweisungen, die in den Schulungsunterlagen zu finden sind, sind zu großen Teilen mehr als fragwürdig. Denn sie sind weder konsistent noch konsequent: Während beispielsweise ein Post, dessen Inhalt „Someone shoot Trump“ lautet, sofort gelöscht wird, dürfte „I hope someone shots you“ stehenbleiben.

Fragwürdige Anweisungen aus den Richtlinien für Moderatoren:

  • „Someone shoot Trump“ muss gelöscht werden, weil es sich um ein Staatsoberhaupt handelt und er somit als zu schützen eingeordnet wird. “To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat”, was soviel bedeutet wie „Um das Genick einer Schlampe zu brechen, sollte der gesamte Druck auf ihrer Kehle liegen“ aber dürfte stehenbleiben. Das gleiche gilt für „Fuck off and die“ – verpiss dich und stirb.

  • Videos gewaltsamer Tode werden zwar als verstörend kategorisiert, dürfen aber manchmal stehenbleiben, um für psychische Krankheiten zu sensibilisieren.

  • Bilder, die das Mobbing von Kindern sowie den nicht-sexuellen Missbrauch abbilden, müssen nicht zwangsweise gelöscht werden. Es sei denn, es finden sich sadistische oder feierliche Elemente in den Abbildungen oder Videos.

  • Tierquälerische Inhalte dürfen gepostet werden, sind diese aber extrem verstörend, werden sie als solche gekennzeichnet.

  • Kunst, die nackte Menschen oder sexuelle Aktivitäten abbildet, darf gepostet werden. Ist diese Kunst digital produziert worden, werden sie gelöscht.
  • So lange keine nackten Menschen zu sehen sind, dürfen Inhalte von Abtreibungen gezeigt werden.
  • User, die sich selbst verletzen, dürfen sich dabei streamen. Denn Facebook will Menschen in einer solchen Situation nicht noch bestrafen.
  • Jeder User ab 100.000 Followern gilt als öffentliche Person, weshalb ihm die Rechte eines privaten Users versagt werden.

Das Problem mit der Moderation

Auf Facebook teilen User pro Minute 1,3 Millionen Posts und jeden Monat werden 6,5 Millionen Fake User gemeldet. Facebook kommt mit der schnellen Entwicklung des Netzwerkes nicht hinterher und hat erst kürzlich verlauten lassen, jetzt 3.000 neue Moderatoren für Live Videos einstellen zu wollen, nachdem Morde, Selbstmorde oder Vergewaltigungen gestreamt wurden. Doch ist dies nur der Tropfen auf den heißen Stein, denn auch das Aufstocken der dafür Zuständigen wird kaum ausreichen. Derzeit bleiben einem Mitarbeiter lediglich 10 Sekunden, um zu entscheiden, ob ein Post gelöscht wird oder nicht. Darüber hinaus werden womöglich auch die zusätzlichen Mitarbeiter mit den geleakten Unterlagen geschult, die mehr Fragen aufwerfen, als sie beantworten.

Obwohl Facebook als Publisher die Verantwortung dafür tragen sollte, eine allgemein gültige Netiquette zu etablieren – wie jeder andere Publisher auch -, bleibt dies einfach aus. Als Argument führt Monika Bickert, Head of Global Policy Management bei Facebook, an, dass die Community ja global und enorm groß wäre und wohl jeder eine unterschiedliche Auffassung darüber haben wird, was angebracht ist.

We have a really diverse global community and people are going to have very different ideas about what is OK to share. No matter where you draw the line there are always going to be some grey areas. For instance, the line between satire and humour and inappropriate content is sometimes very grey. It is very difficult to decide whether some things belong on the site or not.

Den Anstoß an die neuen Richtlinien dürfte übrigens unter anderem das von Facebook im letzten Jahr gelöschte Bild des nackten vietnamesischen Mädchens gegeben haben. Doch während die ikonische Kriegsfotografie gelöscht wird, dürfen pornographische Comics oder offen rassistische Posts bestehen bleiben. Meldungen über Hakenkreuze, Nazis, die Ausländern mit dem Tode drohen, oder missbräuchliche Bilder und Videos verstoßen laut Facebook meist nicht gegen die Gemeinschaftsstandards.

„The Terror Of War“ – Eine wichtige, historische Kriegsfotografie aus dem Vietnamkrieg, die Facebook aufgrund der Darstellung des nackten Mädchens hat löschen lassen.

Eine Werbeplattform ohne Moral?

Facebook verfügt über nahezu zwei Milliarden User und verkommt immer mehr zum Moloch, in dem jeder tun und lassen kann, was er will. Es sei denn, es handelt sich um Nacktheit. Darüber hinaus lehnt das Netzwerk eine allgemeingültige Netiquette aufgrund der Diversität des Netzwerkes ab. Es hinterlässt schon einen sehr faden Beigeschmack, dass Facebook als eine der technologisch fortschrittlichsten Werbeplattformen gilt, die nahezu täglich neue Features für Advertiser herausbringt, auf der anderen Seite aber keine Verantwortung übernehmen will. Man bemüht sich ganz offensichtlich nur halbgar um das Eindämmen von Rassismus oder Gewalt, während die Targetingmöglichkeiten für Advertiser immer ausgefeilter werden. Der Kollateralschaden wird dabei in Kauf genommen.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*