Politik

Bericht zu Myanmar: Facebook gibt zu mehr gegen Hetze tun zu müssen

Die Rolle Facebooks bei der Vertreibung der Rohingya aus Myanmar wurde heiß diskutiert. Nun stimmt man zu eine Mitverantwortung bei Schmähungen zu tragen.

Facebook muss mehr gegen Hetze tun, Screenshot YouTube, © Facebook

Facebook gibt offiziell zu bis zu diesem Jahr nicht genug gegen die Aufstachelung zu Hate Speech und sogar Gewalt auf der eigenen Plattform getan zu haben. Zu diesem Schluss kam ein Bericht zur Rolle Facebooks bei der Unterdrückung und Vertreibung der Rohingya in Myanmar. Als Reaktion weist das Soziale Netzwerk auf seine vielen Initiativen hin und gelobt Besserung. Doch kommt die Einsicht zu spät?

Facebook hätte im Kontext Myanmar mehr tun können

Ein Bericht der Non-Profit-Organisation BSR (Business for Social Responsibility), der mit den UN Guiding Principles on Business and Human Rights in Einklang steht, erklärt, dass Facebook zumindest bis zu diesem Jahr nicht genug getan hat, um über Hate Speech initiierte Gewalt oder eine gesellschaftliche Spaltung zu unterbinden. Bezogen auf die Vertreibung, ja systematische Verfolgung der muslimischen Minderheit der Rohingya aus und in Myanmar wird der Plattform ein gewichtiger Einfluss zugesprochen:

Though the actual relationship between content posted on Facebook and offline harm is not fully understood, Facebook has become a means for those seeking to spread hate and cause harm, and posts have been linked to offline violence.

Facebooks Product Policy Manager, Alex Warofka, erkennt im Blogpost als Reaktion auf den Bericht an:

The report concludes that, prior to this year, we weren’t doing enough to help prevent our platform from being used to foment division and incite offline violence. We agree that we can and should do more.

In Myanmar, wo die Vertreibung der Rohingya laut UN-Ermittlungsleiter Marzuki Darusman als Völkermord einzustufen ist, so die ZEIT, nutzen gut 20 Millionen Menschen Facebook. Allerdings nicht nur als soziales Netzwerk, sondern als Instrument zur Information überhaupt. Die Zahl der Internet- und Facebook-Nutzer im Land ist gleich hoch: „For the majority of Myanmar’s 20 million internet-connected citizens, Facebook is the internet“. Die Zensur im digitalen Raum ist streng. Daher nutzen viele einflussreiche Personen Myanmars Facebook, um Meinungen über Religion, Rassen, LGBT-Themen usw. zu verbreiten. Der Bericht deutet an, dass derlei Äußerungen im Kontext von Hate Speech zu Offline-Gewalt beigetragen haben dürften:

There are indications that organized groups make use of multiple fake accounts and news pages to spread hate speech, fake news, and misinformation for political gain. Rumors spread on social media have been associated with communal violence and mob justice.

Facebooks tatsächliche Teilschuld bei der systematischen Unterdrückung der Rohingya 

Zwar ist nicht von der Hand zu weisen, dass Facebook zu einem großen politischen Instrument mutiert ist. Doch kann man der Plattform deshalb keine Hauptschuld an Verbrechen geben, die von Menschen begangen wurden. Immerhin hat Facebook überhaupt zu einer freieren Meinungsäußerung in Myanmar beigetragen und einen breiteren öffentlichen Dialog ermöglicht. Das Problem Facebooks liegt darin, dass die eigenen Richtlinien und Ansprüche auf Gesetzen fußen, die im Land mitunter keine Gültigkeit mehr haben.

Facebook isn’t the problem; the context is the problem,

meint ein Interviewter. Die Menschenrechte in Myanmar sind derzeit in Gefahr und schon 2020 stehen dort Wahlen an. Aufgrund der Beobachtungen und der derzeitigen Lage reagiert Facebook jedoch. Bis Jahresende sollen 100 Spezialisten speziell die Inhalte im Myanmar-Kontex prüfen. Dieses Team soll dafür sorgen, dass die Community Standards eingehalten werden. Außerdem hat Facebook seine Regularien zu glaubhaften Gewaltabsichten überarbeitet. Nun wird potentieller „Schaden in der realen Welt“, der in Korrelation mit Facebook Content steht, schneller erkannt und verhindert. Weiterhin sollen Inhalte, die nicht offensichtlich gegen Richtlinien verstoßen, genauer geprüft werden. Zusammen mit CrowdTangle werden in Myanmar Posts und mehr analysiert, die sich im Land verbreiten und womöglich unangemessen sind.

Auch bei der proaktiven – und nicht nur reaktiven – Entfernung von Hate Speech hat das Unternehmen Fortschritte gemacht. 63 Prozent solcher Hasskommentare etc. wurden im dritten Quartal 2018 poroaktiv entfernt; im letzten Quartal 2017 waren es nur 13 Prozent. Zusätzlich wird über KI nach visuellen Gewaltdarstellungen gesucht.

Ein Problem, dem sich Facebook und andere digitale Player noch gegenübersehen, ist dabei, dass Myanmar Unicode nicht als internationalen Coding-Standard akzeptiert. Zawgyi wird genutzt, um burmesische Inhalte zu codieren, weshalb ein automatisiertes Erfassen böswilliger Inhalte erschwert wird.

Facebook als Politikmacher: Wie viel Verantwortung muss sein?

Facebook investiert zusehends in mediale Bildung in Myanmar. Zudem wird mit Publishern kooperiert, um Kapazitäten und Ressourcen für die Online Newsrooms zu gestalten. Dazu werden Trainings von Facebook angeboten, aber auch Programme und Tools des Facebook Journalism Project. Mit all seinen Initiativen möchte Facebook den Missbrauch der Plattform mindestens minimieren – ihn zu vertreiben scheint kaum möglich. Gleichzeitig sollen soziale und ökonomische Entwicklungen über das Soziale Netzwerk angestoßen werden. Dabei werden lokale Entwickler gefördert, ebenso kleine Unternehmen. Das Projekt #SheMeansBusiness stärkt die weiblichen Entrepreneure im Land.

We know we need to do more to ensure we are a force for good in Myanmar, and in other countries facing their own crises,

heißt es. Die Vorhaben lesen sich gut und sind durchaus ehrbar. Bei aller Kritik darf eine umfassendere Perspektive nicht fehlen, die zeigt, dass Facebook auch die Kraft hat zu verbinden. Das erkennt auch der BSR-Bericht an:

Facebook enables people to connect, share, discover, and communicate with each other on mobile devices and personal computers.

Dennoch ist Facebook ein politisch höchst relevanter Faktor. Das belegen die Einflüsse bei den US-Wahlen 2016. Auch kurz vor den jüngsten Midterm-Wahlen in den USA hat das Unternehmen wieder Konten wegen Verdachts auf Wahlbeeinflussung gesperrt. Facebooks Head of Cyber Security, Nathaniel Gleicher, gab gegenüber TechCrunch an, dass die Konten mit der russischen Organisation Internet Research Agency (IRA) in Verbindung gebracht wurden:

Last night, following a tip off from law enforcement, we blocked over 100 Facebook and Instagram accounts due to concerns that they were linked to the Russia-based Internet Research Agency (IRA) and engaged in coordinated inauthentic behavior, which is banned from our services. This evening a website claiming to be associated with the IRA published a list of Instagram  accounts they claim to have created. We had already blocked most of these accounts yesterday, and have now blocked the rest. This is a timely reminder that these bad actors won’t give up — and why it’s so important we work with the US government and other technology companies to stay ahead.

Ein neuer Bericht offenbart, dass Google oder Facebook Ads, die unlauter politischen Einfluss nehmen, verbannen. Doch wie Reuters berichtet, blieben bei 258 entfernten Ads der Unternehmen, die mit den Midterms in Verbindung standen, diese Anzeigen im Schnitt acht Tage (Google) oder 15 Tage (Facebook) im Werbesystem. In der Zeit kann schon ein Einfluss genommen werden.

Wie viel Verantwortung trägt Facebook also im Kontext von Hate Speech und politischer Einflussnahme? Diese Frage ist häufig diskutiert worden und der Diskurs wird nicht verschwinden. Facebook hat sich eine große Macht aufgebaut und profitiert in unerhörtem finanziellem Maße davon. Es reicht nicht den Usern und Werbetreibenden immer wieder sehr hilfreiche und aufregende Features an die Hand zu geben; auch der soziokulturelle und politische Rahmen muss für die eigene Plattform abgesteckt und kontrolliert werden. Denn Facebook kann diese Verantwortung nicht abwälzen, wenn über zwei Milliarden Menschen als eigene User ausgegeben und für Werbezwecke genutzt werden.

Inzwischen sind vielfach Maßnahmen eingeleitet worden, um dieser Verantwortung nachzukommen. Aber kommt die Einsicht zu spät?

Hätte Facebook vorher handeln sollen?

Im Nachhinein ist man zwar immer schlauer, aber Facebook muss schon vor Jahren um die eigene Macht im digitalen Raum gewusst haben. Dass diese mit einem Einfluss auf das tatsächliche Leben einhergeht, ist nicht von der Hand zu weisen. So wirkt jeder Blogpost, der Maßnahmen für die Unterstützung der kulturellen und ökonomischen Gegebenheiten in Myanmar oder im Kampf gegen politische Wahlbeeinflussung durch Ads auf der Plattform ankündigt, reumütig, einsichtig und beinah generös.

Allerdings kommt all das zu spät für das Volk der Rohingya oder politische Opposition in den USA usw. Genau wie beim Thema Hate Speech, das auch auf Instagram so zentral bleibt, muss eine proaktivere Unternehmenspolitik bei Facebook Einzug halten. Das klingt leicht gesagt und ist mit Sicherheit mehr als kompliziert; vor allem im Angesicht der differenten politischen, wirtschaftlichen und kulturellen Situationen weltweit. Wer aber global operiert und sich mit seiner Vormachtstellung in Social Media rühmt, muss die Zeichen der Zeit erkennen und der Verantwortung gemäß handeln. Oder einen Schritt zurück machen. Besserung ist in Sicht und so lässt sich hoffen, dass Facebooks Bezugnahme auf den Bericht der BSR bedeutet, dass der Fokus künftig mehr auf die politische Bedeutung des Sozialen Netzwerks gelegt wird.

Über Niklas Lewanczik

Niklas Lewanczik

Niklas hat an der Uni Hamburg Deutsche Sprache und Literatur sowie Medien- und Kommunikationswissenschaften studiert und schreibt als Redakteur über Social Media, SEO und innovative Themen im Kontext des digitalen Marketing. Wenn er sich nicht gerade dem Marketing zuwendet, dann womöglich den Entwicklungen im modernen Fußball oder dem einen oder anderen guten Buch.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.