Politik

Facebook setzt unabhängiges Gremium für Content-Prüfung ein

Facebooks Prüfung von Inhalten hat schon oft für Diskussionen gesorgt. Content soll von unabhängigen Experten geprüft werden – nun liegen Pläne dafür vor.

Facebook öffnet sich bei Content-Entscheidungen der Welt, © Facebook

Rassismus, Pornographie und Gewalt sind Teil von Facebook. Das sollten sie nicht sein und so gelagerte Inhalte verstoßen auch gegen die Richtlinien der Plattform; dennoch tauchen sie unweigerlich auf. All den Content beim weltgrößten sozialen Medium zu prüfen, ist keine leichte Aufgabe und nicht entfernte unangemessene Posts erregen häufig Aufsehen. Der Kritik an den eigenen Prüfmechanismen setzt Facebook nun ein Gremium zur Inhaltsprüfung entgegen, das in Härtefällen entscheiden soll.

Eine externe Instanz für Härtefälle: Ist das genug?

Im Blogpost erklärt Nick Clegg, VP of Global Affairs and Communications bei Facebook, dass das Unternehmen Pläne für ein Gremium entwickelt hat, dass unabhängig von Facebook selbst Entscheidungen bei Zweifelsfällen unangemessenen Contents trifft. Ein Entwurf für eine einheitliche Charta wurde bereits veröffentlicht. Allerdings müssen zentrale Entscheidungen erst noch getroffen werden. Dabei gilt es zu klären, wie viele Mitglieder im Gremium sitzen sollen und für wie lange. Außerdem muss entschieden werden, wie die einzelnen Härtefälle ausgewählt werden.

In den kommenden sechs Monaten werden weltweit – von Singapur über Berlin bis New York – Workshops gehalten, die Feedback zur bestmöglichen Einsetzung des Gremiums hervorbringen sollen. Zusätzlich sollen Organisationen, Wissenschaftler oder andere Gruppen in den kommenden Wochen die Möglichkeiten bekommen, ihre eigenen Vorschläge einzubringen.

Das Gremium soll nur für schwere Entscheidungen zuständig sein. Doch ein zentraler Faktor für seine Integrität wird die Auswahl dieser Fälle darstellen. Wenn Facebook bestimmte Inhaltsmuster nicht als entscheidenswert einstuft, dabei jedoch fragwürdige Posts nicht entfernt, bleibt das vorherige Problem bestehen.

Aufgaben und Zusammensetzung: So soll das Gremium aussehen

Die Balance von Nutzersicherheit und -schutz und freier Meinungsäußerung ist eine der größten Aufgaben aller Social Media. Manche Posts bei Facebook werden dabei zu Zweifelsfällen. Recht eindeutig sollten Posts voller Hetze und Rassismus sein, diese gilt es zu sperren. Trotzdem werden beim Sozialen Netzwerk immer wieder Hassreden, sogar Hakenkreuze etc. ausgemacht – während zu viel nackte Haut rigoros gesperrt wird. Trifft der Content nun im Kern das Moment der Ambivalenz, braucht es eine fundierte Entscheidung für den Verbleib oder die Sperrung desselben. Daher soll das geplante Gremium, das Oversight Board, folgende Hauptaufgaben haben:

  • eine Aufsicht über Facebooks Entscheidungen innehaben
  • Facebooks Entscheidungen korrigieren, wenn nöitg
  • als unabhängige Autorität neben Facebook auftreten

Themen könnten dabei vermutete Hate Speech, Mobbing oder künstlerischer Ausdruck sein. Dafür werden global Experten aus verschiedenen Disziplinen ausgewählt, um differente Facetten bei der Entscheidungsfindung miteinzubeziehen.

Der ganze Prozess soll sich durch das Jahr 2019 ziehen. Im Verlauf dieses Findungsprozesses für das Gremium wird dieses zusammen mit Facebook Updates zu seiner Struktur veröffentlichen. Die Mitglieder werden bekannt gegeben, sobald sie benannt sind.

Erste Informationen zu Facebooks Prüf-Gremium für fragwürdige Inhalte auf der Plattform (mit einem Klick aufs Bild gelangt ihr zur größeren Ansicht), ©TikTok

Der Entwurf der Charta gibt erste Antworten auf die Strukturen des Gremiums

Im Entwurf Facebooks wird konkretisiert, welche Experten Einzug ins Gremium halten sollen. Gefordert ist Erfahrung in den Bereichen Content, Zivilrecht, Menschenrechte, Privatsphäre und Sicherheit, freie Meinungsäußerung, Journalismus etc. Des Weiteren liefert der Entwurf Fragen, die sich bei der Implementierung der Prüfinstanz stellen und passend dazu Erwägungen und einen vorgeschlagenen Ansatz. So wird für die optimale Anzahl an Mitgliedern im Gremium beispielsweise die Zahl 40 vorgeschlagen, weil diese Diversität und eine relative Fokussierung ermöglicht. Außerdem gibt Facebook an, wie diese Mitglieder ausgewählt werden sollen:

Facebook will select the first cohort based on a review of qualifications that will be made public. Special consideration will be given to geographic and cultural balance as well as a diversity of backgrounds and perspectives.

Danach wird das Gremium selbst seine Mitglieder bestimmen. Sie sollen drei Jahre lang in Teilzeit als Experten bereitstehen. Andere Ansätze zu wichtigen Fragen betreffen etwa die Transparenz von Entscheidungen. Diese sollen, unter Berücksichtigung der Privatsphäre der Nutzer, sämtlich publik gemacht werden. Die Entscheidungen gehen dann vom Gremium aus; doch sind sie nicht einstimmig, können die Minderheiten ihre abweichende Meinung in der Publikation ebenso vermerken.

Zudem wird die Unparteilichkeit dadurch hervorgehoben, dass keine Facebook-Mitarbeiter, auch keine ehemaligen, und keine Politiker zur Verfügung stehen. Zudem sollen die Zuwendungen für die Mitglieder standardisiert und für ihre jeweilige Zeit im Gremium festgeschrieben sein, um Korruption vorzubeugen. Zusätzlich gilt es für sie, bei persönlicher Betroffenheit keine Entscheidung zu fällen; Bestechungsversuche sind zu melden und abzuwehren.

Diese und viele weitere Erklärungen liefert diese erste Zusammenstellung vonseiten der Plattform. Und sie liest sich gut. Doch ist man damit für alle Fälle gefeit?

Facebook gibt die Verantwortung im Zweifel weiter

Man kann Facebook die Bemühung, die Content-Qualität beim Medium zu erhöhen, nicht absprechen. Diese ist zwar jederzeit notwendig, doch dieser ausgefeilte Plan mit seiner Berücksichtigung externer, diverser und globaler Experten ist anerkennenswert. Allerdings gibt man damit auch einen Gutteil der Verantwortung bei Härtefällen im Inhaltsbereich ab. Schließlich ließe sich immer auf das Gremium verweisen, wenn ein spezifischer Fall nach Dafürhalten der Öffentlichkeit falsch beurteilt wurde.

Zudem bleibt auch mit der Einführung dieser Prüfinstanz offen, wie mit dem Gros der die Richtlinien verletzenden Content-Fälle umgegangen wird. Facebook setzt auf Algorithmen und zusätzlich manuelle Prüfung. Dabei sind jedoch häufig fragwürdige Inhalte, selbst nach der Meldung durch Nutzer, nicht entfernt worden. Vielleicht kann man mit dem neuen Gremium diesem Problem beikommen. Zumindest muss man das Bewusstsein für zulässige und unzulässige Inhalte auf einer so einflussreichen Plattform schärfen. Diese Entwicklung wird mit den Plänen angestrebt.

Über Niklas Lewanczik

Niklas Lewanczik

Niklas hat an der Uni Hamburg Deutsche Sprache und Literatur sowie Medien- und Kommunikationswissenschaften studiert und schreibt als Redakteur über Social Media, SEO und innovative Themen im Kontext des digitalen Marketing. Wenn er sich nicht gerade dem Marketing zuwendet, dann womöglich den Entwicklungen im modernen Fußball oder dem einen oder anderen guten Buch.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.