Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Unternehmensrichtlinien
Harmloser Content zu oft gesperrt: Meta moderiert versehentlich zu viel

Harmloser Content zu oft gesperrt: Meta moderiert versehentlich zu viel

Niklas Lewanczik | 04.12.24

Zu viele User werden auf Meta-Plattformen unfairerweise für harmlosen Content abgestraft, erklärt der Konzern. Sogar die Free Speech sei beeinträchtigt. Das möchte man geraderücken, wirft aber auch einen Blick auf die Gefahr durch AI.

Hast du das auch schon erlebt: Dein Konto auf Facebook, Instagram oder Threads wird ohne triftigen Grund gesperrt, dein Post wegen angeblicher Richtlinienverletzungen entfernt oder dein Video aus unerfindlichen Gründen nicht ausgespielt? Millionen von Usern und Creatorn kennen das Problem. Und die Beschwerden gegenüber Meta reißen nicht ab. Kürzlich hat der Social-Media-Konzern, dessen App Family täglich von 3,2 Milliarden Menschen genutzt wird, öffentlich eingestanden, dass er zu viele Fehler bei der Content Moderation macht. Nick Clegg, President für Global Affairs bei Meta, schreibt:

[…] We know that when enforcing our policies, our error rates are too high, which gets in the way of the free expression we set out to enable. […]

Das Eingeständnis gibt Creatorn und Medien Hoffnung auf Besserung. Allerdings benennt der Konzern zwar viele Aspekte der Content-Moderation und beschwichtigt auch hinsichtlich der Gefahr durch AI-Inhalte – eine echte Lösung für die Übermoderation wird aber nicht präsentiert.

Im Kontext: Meta erklärt Moderationsvorgehen im Wahljahr

Der betreffende Blog Post Metas bezieht sich auf Plattformbeobachtungen aus dem Wahljahr 2024. Neben der medienwirksamen US-Wahl gab es unter anderem Wahlen in Brasilien, Indien, Mexiko und beispielsweise in der EU. So schreibt Clegg:

[…] As a company that operates platforms where public discourse takes place, Meta understands the responsibility it has to protect people’s ability to make their voices heard, and ensure we are prepared for the many elections around the world.  

Deshalb kann man seine Äußerungen bezüglich der Content-Moderation womöglich vor allem im Kontext von Inhalten betrachten, die sich im weitesten Sinne auf politische Entwicklungen beziehen. Doch auch unabhängig davon dürfte vielen Usern ein ums andere Mal ein Moderationsfehler untergekommen sein. Das ist auf der einen Seite nicht verwunderlich, denn keine Social-Media-Plattform kann ein völlig fehlerfreies Moderationssystem bieten. Gerade bei der Menge der User ist das utopisch. Zum anderen ist es für die Creator und auch Publisher aber ärgerlich, wenn Inhalte oder sogar Konten zu Unrecht gesperrt werden. Auf Threads gibt es bereits viele Beiträge zu Moderation Failures.

Auf Threads ansehen

Und Nick Clegg sieht das Problem:

[…] Too often harmless content gets taken down or restricted and too many people get penalized unfairly […] .

Obwohl Creator gegen illegitime Content-Sperrungen vorgehen können, dauert das oft lange und hat mitunter keinen Effekt. Zudem ist die Entfernung eines relevanten Posts zu einem bestimmten Zeitpunkt für Creator und Medien oft problematisch aufgrund der Aktualität des Themas.

Welche Lösungen hat Meta parat?

Grundsätzlich unterscheiden sich die Moderationsbestrebungen verschiedener Social-Media-Plattformen. Die Plattform X beispielsweise hat das Moderations-Team stark abgebaut und erlaubt enorm viele Inhalte – sogar Hate Speech –, die in anderen Medien klar gegen die Richtlinien verstoßen würden. Die Alternative Bluesky wiederum versucht derzeit, durch den Ausbau des Moderations-Teams mit dem enormen User-Wachstum mitzuhalten und die Einhaltung der Richtlinien umfassend durchzusetzen.

Meta passt die eigenen Richtlinien für Plattformen wie Instagram, Facebook und Threads immer wieder an. Laut Clegg sollen in den kommenden Monaten neue Anpassungen folgen. Doch wie die aussehen, ist unklar. Er verweist lediglich auf vorherige Anpassungen, etwa Kontrollen über politische Inhalte, das 2023 überholte Penalty-System und jährliche Audits in Bezug auf Hassrede und Wörter, die diese betreffen.

Des Weiteren führt er im Blog Post aus, wie Meta mit groß angelegten Einflusskampagnen aus dem Ausland umgeht. Dabei geht es zum Beispiel um Netzwerke aus Russland, die Facebook und Co. mit Content bespielen. Außerdem liefert Nick Clegg einen Hinweis auf die Gefahren durch KI-Inhalte, schreibt aber, dass es vergleichsweise wenig Content im Wahlkontext gab, der Grund zur Sorge bereitet:

While there were instances of confirmed or suspected use of AI in this way, the volumes remained low and our existing policies and processes proved sufficient to reduce the risk around generative AI content. During the election period in the major elections listed above, ratings on AI content related to elections, politics and social topics represented less than 1% of all fact-checked misinformation.

Metas eigene Imagine AI lehnte vielfach die Anfrage zur Generierung von AI Deepfakes der US-Politiker:innen wie Donald Trump, Joe Biden und Kamala Harris ab. Nun möchte Meta in den nächsten Monaten neue Richtlinien vorstellen.

[…] Striking the balance between free expression and security is a constant and evolving challenge. As we take stock of what we’ve learned during this remarkable year, we will keep our policies under review and announce any changes in the months ahead.

Für User heißt das womöglich, dass auch künftig bei Moderationsfehlern eines gilt: abwarten.

US-Politik könnte eine Rolle spielen

Eine nicht unerhebliche Rolle dürfte ab 2025 auch die US-Politik spielen, wenn es um Regularien für soziale Medien geht. Der Trump-nahe Brendan Carr soll künftig die US-Medienaufsicht FCC (Federal Communications Commission) leiten und hat bereits angekündigt, das „Zensurkartell“ auf sozialen Medien zu zerstören. Damit nimmt er Bezug auf Moderationspraktiken, wie sie der ebenfalls von Trump für die neue US-Regierung berufene X-Eigner Elon Musk für überflüssig zu halten scheint, da sie die Redefreiheit einschränken würden. Oft ist dieses Scheinargument ein Mantel für die Tolerierung von Hate Speech. Donald Trump, der vielen Medien mindestens kritisch gegenübersteht, möchte die FCC künftig strenger kontrollieren und drohte schon öfter mit Strafen für vermeintlich fehlerhafte Berichterstattung.


Meta präsentiert Entwurf für EU-weite Regelungen zum Jugendschutz in digitalen Medien

Meta-Logo vor violettem Hintergrund
© Muhammad Asyfaul – Unsplash

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*