Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Unternehmensrichtlinien
Eingeschränkte Meinungsfreiheit: Diese Wörter werden von TikTok unterdrückt

Eingeschränkte Meinungsfreiheit: Diese Wörter werden von TikTok unterdrückt

Niklas Lewanczik | 06.10.22

Recherchen von NDR, WDR und tagesschau zeigen, dass TikTok diverse Wörter wie „Gas“ und „schwul“ automatisch filtert und Kommentare, die diese enthalten, nicht anzeigt.

Vorwürfen, dass TikTok keine transparente Content-Moderation betreibt und zuweilen sogar für das Unternehmen unliebsame Inhalte zurückhält, muss sich die ByteDance-Tochter schon lange stellen. Jetzt offenbaren Recherchen von NDR, WDR und tagesschau, dass auf der Plattform mindestens 20 Wörter gefiltert werden, sodass Kommentare, in denen sie verwendet werde, vielfach nicht erscheinen. Dabei finden sich im ausführlichen Test der Rechercheur:innen Wörter wie „Nazi“, „Sklaven“, „Pornographie“, „Gas“, „gay“ oder „LGBTQ“.

TikTok schränkt durch das Zurückhalten von Wörtern aktiv die Meinungsfreiheit ein und versucht, bestimmte Themen zu unterdrücken. Eine Sprecherin des Unternehmens verwies auf etwaige Richtlinienverstöße und Spam-Filter, räumte konfrontiert mit den Erkenntnissen aus der Analyse jedoch Fehler bei der Content-Moderation ein.

TikTok-Kommentare wurden falsch gekennzeichnet – ist das Problem größer als die Analyse zeigt?

Für die tagesschau berichten Svea Eckert und Catharina Felke vom NDR sowie Oskar Vitlif von der tagesschau, dass Kommentare, die einen der 20 gefilterten Begriffe enthalten, in mindestens vier Versuchen von unterschiedlichen Test-Accounts nicht öffentlich unter den Videos erschienen. Das Team testete insgesamt 70 Wörter und Wortkombinationen. Dabei zeigte sich, dass mindestens die folgenden Wörter im September 2022 automatisiert gefiltert wurden, um Kommentare mit diesen darin zu unterdrücken:

  1. Cannabis
  2. Crack
  3. Drogen
  4. Gas
  5. gay
  6. Heroin
  7. Heterosexuelle
  8. homo
  9. Kokain
  10. LGBTQ
  11. LGBTQI
  12. LSD
  13. Nazi
  14. Porno
  15. Pornografie
  16. Prostitution
  17. schwul
  18. Sex
  19. Sexarbeit
  20. Sklaven

Die TikTok-Sprecherin erklärte nach der Konfrontation mit diesen Ergebnissen, man würde bei TikTok „proaktiv nach Kommentaren suchen, die gegen unsere Richtlinien verstoßen oder die ein Spam-Verhalten darstellen“. In den Community-Richtlinien heißt es beispielsweise, dass „Pornografie oder sexuell eindeutige Inhalte“ nicht gestattet sind. Das mag erklären, warum Wörter wie „Sex“, „Prostitution“ oder „Pornografie“ gefiltert werden; wenngleich eine pauschale Ausblendung von Kommentaren, die derlei Wörter enthalten, einer Übergeneralisierung gleichkommt. Denn Kommentare mit diesen Wörtern könnten auch einen informativen und richtlinienkonformen Inhalt vermitteln.

Dass außerdem Wörter wie „gay“ oder „schwul“ dazu führten, dass Kommentare nicht angezeigt werden, ist besorgniserregend und lässt sich keinesfalls mit Spam-Filtern oder Richtlinien erklären. Gleiches gilt für die Unterdrückung von Inhalten, in denen die Wörter „Gas“ oder „Heterosexuelle“ vorkommen. Dementsprechend ergänzte die Sprecherin gegenüber der tagesschau:

In diesem Fall wurden Kommentare, die nicht gegen unsere Community-Richtlinien verstießen, fälschlicherweise als potenziell schädlich gekennzeichnet.

Angesichts der Unterdrückung dieser Wörter stellt sich die Frage, ob TikTok mithilfe der automatisierten Wortfilter nicht noch mehr Wörter, Phrasen oder Wortkombinationen in den Kommentaren unterdrückt – und damit die Meinungsfreiheit auf der Plattform einschränkt.

Keine Anzeige dazu, dass Kommentare auf TikTok nicht veröffentlicht werden

Werden die Kommentare mit den unterdrückten Wörtern nicht ausgespielt, so macht TikTok das für Nutzer:innen nicht transparent. Diese denken womöglich also, dass ihre Kommentare veröffentlicht werden. Im Prinzip, so heißt es im tagesschau-Bericht, betreibt TikTok damit Shadow Banning für die Interaktionen im Kommentarbereich.

TikTok gibt sich gegenüber der Presse und der Öffentlichkeit handlungsbereit, möchte die Moderationsmechanismen verbessern, um einen offeneren Austausch und mehr Transparenz auf der Plattform zu schaffen. Allerdings berichtete beispielsweise die tagesschau schon Anfang des Jahres von Wortfiltern, die eingesetzt werden, um Wörter wie „queer“ und „homosexuell“ oder „Auschwitz“ zu filtern und Kommentare mit diesen zu unterdrücken. Einige der Wörter konnten später wieder in Kommentaren eingesetzt werden, manche werden inzwischen aber wieder herausgefiltert.

Diese Erkenntnis befeuert die Kritik am ByteDance-Konzern, dem eine Content-Politik vorgeworfen wird, die weder transparent noch diskursfreundlich ist. Insbesondere die LGBTQI+ Community, die auf TikTok auch stark vertreten ist, äußert immer wieder Bedenken gegenüber den Moderationsmechanismen TikToks.

Wenn TikTok nicht wissentlich auf die Unterdrückung bestimmter Wörter setzt und es sich bei dieser tatsächlich um Fehler bei der Einordnung handelt, liegt das Problem in zu viel Automatisierung und zu wenig manueller Content-Moderation begründet – das ist ein Problem, das auch Facebook, Instagram und Co. umtreibt. Dabei sparen die Plattformen durch automatisierte Moderation Kosten ein, die mehr Moderator:innen verursachen würden. Und eine umfassende Aufarbeitung und Veränderung der Moderationspraktiken ist bei TikTok sowie anderen großen sozialen Medien kaum in Sicht. Das wiederum unterminiert einerseits den Diskurs und zum Teil sogar die Meinungsfreiheit, andererseits werden auf diese Weise womöglich Vorurteile und Stigmata reproduziert. Das Bild einer freiheitlichen, jungen und zeitgemäßen Plattform wird derart mächtig getrübt.

Im ausführlichen Bericht der tagesschau kannst du nachvollziehen, welche Wörter teilweise zu Kommentarausblendungen führten und welche Wortkombinationen überhaupt getestet wurden.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*