Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Unternehmensrichtlinien
So verbiegt TikTok die eigenen Regeln für Top Creator

So verbiegt TikTok die eigenen Regeln für Top Creator

Larissa Ceccio | 21.09.22

Geleakte Aufzeichnungen zeigen, dass TikTok Creator mit über fünf Millionen Followern bevorzugt und sogar bei Richtlinienverstößen schützt.

TikTok bevorzugt, laut durchgesickerter Audioaufzeichnungen eines internen TikTok Meetings im Herbst 2021, Inhalte von Influencern, Prominenten und Menschen mit mehr als fünf Millionen Followern. Hierfür hat die ByteDance-Tochter ein zweistufiges Content-Moderationssystem entwickelt, um ausgewählte Beiträge gezielt priorisieren zu können. Selbst bei Verstößen dieser VIPs auf TikTok soll die Entertainment-Plattform mithilfe des „nachsichtigeren“ Systems diese schützen können.

Emily Baker-White, Journalistin für unter anderem Forbes und Autorin des Forbes-Artikels über den Leak, weist auf Twitter auf TikToks separates Content-Moderationssystem für Creator mit mehr als fünf Millionen Followern hin.

Wertvolle Creator auf TikTok unterliegen besonderem Schutz; selbst wenn sie Regeln missachten

TikTok unterliegt, wie sämtliche soziale Plattformen, einer Reihe von Community-Richtlinien. Diese gelten für alle Mitglieder und gilt es zu überwachen. Denn nur so können User vor Fake News, Hate Speech und dergleichen geschützt werden. Erst kürzlich hat eine Studie über die TikTok-Suche ergeben, dass jedes fünfte Video Fehlinformationen enthält. Insbesondere im Kontext des Coronaimpfstoffs, der Ereignisse rund um den Sturm auf das Capitol in Washington, D.C. am 6. Januar 2021 und hinsichtlich verschiedener Suchanfragen zum Thema Abtreibung. Und eigentlich heißt es auf der Website der Plattform, dass die Regeln zum Schutz vor solchen Inhalten „für alle und alles auf TikTok gelten“.

Doch die Audioaufzeichnungen zeigen, dass im Rahmen des Moderationssystems wertvolle Konten mit sogenannten Creator Labels gekennzeichnet und somit geschützt wurden. Während eines Treffens Ende September 2021 erklärte ein Mitglied des Trust & Safety-Teams von TikTok, dass die Labels „besonderen Nutzer:innen“ vorbehalten seien und sagte:

We don’t want to treat these users as, um, like any other accounts. There’s a bit more leniency, I’d say.

Auf die Nachfrage nach der Existenz eines eigenen Systems für die Inhaltsmoderationen von besonders wertvollen Creatorn erklärte die Unternehmenssprecherin Jamie Favazza gegenüber Forbes:

TikTok is not more lenient in moderating accounts with more than 5 million followers. We do not have moderation queues based on following size. Favazza did not immediately answer a follow-up question about whether the company had previously employed such a system.

Die Bevorzugung und der Schutz wichtiger Personen auf Social-Media-Plattform ist nicht neu

TikTok ist nicht das erste Social-Media-Unternehmen, das die Regeln für bestimmte Personen anpasst. Auch Twitter, YouTube und Spotify haben mit Regelverstößen von A-Listen-Prominenten oder auch Medienunternehmen zu kämpfen. Doch ein Unternehmen ist dafür berühmt berüchtigt, bestimmte Creator mit wertvoller Reichweite zu bevorzugen: Meta. Das Unternehmen hinter Facebook und Instagram nutzt ebenfalls ein ausgeklügeltes System namens XCheck, um ausgewählte Nutzer:innen zu schützen, etwa Prominente, Journalist:innen und Politiker:innen.

Ein internes Memo, über das zuerst das Wall Street Journal berichtete, kritisierte Meta dafür und schrieb:

[I]t creates distrust, fuels the narrative that Facebook is ‚biased‘ and undermines our goal of building legitimacy with stakeholders and community.

Damals bestätigte Facebook die Existenz des Systems und beschrieb es als Qualitätssicherungssystem für „Inhalte, die mehr Verständnis erfordern könnten“.

Das Bevorzugungssystem von TikTok scheint erheblich weniger ausgefeilt, doch unverblümter zu sein als das XCheck-System von Facebook. Denn während die Eignung von Facebooks XCheck teilweise davon bestimmt wird, ob ein Account „aktuell“ oder „PR-risikoreich“ war, scheint die Grenze bei TikTok rein numerisch zu sein: Creator Labels sind laut des geleakten Audioberichts schlichtweg für Konten reserviert, die mehr als fünf Millionen Follower haben.

Gefahren des Vorzugssystem von TikTok für wertvolle Creator

Evelyn Douek, Professorin an der Stanford Law School und Senior Research Fellow am Knight First Amendment Institute in Columbia, erklärte, dass es verständlich sei, dass Social-Media-Unternehmen eine spezielle Überprüfung wirklich hochkarätiger Konten durchführen möchten. Das Risiko jedoch besteht darin, dass ein solches System leicht missbraucht werden könnte, besonders wenn es von Leuten betrieben werde, die einen finanziellen Anreiz hätten, Inhalte beizubehalten oder zu entfernen. Sie erklärte weiter:

A system meant to ensure that rules are applied consistently is very different from a system meant to ensure that rules are applied inconsistently, say, when the bottom line is at stake.

Vergangene Eklats um TikTok-Inhalte von Konten mit über 5 Millionen Followern

Daniel Aronov, ein australischer Arzt, der 13 Millionen Follower auf TikTok hatte, erhielt Kritik, weil er während seiner Operationen Videos gepostet hatte, und wurde schließlich von einer australischen Aufsichtsbehörde angewiesen, sein TikTok-Konto zu löschen. Issey Moloney, eine 17-Jährige, die für ihre 5,9 Millionen Follower Beiträge über psychische Erkrankungen veröffentlichte, wurde kritisiert, weil sie zur Selbstdiagnose ermutigt hatte. Als Antwort auf Fragen zu diesen Konten sagte Sprecherin Favazza:

While we can confirm violative content has been removed from accounts you’ve flagged, we prioritize people’s privacy and therefore do not disclose private information about accounts.

Die Ergebnisse dieser Umfrage zeigen dir, welchen Stellenwert Social-Media-Analysen für dich als Marketer:in haben sollten und wo du künftig anknüpfen kannst, um besser messen zu können!

Jetzt kostenlos herunterladen

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

*
*