Cases
BBC-Studie: Meta und TikTok pushten toxische Inhalte systematisch

BBC-Studie: Meta und TikTok pushten toxische Inhalte systematisch

Larissa Ceccio | 17.03.26

Warum sehen wir so viel Hass im Feed? Eine BBC-Recherche zeigt, wie Meta und TikTok Inhalte priorisierten, die starke Reaktionen auslösen. Problematischer Content wird nicht nur toleriert, sondern systematisch verstärkt.

Empörung ist kein Nebenprodukt sozialer Netzwerke, sondern ihr Treibstoff. Recherchen der BBC-Dokumentation Inside the Rage Machine aus dem März 202 basieren auf Interviews mit mehr als einem Dutzend Whistleblowern und Insidern. Sie zeigen, wie Meta und TikTok problematische Inhalte in Teilen zugelassen und teils aktiv gefördert haben sollen, um Engagement zu steigern. Gemeint sind nicht nur klar illegale Inhalte, sondern vor allem sogenannter Borderline Content, also Beiträge, die legal sein können, aber nachweislich problematisch wirken, etwa Frauenfeindlichkeit, Verschwörungserzählungen, Hassrede oder gewaltvolle Inhalte.

Dass genau solche Inhalte besonders gut funktionieren, ist seit Jahren empirisch belegt. Eine MIT-Studie von 2018 zeigt, dass sich emotional aufgeladene Inhalte deutlich schneller und weiter verbreiten als sachliche Informationen. Inhalte mit Falschmeldungen hatten eine 70 Prozent höhere Sharing-Wahrscheinlichkeit vorzuweisen

Damit wird klar, warum Emotionen wie Wut, Überraschung oder Schock im Zentrum vieler Feeds stehen. Sie sind keine Nebeneffekte, sondern zentrale Signale für Interaktion. Generative KI verstärkt diese Dynamik zusätzlich, weil sich täuschend echte und potenziell irreführende Inhalte heute schneller und in größerem Umfang produzieren lassen.

Diese problematische Logik ist eng mit dem Geschäftsmodell der Plattformen verknüpft. Je länger Nutzer:innen bleiben, desto mehr Werbung lässt sich ausspielen. Die Erkenntnisse aus der BBC-Dokumentation zeigen kein Einzelproblem, sondern ein System, das problematische Inhalte absichtlich verstärkt.



TikTok is back:
Back to normal?

Donald Trump vor TikTok-Logo auf Screen, schwarzer Hintergrund
© Solen Feyissa, Library of Congress – Unsplash (bearbeitet via Canva)


„Was Empörung auslöst, wird verstärkt“ – so funktionieren TikTok, Instagram und Facebook

Dass viele Nutzer:innen täglich Hass, Desinformation und problematische Inhalte sehen, ist kein Zufall. Was im Feed landet, folgt den von Plattformen wie Instagram und TikTok bewusst gesetzten Mustern – geprägt von wirtschaftlichen Interessen, nicht vom Schutz der Nutzer:innen. Die BBC-Recherche liefert dazu konkrete Einblicke.

Meta pusht, was triggert

Ein ehemaliger Meta-Ingenieur, den die BBC in der Dokumentation anonymisiert als „Tim“ führt, sagte, dass Teams gezielt mehr Borderline Content zugelassen haben. Gemeint sind Inhalte, die nicht illegal sind, aber problematisch wirken, etwa frauenfeindliche Beiträge oder Verschwörungserzählungen. Die Entscheidung sei laut seiner Darstellung ökonomisch geprägt gewesen. Wettbewerbsdruck durch TikTok sowie der Druck auf den Aktienkurs hätten die strategische Ausrichtung maßgeblich beeinflusst. Auf Management-Ebene sei die Logik entsprechend formuliert worden: Wer im Wettbewerb mit TikTok zurückliegt, riskiert auch wirtschaftliche Einbußen. Wachstum habe damit oberste Priorität gehabt. Parallel dazu liefen interne Tests mit teils hunderten Millionen Nutzer:innen, häufig ohne deren Wissen, um zu analysieren, welche Inhalte besonders stark performen und wie sich Feeds entsprechend optimieren lassen.

Interne Dokumente, die unter anderem vom ehemaligen Meta Researcher Matt Motyl stammen, zeigen, wie kalkuliert diese Strategie ist. Das Problem war intern bekannt. Ein Dokument, das der BBC vorliegt, hält fest, dass die durch die Algorithmen geschaffenen finanziellen Anreize nicht mit der eigenen Mission übereinstimmen. Inhalte, die Empörung auslösen, werden systematisch bevorzugt – selbst dann, wenn sie dem Wohl der Nutzer:innen schaden. In internen Analysen wird zudem beschrieben, dass Algorithmen besonders stark auf Inhalte reagieren, die Empörung hervorrufen. Inhalte, die emotional aufladen, bleiben sichtbar und werden weiter ausgespielt.

Wie deutlich sich das in der Praxis zeigt, wird beim Blick auf Instagram Reels klar. Interne Daten weisen darauf hin, dass Kommentare dort signifikant häufiger problematische Inhalte enthalten als im klassischen Feed: 75 Prozent mehr Mobbing und Belästigung, 19 Prozent mehr Hassrede sowie sieben Prozent mehr Gewalt und Aufstachelung.

Gleichzeitig wurde massiv in Wachstum investiert. Brandon Silverman, Mitgründer des von Meta übernommenen Analyse-Tools CrowdTangle und früher selbst in strategische Diskussionen eingebunden, berichtete, dass rund 700 zusätzliche Stellen in den Ausbau von Reels flossen, während Sicherheits-Teams deutlich weniger Ressourcen erhielten.

Kritiker:innen sehen in diesen Entwicklungen auch eine politisch geprägte Kurskorrektur im Kontext von Donald Trumps zweiter Amtszeit im Weißen Haus. Inhalte werden weniger streng moderiert, während politische und wirtschaftliche Interessen stärker berücksichtigt werden. Sie sprechen von einem strategischen Entgegenkommen gegenüber politischen Akteur:innen, um regulatorischen Druck zu reduzieren.

TikTok setzt andere Prioritäten als behauptet

Bei TikTok ergibt sich aus der BBC-Recherche ein ähnlich problematisches Bild. Eine Person aus dem Trust-and-Safety Team, die die BBC als „Nick“ anonymisiert, sagte, dass interne Systeme Fälle nicht primär nach Risiko priorisieren. Demnach seien politische Fälle teils höher eingestuft worden als Meldungen zu Cybermobbing oder sexueller Ausbeutung von Minderjährigen. Der Grund dafür sei aus Sicht des Whistleblowers nicht der Schutz der Nutzer:innen gewesen, sondern der Versuch, eine „strong relationship“ zu politischen Entscheidungsträger:innen aufrechtzuerhalten und Regulierungen oder Verbote zu vermeiden.

Dazu passt die technische Perspektive von Ruofan Ding, der von 2020 bis 2024 als Machine-Learning-Ingenieur an TikToks Empfehlungssystem gearbeitet hat. Er beschreibt die Empfehlungslogik als eine Art Black Box. Für Entwickler:innen seien Inhalte in erster Linie Datenpunkte. Die Verantwortung für problematische Inhalte liege bei separaten Safety Teams, während das System selbst auf Interaktion optimiert werde. Genau das macht die Dynamik so brisant. Inhalte, die aufregen, werden sichtbarer. Inhalte, die schaden, verschwinden nicht automatisch.

Wie real die Folgen sein können, zeigt auch ein Fall aus der Recherche. Ein junger Nutzer names Calum, heute 19 Jahre alt, berichtete, dass er durch den Algorithmus ab dem Alter von 14 Jahren radikalisiert worden sei. Ihm seien Inhalte ausgespielt worden, die seine Wut verstärkten und rassistische sowie frauenfeindliche Ansichten förderten. Gleichzeitig warnen britische Anti-Terror-Spezialist:innen laut BBC vor einer zunehmenden Normalisierung antisemitischer, rassistischer, gewaltvoller und rechtsextremer Inhalte auf Plattformen.

Social-Media-Verbote für Jugendliche: Die falsche Stellschraube?

Die aktuellen Enthüllungen dürften die Debatte über Social-Media-Verbote für Minderjährige weiter anheizen. Was lange als zu drastisch galt, wird inzwischen konkret umgesetzt. Australien hat im Dezember 2025 als erstes Land weltweit ein Social-Media-Verbot für unter 16-Jährige eingeführt. Indonesien führt seit März 2026 schrittweise ein Verbot für unter 16-Jährige ein, Malaysia plant ähnliche Regelungen. In Europa ziehen mehrere Länder nach. Spanien arbeitet an einem Verbot für unter 16-Jährige, Frankreich hat Anfang 2026 ein Gesetz für ein Verbot unter 15 Jahren verabschiedet, das noch final bestätigt werden muss. Dänemark, Griechenland und weitere Länder prüfen vergleichbare Altersgrenzen. Auch in Deutschland gewinnt die Debatte an Schärfe. Eine repräsentative YouGov-Erhebung aus dem Jahr 2025 zeigt, dass eine Mehrheit strengere Regulierungen für die Social-Media-Nutzung von Minderjährigen befürwortet.

Genau an diesem Punkt wird die Debatte allerdings komplizierter. Unter jungen Nutzer:innen wächst der Eindruck, dass sie die Folgen eines Systems ausbaden sollen, das von den Plattformen selbst gestaltet wurde. Zumal nicht nur Minderjährige betroffen sind. Auch Erwachsene zeigen Muster wie Kontrollverlust, Abhängigkeit oder exzessive Nutzung. Kritiker:innen argumentieren deshalb, dass Verbote zwar Symptome adressieren, die eigentliche Plattformlogik aber kaum verändern. Einige Mechanismen, die Empörung belohnen, Borderline Content verstärken und toxische Inhalte algorithmisch sichtbar machen, bleiben bestehen. Die eigentliche Frage lautet deshalb nicht nur, ob Jugendliche Social Media nutzen sollten. Sie lautet auch, warum Plattformen immer noch so gebaut sind, dass Wut, Schock und Empörung als besonders wertvolle Signale gelten.



Mehrheit der Deutschen ist dafür:
Kommt jetzt das Social-Media-Verbot für Millionen Jugendliche in der EU?

Threads und X auf dem Smartphone
© Panos Sakalakis – Unsplash

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*