Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Digitalpolitik
Studie: Trägt YouTube zur Radikalisierung der User bei?

Studie: Trägt YouTube zur Radikalisierung der User bei?

Nadine von Piechowski | 29.01.20

YouTube hat immer wieder Probleme mit Verschwörungstheoretikern und rechtsradikalen Inhalten. Nun untersucht eine Studie, ob die Plattform zur Radikalisierung von Usern beiträgt.

Auf der diesjährigen ACM Conference on Fairness, Accountability, and Transparency präsentierten Wissenschaftler des schweizerischen Forschungsinstituts École polytechnique fédérale an der Universität Lausanne und der brasilianischen Federal University of Minas Gerais eine neue Studie, die zeigt, welchen Einfluss YouTube-Kommentare auf die politischen Einstellungen der User haben. Nutzer werden durch die Kommentare auf der Video-Plattform Ideologien aus dem radikalrechten Lager ausgesetzt. Das hat einen erheblichen Einfluss auf die Radikalisierung der YouTube-User. Eines der Kernergebnisse der Studie: Nutzer, die bislang rechte Kommentare unter Videos aus dem rechten Lager posteten, taten dies nach kurzer Zeit auch bei Videos, die keinen rechtsradikalen Inhalt hatten.

„Pipeline Effect“: User sehen sich immer rechtsradikalere Videos an

Die Wissenschaftler fanden außerdem heraus, dass sich dieser Effekt auch umkehren lässt. Das heißt, dass User, die zuvor Videos anschauten, die keine radikalrechten Inhalte aufwiesen, schauten über die Jahre immer extremere Videos anklickten. Dieser„Pipeline Effect“ lasse sich auf eine Radikalisierung der User zurückführen, so die Wissenschaftler. In der Untersuchung wurden 330.925 Videos, die in 349 Channels gepostet wurden und ungefähr 72 Millionen Kommentare analysiert. Die Inhalte wurden in vier Kategorien eingeteilt: Media, Alt-lite, Intellectual Dark Web (IDW), Alt-right. In der Studie heißt es:

A significant amount of commenting users systematically migrates from commenting exclusively on milder content to commenting on more extreme content […] We argue that this finding provides significant evidence that there has been, and there continues to be, user radicalization on YouTube, and our analyses of the activity of these communities […] is consistent with the theory that more extreme content ‘piggybacked’ on the surge in popularity of I.D.W. and Alt-lite content […] We show that this migration phenomenon is not only consistent throughout the years, but also that it is significant in its absolute quantity.

Einen genauen Mechanismus, wie die Radikalisierung stattfindet, konnten die Wissenschaftler nicht herausarbeiten. Grund dafür sei, dass die Wissenschaftler keinen erweiterten Zugriff auf die Empfehlungsdaten und die Account-Personalisierung, die einen erheblichen Einfluss auf die Video-Empfehlungen ausübt, hatten.

YouTube ist als Host für die Inhalte verantwortlich

Einer der Wissenschaftler, die die Studie auf der Konferenz präsentierten, war Horta Ribeiro. In einer anschließenden Diskussionsrunde kam die Frage auf, woher man wisse, dass YouTube diesen Radikalisierungseffekt verursache. Schließlich können Nutzer ja auch durch andere Seiten oder Menschen radikalisiert worden sein. Ribeiro bestätigte, dass es schwierig sei, YouTube alleine die Verantwortung für die Radikalisierung von Usern zuzuschreiben. Allerdings sagte er weiter:

We do find evident traces of user radicalization, and I guess the question asks why is YouTube responsible for this? And I guess the answer would be because many of these communities they live on YouTube and they have a lot of their content on YouTube and that’s why YouTube is so deeply associated with it.

YouTube äußerte sich zu diesem Thema bisher nicht. Allerdings hatte die Video-Plattform in den vergangenen Jahren immer wieder Probleme mit Rechtsradikalen oder Verschwörungstheoretikern, die ihre Inhalte dort veröffentlichten. Guillaume Chaslot, Mitentwickler des YouTube-Algorithmus, beklagte bereits, dass der Algorithmus außer Kontrolle sei. YouTube versuchte das Problem zu lösen. Während eines Testlaufs in Großbritannien experimentierte die Video-Plattform mit einem Algorithmus, der Videos löscht, die nicht den Richtlinien entsprechen. Darunter würden neben rechtsradikalen Videos und Verschwörungstheorien auch linksradikale Videos fallen.

Kommentare aus der Community

Peter Müller am 30.01.2020 um 13:34 Uhr

Ich radikalisiere mich auf Youtube eher mit Videos der Bundespressekonferenz. Wenn man da die Ausflüchte und das Herumdrucksen von Seibert und co zu kritischen Fragen sieht und dann die Kommentare liest, ist man sofort auf 180.

Antworten
Mike am 29.01.2020 um 15:11 Uhr

„Darunter würden neben rechtsradikalen Videos und Verschwörungstheorien auch linksradikale Videos oder antifaschistische Inhalte fallen.“

Sehr zum Leidwesen der Autorin? ;)

Antworten
Nadine von Piechowski am 29.01.2020 um 16:09 Uhr

Lieber Mike,

vielen Dank für deinen Kommentar. Da alle radikalen Videos gegen die Richtlinien von YouTube verstoßen, werden diese an dieser Stelle ebenfalls genannt. Damit aber keine Missverständnisse entstehen, haben wir den Satz angepasst.

Viele Grüße aus Hamburg

Nadine

Antworten
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*