Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Cases
Mozilla-Untersuchung zeigt: YouTubes Algorithmus schlägt schädliche Videos vor

Mozilla-Untersuchung zeigt: YouTubes Algorithmus schlägt schädliche Videos vor

Niklas Lewanczik | 08.07.21

Der YouTube Regrets Report der Mozilla Foundation offenbart, dass ein Großteil der als unangemessen eingestuften Videos bei YouTube durch den plattformeigenen Algorithmus vorgeschlagen wurden.

Im Jahr 2020 wurde der Mozilla RegretsReporter gelauncht. Dabei handelt es sich um eine Open-Source-Browser-Erweiterung, mit der User Content von YouTube, den sie „bedauern“ gefunden oder gesehen zu haben, identifizieren können. Basierend auf diesem Tool hat die Mozilla Foundation nun eine Studie veröffentlicht, bei der über 37.000 YouTube User Daten zu bedauerten Erfahrungen auf der Videoplattform geteilt haben. Der YouTube Regrets Report zeigt: Von den tausenden markierten Videos wurden 71 Prozent durch YouTubes Algorithmus vorgeschlagen.

Ist YouTubes Algorithmus so designt, dass er auch schädliche Videos vorschlägt?

3.362 bedauerte Videos wurden im Zeitraum zwischen Juli 2020 and Mai 2021 und in 91 Ländern von den Usern der Browser-Erweiterung gemeldet und im Report von Mozilla erfasst. Um in einem nächsten Schritt zu ermitteln, ob diese Videos tatsächlich auch gegen YouTubes Richtlinien verstoßen, hat Mozilla eine Arbeitsgruppe von Expert:innen mit Hintergrundwissen zu schädlichen Online-Inhalten, Meinungsfreiheit und Tech-Richtlinien einberufen, um sich eine Auswahl der gemeldeten Videos anzusehen. Diese Gruppe sollte einen Rahmen für die Klassifizierung basierend auf den Community-Richtlinien von YouTube entwickeln. Ein Team von 41 wissenschaftlichen Mitarbeiter:innen der University of Exeter nutzte diese Vorgaben dann, um die gemeldeten Videos zu bewerten.

Insgesamt schätzt Mozilla, dass 12,2 Prozent dieser Videos nicht auf YouTube zu sehen sein dürften, wenn die Richtlinien herangezogen werden. Dabei zeigte sich, dass die Videos – von Falschinformationen zu Covid-19 bis hin zu unangemessenen Kinder-Cartoons – zu 71 Prozent von YouTubes Algorithmus vorgeschlagen wurden. Außerdem war die Wahrscheinlichkeit, die „bedauerten“ Videos zu finden, über YouTubes Empfehlungs-Feature 40 Prozent höher als bei der eigenen aktiven Suche nach Videos. Die Rate dieser Videos war in Ländern, in denen Englisch nicht die primäre Sprache ist, um 60 Prozent höher.

Die Gründe, warum die gemeldeten Videos als unangemessen eingestuft werden, in Prozent
Die Gründe, warum die gemeldeten Videos als unangemessen eingestuft werden, in Prozent, © Mozilla Foundation

Brandi Geurkink, Mozillas Senior Manager of Advocacy, äußert sich auf dem Mozilla Blog zu den Ergebnissen der Untersuchung. Sie sagt:

YouTube needs to admit their algorithm is designed in a way that harms and misinforms people. Our research confirms that YouTube not only hosts, but actively recommends videos that violate its very own policies. We also now know that people in non-English speaking countries are the most likely to bear the brunt of YouTube’s out-of-control recommendation algorithm.

Dem Vorwurf an YouTube folgt die Hoffnung, dass der Algorithmus der Videoplattform auch im Zuge solcher Untersuchungen optimiert werden wird.

Mozilla hopes that these findings—which are just the tip of the iceberg—will convince the public and lawmakers of the urgent need for better transparency into YouTube’s AI,

ergänzt Geurkink.

Das sind Mozillas Vorschläge, um mehr Sicherheit bei YouTube zu gewährleisten

Doch Mozilla möchte nicht einfach nur auf ein Problem bei YouTube hinweisen. Das betont Brandi Geurkink im Blogpost und sagt, dass mehr Transparenz und eine bessere Überwachung sowie der Druck von Konsument:innen dazu beitragen können, den Algorithmus YouTubes zu verbessern. Mit dem Ziel, dass die Plattform Usern schädliche Inhalte weniger oft empfiehlt. Dazu hat Mozilla vier mögliche Schritte formuliert, auf die YouTube und auch andere Plattformen zurückgreifen könnten:

  • Plattformen sollten stetig Transparanzberichte veröffentlichen, die auch Informationen zum eigenen Algorithmus enthalten. Zumindest auf dem Creator Insider Channel bei YouTube hatte die Videoplattform erst kürzlich Insights zum eigenen Algorithmus gegeben.
  • User sollten bei Plattformen die Chance zum Opt-out für personalisierte Empfehlungen haben.
  • Die Plattformen sollten Risiko-Management-Systeme entwickeln, die ein Augenmerk auf die Empfehlungs-KI legen.
  • Die Gesetzgebung sollte Gesetze entwickeln, die Transparenz von KI-Systemen fordern und unabhängige Researcher schützen.

All diese Optionen würden auf ein hehres Ziel hinarbeiten. Dass YouTube den eigenen Algorithmus aber völlig offenlegt, scheint derzeit kaum vorstellbar. Und auch die Opt-out-Funktion für personalisierte Videovorschläge wäre für YouTubes Werbegeschäft mit personalisierten Ads kontraproduktiv. Immerhin hat Google-Mutter Alphabet allein 2020 über sechs Milliarden US-Dollar Umsatz nur mit YouTube Ads machen können. Daher würde YouTube die tausenden schädlichen Videos bei den Abermillionen von Inhalten auf der Plattform womöglich als Kollateralschaden einordnen. Das Unternehmen bemüht sich nach eigenen Angaben bereits, die Empfehlung schädlicher Videos stark einzudämmen. Gegenüber NBC News erklärte Google:

We constantly work to improve the experience on YouTube and over the past year alone, we’ve launched over 30 different changes to reduce recommendations of harmful content.

Den gesamten YouTube Regrets Rerport kannst du hier nachlesen. Wenn du Insights zum YouTube-Algorithmus erhalten möchtest, lies unsere Beiträge zu den empfohlenen Videos und FAQs zum diesem Thema.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*