Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Unternehmensnews
Facebooks Content-Moderation soll dank KI Worst-Case-Inhalte priorisieren
© Greg Bulla - Unsplash

Facebooks Content-Moderation soll dank KI Worst-Case-Inhalte priorisieren

Caroline Immer | 16.11.20

Die Plattform hat ein neues System entwickelt, mit welchem schädliche Beiträge automatisch nach Relevanz sortiert werden. Dadurch soll es den Moderatoren ermöglicht werden, sich zunächst um die problematischsten Inhalte zu kümmern.

Facebook will die Moderation von potenziell problematischem Content auf der Plattform in Zukunft mithilfe von Künstlicher Intelligenz noch besser handhaben. Dazu wurde ein System entwickelt, welches die Posts mithilfe verschiedener Algorithmen nach Viralität, Schweregrad und der Wahrscheinlichkeit des Verstoßes gegen die Regeln ordnet. So sollen besonders problematische Beiträge bei der Überprüfung durch die Moderatoren priorisiert werden.

Aktuell setzt die Plattform auf eine Mischung aus KI und menschlichen Moderatoren. Sobald ein User oder ein Machine-Learning-Filter einen Beitrag meldet – etwa aufgrund von Hate Speech oder Spam –, wird der Post in klaren Fällen automatisch entfernt oder das Konto des Erstellers blockiert. In allen anderen Fällen kümmern sich die rund 15.000 menschlichen Moderatoren um die Handhabung. Bislang geschah dies in chronologischer Reihenfolge. Das neue System soll nun dabei helfen, die schwerwiegendsten Fälle als erstes zu bearbeiten.

Beiträge mit Gefahrenpotenzial sollen zuerst überprüft werden

Facebook gab nicht weiter an, wie genau die verschiedenen Kriterien den Stellenwert eines Posts bei der Überprüfung bestimmen. Klar ist, dass das neue System dabei helfen soll, Beiträge, welche echten Schaden in der nichtdigitalen Welt ausrichten könnten, möglichst schnell zu entfernen.

© Facebook via The Verge

Die neue Art der Priorisierung macht Hoffnung, dass Facebook gegen gefährliche Inhalte künftig noch effektiver vorgehen wird. In den vergangenen Monaten unternahm Facebook bereits Schritte, die Plattform sicherer zu gestalten – etwa durch die Entfernung von Inhalten der Verschwörungsgruppe QAnon. Allerdings könnten einige User besorgt sein, dass KI problematischen Content weniger genau erkennen kann als menschliche Moderatoren. Doch laut Facebook seien diese immer noch essenzieller Teil des Prozesses. Ryan Barnes, Produktmanager bei Facebooks Community Integrity Team, erklärt:

All content violations will still receive some substantial human review, but we’ll be using this system to better prioritize [that process].