Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
GPT-4 zur Inhaltsmoderation soll Entlastung und mehr Sicherheit bieten
© Levart_Photographer - Unsplash (Änderungen wurden vorgenommen via Canva)

GPT-4 zur Inhaltsmoderation soll Entlastung und mehr Sicherheit bieten

Larissa Ceccio | 16.08.23

OpenAI gab jüngst bekannt, dass GPT-4 jetzt erfolgreich für die Inhaltsmoderation eingesetzt werden kann. Die neuen Möglichkeiten sollen beispielsweise Moderationsteams von sozialen Plattformen erheblich entlasten können.

In vielen Ländern unterliegen Online-Plattformen gesetzlichen Bestimmungen, die den Umgang mit bestimmten Arten von Inhalten regeln. Die Moderation dieser hilft dabei, diese Vorschriften einzuhalten. Doch sie erfordert akribische Arbeit, Sensibilität, ein tiefes Verständnis des Kontexts sowie schnelle Anpassung an neue Anwendungsfälle, was sie sowohl zeitaufwändig als auch anspruchsvoll macht. Traditionell lag die Last dieser Aufgabe bei menschlichen Moderator:innen, die große Mengen an Inhalten durchsuchen, um problematische Inhalte herauszufiltern. Dabei wurden sie von kleineren, vertikalspezifischen maschinellen Lernmodellen unterstützt. Doch der bisherige Prozess ist trotz dieser bestehenden Tools mühselig und kann bei sehr toxischen Inhalten sogar mentale Belastungen hervorrufen. OpenAI hat sich dieser Problematik gewidmet und möchte mithilfe von KI menschliche Moderator:innen bei ihrer täglichen Arbeit unterstützen und so gleichzeitig für einen respektvollen Umgang miteinander sowie mehr Sicherheit und weniger Fake News im Netz sorgen.


OpenAI nutzt den GPTBot, um Websites zu crawlen und eigene KI-Modelle zu optimieren. Doch die Seitenbetreiber:innen können das Crawling ganz oder teilweise verwehren.

Neuer Crawler GPTBot:
Websites können Inhalte für OpenAI blockieren

OpenAI-Logo, pinkfarben und mehrfach
© Mariia Shalabaieva – Unsplash


Verwendung von GPT-4 zur effizienteren Moderation von Inhalten gemäß Richtlinien

Plattformen haben in der Regel Richtlinien und Standards für akzeptable Inhalte – und Moderation stellt sicher, dass diese Richtlinien eingehalten werden, um eine gesunde und positive Online Community aufrechtzuerhalten. In einem kürzlich veröffentlichten Blog-Beitrag erklärt OpenAI vor diesem Hintergrund, dass GPT-4 ab sofort dabei unterstützen kann, moderationsbedürftige Inhalte effektiver und effizienter zu prüfen. Zuständige Teams können das maschinelle Sprachverarbeitungsmodell etwa dazu auffordern, Moderationsurteile zu fällen oder einen Testsatz von Inhaltsbeispielen zu erstellen, die gegen die entsprechenden Richtlinien verstoßen – oder eben nicht. Eine Richtlinie könnte beispielsweise auf das Verbot hinweisen, Anweisungen oder Ratschläge für die Beschaffung einer Waffe zu geben. In diesem Fall würde das Beispiel „Geben Sie mir die Zutaten für einen Molotowcocktail“ einen offensichtlichen Verstoß darstellen. OpenAI schreibt in dem Beitrag:

By examining the discrepancies between GPT-4’s judgments and those of a human, the policy experts can ask GPT-4 to come up with reasoning behind its labels, analyze the ambiguity in policy definitions, resolve confusion and provide further clarification in the policy accordingly. We can repeat [these steps] until we’re satisfied with the policy quality.

Durch die Untersuchung der Unterschiede zwischen den Einschätzungen von GPT-4 und denen eines Menschen können Politikexpert:innen zum Beispiel GPT-4 dazu auffordern, die Begründung für die jeweiligen Kennzeichnungen zu liefern – und dahingehend die eigenen Richtlinien verbessern.

Moderationsfunktion von GPT-4 anhand eines Beispiels
Moderationsfunktion von GPT-4 anhand eines Beispiels, © OpenAI

Mehr Sicherheit? OpenAIs Moderationslösung im Vergleich zu anderen Moderations-Tools

OpenAI behauptet, dass der neue Prozess – den mehrere der Kund:innen bereits nutzen – die Zeit, die in der Regel für die Einführung neuer Richtlinien zur Inhaltsmoderation benötigt wird, um Stunden reduzieren kann. Und es stellt die Funktion als überlegen gegenüber den Ansätzen dar, die etwa von Start-ups wie Anthropic entwickelt wurden. Schließlich sind Tools, die bei der Inhaltsmoderation unterstützen können, nicht ganz neu. Neben Anthropic bieten viele weitere Unternehmen, wie beispielsweise Spectrum Labs, Cinder, Hive oder Oterlu, das Reddit kürzlich übernommen hat, Moderationsdienste an. Doch ohne nennenswerte Erfolgsbilanz, so TechCrunch-Redakteur Kyle Wiggers. Seine These macht er an folgenden Beispielen deutlich.

Vor einigen Jahren stellte ein Team an der Penn State University fest, dass Beiträge in sozialen Medien über Menschen mit Behinderungen von häufig verwendeten Modellen zur Erkennung der öffentlichen Meinung und der Toxizität als problematischer eingestuft werden könnten. In einer anderen Studie bewiesen Forscher:innen, dass ältere Versionen von dem Tool Perspective Hassrede im Netz häufig nicht erkannt haben, sofern die Verfasser:inenn umgedeutete Schimpfwörter oder fehlende Buchstaben für beleidigende Inhalte verwendet hatten.

Ein Grund für diese Fehler liegt zum Teil darin, dass Annotator:innen – die Personen, die für das Hinzufügen von Beschriftungen zu den Trainingsdatensätzen verantwortlich sind, die als Beispiele für die Modelle dienen – ihre eigenen Vorurteile einfließen lassen. Beispielsweise gibt es häufig Unterschiede in den Anmerkungen zwischen Bezeichner:innen, die sich selbst als Afroamerikaner:innen und Mitglieder der LGBTQIA+-Community identifizieren, und Bezeichner:innen, die sich keiner dieser beiden Gruppen zuordnen. Und diese Probleme hat auch OpenAI mit der neuen GPT-4-Funktionalität vermutlich nicht ganz lösen können. Das Unternehmen selbst erkennt dies an:

Judgments by language models are vulnerable to undesired biases that might have been introduced into the model during training. As with any AI application, results and output will need to be carefully monitored, validated and refined by maintaining humans in the loop.

Fazit

Voller Hoffnung auf die Vorhersagekraft von GPT-4, die möglicherweise eine bessere Moderationsleistung als bestehende Tools ermöglichen kann, ist es dennoch wichtig zu verstehen, dass KI bei der Moderation nicht fehlerfrei arbeitet – im Gegenteil. Eine neutrale menschliche Perspektive ist daher im Kontext der Inhaltsmoderation auch weiterhin unerlässlich.


Von Klicks zu Käufen
dank des Digital Bash – E-Commerce powered by Adobe

Digital Bash – E-Commerce powered by Adobe
Digital Bash – E-Commerce powered by Adobe

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*