Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Digitalpolitik
Verordnungsentwurf der EU: Plattformen müssen Terrorinhalte innerhalb einer Stunde löschen
© Flickr / Arran Bee, CC BY 2.0

Verordnungsentwurf der EU: Plattformen müssen Terrorinhalte innerhalb einer Stunde löschen

Niklas Lewanczik | 18.04.19

Das EU-Parlament hat für einen Verordnungsentwurf gestimmt, nach dem bei Internetdiensten gemeldete Terrorinhalte binnen 60 Minuten zu entfernen sind.

Sie gehören zur dunklen Seite des Internets und der sozialen Medien und sind dort dennoch Alltag: Terrorinhalte. Beim Massaker von Christchurch oder im Kontext diverser Anschläge wird die Digitalgemeinde immer wieder daran erinnert. Nun hat das EU-Parlament sich mit knapper Mehrheit für den Entwurf einer Verordnung ausgesprochen, der vorsieht, dass Internetdienste wie Facebook oder YouTube terroristischen Content innerhalb von 60 Minuten zu entfernen haben, nachdem dieser gemeldet wurde. Andernfalls drohen empfindliche Strafen.

Die Strafen sind immens, doch kleinere Plattformen haben mehr Zeit

Der Entwurf wurde mit 308 Stimmen im EU-Parlament angenommen, 204 Gegenstimmen und 70 Enthaltungen standen ebenso zu Buche, wie Heises Christiane Schulzki-Haddouti berichtet. Dieser Entwurf enthält die Anforderung an Internetdienste, klar definierte Terrorinhalte innerhalb von nur einer Stunde zu löschen.

All options have in common the creation of a new, harmonised system of removal orders for terrorist content online from national authorities, upon which hosting services must act within one hour. This system is based on a clear legal definition or what constitutes terrorist content.

Wird die Verordnung durchgesetzt – die anders als eine Richtlinie unmittelbar Gültigkeit für die EU-Staaten erhält –, können Dienste, die der Anforderung systematisch und dauerhaft nicht nachkommen, mit Strafen von bis zu vier Prozent des globalen Jahresumsatzes belegt werden. Laut Heise wurden zahlreiche Änderungsanträge eingereicht. Eine Abstimmung mit dem Ministerrat und der Kommission folgt womöglich nach der Europawahl Ende Mai.

Die kurze Zeit von 60 Minuten zum Löschen von Inhalten wurde im Vorwege kritisiert. Deshalb hatten sich viele auch gegen diese Regelung ausgesprochen. Sie wurde denkbar knapp mit 300 zu 297 Stimmen angenommen.

Keine Uploadfilter gefordert 

Die Verordnung sieht, anders als die EU-Urheberrechtsrichtlinie, nicht vor, dass eine Plattform aktiv die Uploads der Nutzer überwacht. Deshalb bedeutet sie auch keine direkte Forderung nach Systemen wie Uploadfiltern. Diese könnten dennoch nötig werden, um dem Auftrag, extrem schnell Inhalte zu löschen, nachzukommen.

Bei einer „erheblichen Anzahl“ von Löschaufträgen können Behörden den Plattformen weitere Bedingungen auferlegen, etwa eine Berichterstattung über Löschverfahren oder sogar die Erhöhung der Ressourcen im Personalbereich. Allerdings müssen die Behörden bei der Anordnung jeder Entscheidung die Größe des Internetdienstes berücksichtigen. Kleinere Unternehmen, die zuvor nch keinen Löschauftrag erhalten hatten, müssen zwölf Stunden vorher über Fristen und einen Ablauf der gleichen sowie die Verfahren informiert werden.

Terroristische Straftaten werden in einer anderen EU-Richtlinie definiert, in dem vorliegenden Entwurf wird Bezug genommen auf Videos, Bilder, Texte, Audio-Inhalte usw., die „zur Begehung terroristischer Straftaten oder zu einem Beitrag zu diesen Straftaten angestiftet oder dazu aufgerufen oder für die Beteiligung an Handlungen einer terroristischen Vereinigung geworben“ haben. So klärt die Seite des EU-Parlaments darüber auf. Anleitungen für die Herstellung oder den Gebrauch von Waffen im terroristischen Kontext sind ebenso umfasst.

Es gibt Ausnahmen für die Inhalte

Klargestellt wurde nun, dass bei der Berichterstattung sowie der Bildung und Forschung entsprechende Terrorinhalte auftauchen dürfen und nicht gelöscht werden müssen. Hierbei dürfte bei digitalen Plattformen jedoch mitunter die kontextuelle Einordnung schwer zu ermitteln sein. Zumindest ohne manuelle Einzelprüfung oder ein explizit darauf ausgerichtetes System. Eine klare Abgrenzung zur Polemik oder zu politischen Äußerungen, die nicht als Terror eingestuft werden dürfen, muss jedoch bestehen. Andernfalls würden Internetdienste womöglich übergeneralisieren und aus Sicherheitsbedenken mehr Inhalte löschen als nötig. Der Berichterstatter Roger Dalton  bemerkt:

Ohne ein faires Verfahren besteht die Gefahr, dass zu viele Inhalte entfernt werden, da Unternehmen verständlicherweise den Ansatz ‚Sicherheit zuerst‘ verfolgen, um sich zu schützen. Es darf auch absolut nicht zu einer allgemeinen Überwachung von Inhalten durch die Hintertür führen.

Als problematisch wird ebenfalls eingestuft, dass die Löschaufträge noch keiner Prüfung unterliegen, was eine Manipulation derselben ermöglichen würde. Das Internetarchiv Archive.org hatte im Blog zuletzt berichtet, dass mindestens 550 URLs von der französischen Internet Referral Unit fälschlicherweise als terroristische Inhalte identifiziert worden waren. Zu diesen URLs gehörten wissenschaftliche Artikel, von der US-Regierung produzierte Sendungen und Berichte, Songtexte oder TV News. Die technologischen Erkennungsmechanismen haben demnach noch Nachholbedarf. Obwohl eine rasche Entfernung von Terrorinhalten bei Plattformen erstrebenswert ist, scheint die vorgegebene Zeit von einer Stunde sehr knapp bemessen. Vor allem angesichts der schnell auftretenden Uneindeutigkeit; um diese aus der Welt zu schaffen, braucht es oft eine manuelle Prüfung – die bei viel Content innerhalb von nur einer Stunde schwerlich gewährleistet werden könnte. Vielleicht lassen sich Filtersysteme entwickeln, die dem Problem intelligent entgegentreten werden. So lange aber wird die Forderung aus diesem Entwurf eine Gratwanderung zwischen der notwendigen raschen Entfernung von Terror-Content und einer möglichen Überregulierung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*
*