Interviews

„Vorauseilende Selbstzensur“ – Darum sind die Upload-Filter so umstritten

Kritik am Vorschlag der EU-Kommission für Online Upload-Filter, die Inhalte Dritter auf Urheberrechtsverletzungen scannen. Unser Interview gibt Aufschluss.

Screenshot YouTube, © European Cimmission

Der Vorschlag der EU-Kommission bezüglich der Einrichtung sogenannter Upload-Filter bei großen Online-Plattformen stößt auf heftige Kritik. Politik, Verbraucherschutz und digitale Verbände schlagen gleichermaßen Alarm. Dr.Joachim Jobi klärt in unserem Interview auf, wo die Gefahren liegen.

Upload-Filter: Der Vorschlag der EU-Kommission 

Es ist der Vorschlag für eine RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES über das Urheberrecht im digitalen Binnenmarkt der EU-Kommission, der jüngst in der Digitalpolitik für Furore gesorgt hat. Nach diesem Vorschlag sollen große Online-Plattformen Inhalte Dritter, die dort hochgeladen werden, mit entsprechender Technologie auf Urheber- und ähnliche Rechtsverletzungen scannen – und im Zweifel den Upload blockieren.

In der Begründung zum Vorschlag heißt es:

Der Vorschlag enthält Maßnahmen zur Verbesserung der Transparenz und der Ausgewogenheit der Vertragsverhältnisse zwischen Autoren und ausübenden Künstlern einerseits und denjenigen, denen sie ihre Rechte übertragen, andererseits. Allgemein wird erwartet, dass die in Titel IV des Vorschlags vorgeschlagenen Maßnahmen, die auf die Schaffung eines funktionsfähigen Marktes für Urheberrechte abzielen, sich mittelfristig positiv auf die Produktion und die Verfügbarkeit von Inhalten und auf den Medienpluralismus auswirken und somit auch für die Verbraucher von Nutzen sind.

Und konkreter bedeutet das dann Folgendes:

Der Vorschlag verpflichtet die Mitgliedstaaten zur Schaffung von Mechanismen zur Erleichterung der Klärung und des Erwerbs von Urheber- und verwandten Schutzrechten für vergriffene Werke und für die Online-Verwertung audiovisueller Werke.

Im Titel IV wird dann in Kapitel 2, Artikel 13 Satz 1 spezifiziert:

Diensteanbieter der Informationsgesellschaft, die große Mengen der von ihren Nutzern hochgeladenen Werke und sonstigen Schutzgegenstände in Absprache mit den Rechteinhabern speichern oder öffentlich zugänglich machen, ergreifen Maßnahmen, um zu gewährleisten, dass die mit den Rechteinhabern geschlossenen Vereinbarungen, die die Nutzung ihrer Werke oder sonstigen Schutzgegenstände regeln, oder die die Zugänglichkeit der von den Rechteinhabern genannten Werke oder Schutzgegenstände über ihre Dienste untersagen, eingehalten werden. Diese Maßnahmen wie beispielsweise wirksame Inhaltserkennungstechniken [ Hervorhebung d. Red.] müssen geeignet und angemessen sein. Die Diensteanbieter müssen gegenüber den Rechteinhabern in angemessener Weise darlegen, wie die Maßnahmen funktionieren und eingesetzt werden und ihnen gegebenenfalls über die Erkennung und Nutzung ihrer Werke und sonstigen Schutzgegenstände Bericht erstatten.

Widerstand von vielen Seiten

Nun sieht die digitale Gesellschaft hierzulande darin allerdings eine starke Beeinträchtigung der Rechte im Netz. In der Botschaft Julia Redas, Politikerin der Piratenpartei und des EU-Parlaments, die zusammen mit anderen europäischen Politikern verfasst wurde, werden die Filter als „völlig unverhältnismäßig“ und „Zensurmaschinen“ dargestellt. Am 27. Februar 2018 reichte außerdem ein Bündnis namhafter Verbände einen offenen Brief bei Axel Voss ein, der im Rechtsausschuss des EU-Parlaments sitzt. Darin fordern Bitkom, die Verbraucherzentrale Deutschland, die Digitale Gesellschaft, der Bundesverband IT-Mittelstand (BITMi), eco – Verband der Internetwirtschaft, der Bundesverband Digitale Wirtschaft BVDW und viele mehr einen Einsatz gegen die Upload-Filter.

Daher haben wir uns an den BVDW gewandt, um zu erfahren, wo genau die Probleme mit dem Vorschlag liegen und ob sie vielleicht doch einen Nutzen liefern. Dr. Joachim Jobi, Leiter Digitalpolitik und Public Affairs beim BVDW, hat uns aufschlussreiche Antworten geliefert.

Das Interview mit Dr. Jobi

Onlinemarketing.de: Welche Probleme würden gesetzlich vorgeschriebene Upload-Filter mit sich bringen? Überwiegen diese die positiven Effekte in Bezug auf Urheberrechtsverletzungen? Welcher Grund ist aus Sicht des BVDW der ausschlaggebende für eine Ablehnung des Vorschlags der Europäischen Kommission?

Dr. Joachim Jobi: Sollte die Betreiberhaftung in dieser Form ausgeweitet werden, werden klare Anreize gesetzt, um auch solche Inhalte zu blockieren, die rechtmäßig eingestellt wurden (Overblocking). Positive Effekte in Bezug auf Urheberrechtsverletzungen sind zunächst Spekulation. Die Thematik muss auf andere Art und Weise gelöst werden, ohne Vorabzensur.

Dr. Joachim Jobi vom BVDW, © BVDW

Welcher Grund ist aus Sicht des BVDW der ausschlaggebende für eine Ablehnung des Vorschlags der Europäischen Kommission?

Sollte das Haftungsprivileg für Plattformen durch die EU-Richtlinie zum Urheberrecht im digitalen Binnenmarkt abgeschafft werden, kommt die vorauseilende Selbstzensur. Dadurch wird die freie Meinungsbildung untergraben.

Würde mit derartigen Filtern auch der Upload der beliebten Memes geblockt?

Hier kommt es darauf an, ob in den Memes Inhalte bearbeitet werden, die urheberrechtlich geschützt sind. Wenn dies der Fall ist, würde es zu einem Blocking führen.

Die Upload-Filter, die von der Europäischen Kommission vorgeschlagen wurden, werden im offenen Brief des BVDW, Bitkoms, der Verbraucherzentrale Bundesverband und vieler mehr als unverhältnismäßig beschrieben. In was für einem Verhältnis wäre ihr Einsatz denn produktiv? –Weiter heißt es: „Komplizierte Abwägungen, was erlaubt ist und was nicht, sei es Kritik, Satire oder Kunst, können automatisierte Filter nicht vornehmen.“ – Sollte es Künstlichen Intelligenzen künftig möglich sein, derlei Nuancen zu differenzieren, gewinnt der Einsatz der Filter dann eine höhere Legitimität?

Solche Uploadfilter sind nach unserer Einschätzung in keinem einzigen Fall verhältnismäßig. Denn sie führen in der Konsequenz zu einer vorauseilenden Selbstzensur – und das ist das Ende von Innovation und Kreativität nicht nur bei den Usern, sondern auch bei den Geschäftsmodellen der DW, die darauf aufbauen.

Welche alternative Lösung würde sich als sinnvoller als die dargestellten Filter erweisen?

Sinnvoll wären die Lösungen, die an das Haftungsprivileg der Plattformen anknüpfen. Was aber nicht heißt, dass es keine Kontrolle geben soll. Wir haben schon vielversprechende Ansätze, die auf eine Kontrolle ex post aufbauen – solange diese Kontrolle rechtsstaatlich korrekt durch Gerichte vorgenommen wird. Das NetzDG ist hier leider kein Vorbild.

Wäre es nicht ratsamer, Filter explizit für Hate Speech, Rassismus, Diskriminierungen etc. zu sensibilisieren? Oder sind das dann doch zwei verschiedene Paar Schuhe?

Da muss man in der Tat differenzieren. Hier geht es dann um strafrechtlich relevantes Verhalten, das sanktioniert werden muss – online ebenso wie sonst auch. Der Grundgedanke der NetzDG ist richtig, nur die Umsetzung in Deutschland ist rechtsstaatlich bedenklich. Die EU hat eben Vorschläge zum sog. „controversial content“ veröffentlicht – wir werden sehen, ob das bessere Ansätze bringt als das verfehlte NetzDG.

Laut Europäischer Kommission soll im Mai 2018 der Prozess des Dialogs mit Online-Plattformen und Co. beendet sein. Wie wahrscheinlich ist es nun, auch angesichts der Haltung der deutschen Politik im Koalitionsvertrag, dass Upload-Filter in Deutschland obligatorisch werden?

Eine Einschätzung dazu ist uns nicht möglich. Der BVDW versucht mit den ihm zur Verfügung stehenden Mitteln, darüber zu informieren, dass derartige Upload-Filter zur vorauseilenden Zensur führen, und zu nichts anderem. Wer Hass oder rassistische Botschaften verbreiten möchte, dem wird dies auch in Zukunft gelingen. Upload-Filter schränken unsere Meinungsfreiheit zu einem so hohen Grad ein, dass der Nutzen in keinem Fall überwiegt.

Vielen Dank für das Interview!

Die GroKo lehnt die Filter ab

Im Koalitionsvertrag der großen Koalition steht zwar schwarz auf weiß:

Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu „filtern“, lehnen
wir als unverhältnismäßig ab. Negative Auswirkungen auf kleinere und mittlere Verlage müssen vermieden werden. Die Daten-Souveränität werden wir auf europäischer Ebene im Rahmen der E-Privacy-Verordnung stärken.

Aber das Thema der Urheberrechtstransparenzen scheint noch nicht ad acta gelegt worden zu sein:

Wir wollen digitale Plattformen und Intermediäre an der Refinanzierung der kulturellen und medialen Inhalteproduktion angemessen beteiligen. Hierzu streben wir mit Blick auf Art. 13 der Urheberrechts-Richtlinie einen Ausgleich der Interessen von Urhebern, Nutzern und Plattformbetreibern an und werden einen Vorstoß zur Überarbeitung des Haftungsprivilegs in der E-Commerce-Richtlinie prüfen.

Damit dürfte der umstrittene Vorschlag der EU-Kommission zunächst keine Anwendung finden. Die Verhandlung von Urheberrechten und legitimen Uploads Dritter wird aber in der Netzpolitik weiter von Bedeutung sein.

Über Niklas Lewanczik

Niklas Lewanczik

Niklas hat an der Uni Hamburg Deutsche Sprache und Literatur sowie Medien- und Kommunikationswissenschaften studiert und schreibt als Redakteur über Social Media, SEO und innovative Themen im Kontext des digitalen Marketing. Wenn er sich nicht gerade dem Marketing zuwendet, dann womöglich den Entwicklungen im modernen Fußball oder dem einen oder anderen guten Buch.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.