Am Donnerstag stimmt das EU-Parlament über die neue EU-Urheberrechtsrichtlinie ab. Neben dem EU-Presse-Leistungsschutzrecht sind vor allem die vieldiskutierten Uploadfilter ein großer Streitpunkt. Übernimmt das Parlament den jetzigen Stand des Richtlinienentwurfs, ist der nächste Schritt zu diesen Filtern getan. Worum es geht da?
Das Urheberrecht ist europaweit durch mehrere Richtlinien vereinheitlicht. Anders als mit dem neuen Datenschutzrecht gibt es nicht einen Verordnungsüberbau, sondern einen Flickenteppich aus nationalen Urheberrechtsgesetzen und Richtlinien, die das Urheberrecht nur teilweise harmonisieren. Da die zentrale Urheberrechts-Richtlinie schlechthin – die InfoSoc-RL – bald zwanzig Jahre alt ist, steht eine neue Richtlinie am Firmament: die Urheberrechtsrichtlinie für den digitalen Binnenmarkt.
Den ersten Entwurf hat die EU-Kommission schon 2016 vorgelegt (COM(2016) 593 final, PDF). Auch dieser Vorstoß wird das Urheberrecht nicht komplett EU-weit vereinheitlichen. Der Entwurf regelt vielmehr eine Reihe einzelner Aspekte: das umstrittene EU-Presseleistungsschutzrecht, Schranken für Text und Data-Mining, die Bildung und das Kulturerbe – und Uploadfilter.
Ziel solcher Filter ist es, Plattformen zu verpflichten, von Nutzerinnen hochgeladene Inhalte auf Urheberrechtsverletzungen hin zu filtern. Doch der Reihe nach.
Den großen User-Content-Plattformen wird seit Jahren vorgeworfen, mit von Nutzerinnen hochgeladenen Inhalten Milliarden zu verdienen – und zwar auch mit Inhalten, die fremde Urheberrechte verletzen. Nichts davon bleibe bei den Rechteinhabern und Urhebern hängen. Dieser Missstand wird als value gap bezeichnet. Die Musik- und Filmeindustrie und ein Großteil der Verwerter haben ein großes Interesse, dieses value gap zu schließen. Das ist auch das Ziel der Uploadfilter in der neuen Urheberrechts-Richtlinie.
Schon länger haben Inhaber von Ton- und Filmrechten damit zu kämpfen, dass die Rechtsdurchsetzung gegenüber Verletzern entweder nicht möglich sind, weil man die Betreiber nicht oder nur mit enormem Aufwand erwischt (kinox.to), oder dass es wenig bringt, gegen einzelne Rechtsverletzer vorzugehen, weil es um unzählige kleine Verletzungen geht.
Ersteres versucht die Urheberrechtsdurchsetzung mit Netzsperren zu lösen: Wenn man die Betreiber selbst nicht abschalten kann, zum Beispiel weil sie irgendwo auf der Welt liegen, geht man über die Zugangsprovider. kinox.to kann nicht geschlossen werden, aber die Constantin Film kann Vodafone verpflichten, den Zugang zu sperren. Das ist rechtlich heikel, ineffektiv weil umgehbar und fehleranfällig – über Netzsperren haben wir bei Telemedicus schon ausführlich berichtet. Auch für Verwerter ist es eher eine Notlösung.
Der zweite Fall zielt auf die value gap ab. Videos auf YouTube, Sounds auf Soundcloud, Fotos auf Instagram: Längst sind Plattformen zu Foren fürs Teilen von Inhalten geworden. Dass das Teilen mit der ganzen Welt urheberrechtlich relevant ist, ist schon lange klar. Und natürlich kommt es bei solchen Uploads dazu, dass Rechte für Film, Musik, Fotos, Software etc. nicht eingeholt werden. Schon 2015 wurden pro Minute 400 Stunden Videomaterial bei YouTube hochgeladen. Selbst wenn davon nur ein kleiner Teil Urheberrechte verletzt: An jede YouTube-Nutzerin eine Abmahnung zu verschicken, scheint kaum möglich. Auch hier liegt es nahe, die Vermittler in die Pflicht zu nehmen.
Und so kommen Uploadfilter ins Spiel. Die Filter tasten hochgeladene Inhalte ab und schicken sie durch eine Referenzdatenbank. In diesen Datenbanken liegen Fingerprints – verhashte Versionen von Filmen, Sounds, Texten oder sonstigen Arten von Inhalten, also mathematisch auf bestimmte Weise berechnete und einzigartige Werte. Gleichen sich die Fingerprints von Upload und Referenz (oder stimmen sie nur teilweise überein), springt der Filter an. Ähnlich läuft das mit den Fingerprints und dem Referenzabgleich übrigens auch, wenn man in der Kneipe Songs mit dem Handy shazamt, was meist erstaunlich gut funktioniert.
Springt ein solcher Filter an, bestimmt ein Prozess, was als nächstes passiert: sperren, löschen, monetarisieren (also festlegen, dass Werbeeinahmen an Rechteinhaber fließen), bloß informieren, oder einen Menschen den Inhalt noch einmal selbst überprüfen lassen.
YouTube filtert schon – müsste aber gar nicht… oder doch?
YouTube filtert heute schon mit der eigenen Erkennungssoftware ContentID. Rechteinhaber können über dieses System herausfinden, ob ihre Werke auf YouTube laufen. Wenn Madonna in einem Katzenvideo läuft, lässt Content ID Rechteinhabern die Wahl, ob das Katzenvideo gesperrt, der Künstler an Werbeeinnahmen beteiligt oder nur über Zugriffszahlen informiert wird.
Dabei muss YouTube solche Filter aktuell gar nicht implementieren. Im Gegenteil bietet YouTube Content ID zur Zeit freiwillig an – zu Bedingungen, die Rechteinhaber eher nur widerwillig akzeptieren, um überhaupt auf YouTube stattzufinden. Der rechtliche Hintergrund ist das Providerprivileg, nach dem im Grundsatz Plattformen mit Nutzerinhalten erst mal frei von der Haftung für Urheberrechtsverletzungen sind, bis sie einen Hinweis erhalten (notice and take down). Das ist europäisch über die InfoSoc-Richtlinie und die E-Commerce-Richtlinie geregelt und im deutschen Recht mit §§ 10 ff. TMG umgesetzt. So heißt es in Art. 14 der E-Commerce-RL, dass ein solcher Dienst,
der in der Speicherung von durch einen Nutzer eingegebenen Informationen besteht, (…) nicht für die im Auftrag eines Nutzers gespeicherten Informationen verantwortlich ist, sofern folgende Voraussetzungen erfüllt sind:
a) Der Anbieter hat keine tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information, und, in bezug auf Schadenersatzansprüche, ist er sich auch keiner Tatsachen oder Umstände bewußt, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, oder
b) der Anbieter wird, sobald er diese Kenntnis oder dieses Bewußtsein erlangt, unverzüglich tätig, um die Information zu entfernen oder den Zugang zu ihr zu sperren.
Hervorhebungen, auch im Folgenden, nicht im Original
Gesetzlich ist auch klargestellt: Überwachungspflichten sind nicht drin. So heißt es in Art. 15 E-Commerce-RL, dass für Provider „keine allgemeine Verpflichtung” vorgesehen ist, übermittelte oder gespeicherte Informationen „zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen”. In „spezifischen Fällen” sind Überwachungspflichten aber möglich, wie es im 47. Erwägungsgrund der E-Commerce-RL heißt. Allgemeine und spezifische Fälle abzugrenzen, war auch schon stets in der Netzsperren-Konstellation umstritten.
In den letzten Jahren wurde die Lage für YouTube aber etwas strenger: Danach haftet YouTube zumindest dann, wenn YouTube nach einem Hinweis nicht genug unternimmt, um einen weiteren Upload des gleichen beanstandeten Inhalts zu verhindern. Dass YouTube ab einer beanstandeten Verletzung genauer hinsehen muss, rechtfertigen die Gerichte damit, dass es sich ja immerhin um eine Überwachungspflicht in spezifischen Fällen handelte – und damit keine allgemeine Überwachungspflicht. Und hierfür muss YouTube auch seinen vorhandenen Filter einsetzen, also Content ID. Genau und höchstrichterlich wurde dies aber rechtlich nicht festgezurrt, weil sich YouTube und die GEMA geeinigt haben, bevor dies durch die Instanzen ging.
Generell gilt damit bislang: Uploadfilter müssen allenfalls dann eingesetzt werden, wenn sie ohnehin schon vorhanden sind – und auch in diesem Fall erst dann, wenn auf eine Rechtsverletzung hingewiesen wurde.
Und genau das soll sich jetzt mit Art. 13 der Richtlinie ändern. Artikel 13 trägt den unverdächtigen Titel „Use of protected content by online content sharing service providers“. Gleich der erste Absatz des Entwurfs von Art. 13 stellt klar: Die „online content sharing service providers“ machen die Werke ihrer User selbst öffentlich zugänglich. Das war bisher umstritten – siehe YouTube. Diese Plattformen werden künftig verantwortlich sein, und zwar unmittelbar als Täter von Urheberrechtsverletzungen ihrer Nutzer. Mit dieser Regelung bekommt der Entwurf richtig Zähne, da da so im Folgenden der Nichteinsatz der Maßnahmen zu einer unmittelbaren Haftung führt.
Die Plattformen sollen nun angehalten werden, Lizenzen mit Rechteinhabern abzuschließen:
[online content sharing service providers] shall conclude fair and appropriate licensing agreements with rightholders, unless the rightholder does not wish to grant a license or licenses are not available.
Müssen die angesprochenen Plattformen nun von sich aus auf Rechteinhaber zugehen? Das lässt sich aus dem Entwurf nicht ausdrücklich entnehmen. Werden Lizenzen eingeholt, müssen sie dafür sorgen, dass die Lizenzbedingungen eingehalten werden (Abs. 1, erster Unterabsatz) – und „appropriate and proportionate measures“ ergreifen. Das meint wohl beispielsweise, dass die Beteiligung an Werbeeinnahmen gesichert wird – wenn das Teil der Vereinbarung ist.
Die eine Filterpflicht für alle?
Werden keine Lizenzen abgeschlossen, gilt gemäß Art. 13 Abs. 1, Unterabsatz 2:
In the absence of licensing agreements with rightholders online content sharing service providers shall take, in cooperation with rightholders, appropriate and proportionate measures leading to the non-availability on those services of works or other subject matter infringing copyright or related-rights, while non-infringing works and other subject matter shall remain available.
Steht irgendwo im Richtlinientext etwas von Filtern? Nein. Die Rede ist nur von appropriate and proportionate measures leading to the non-availability bzw. „effective technologies“. Hier kann aber letztlich nicht viel anderes gemeint sein als Erkennungstechniken und automatisierte Prozesse, die möglichst schnell alles Hochgeladene abtasten. Das bestätigt sich in Erwägungsgrund 39b:
The content recognition technologies market is well developed already and expected to grow in a data-based economy. The existence of technologies of this kind and competition among suppliers thereof should therefore create a market that is fair for all undertakings, irrespective of their size, ensuring that SME access thereto is affordable and simple. However, the absence of clear legal obligations to use these technologies enables dominant market operators in particular to refuse to use those tools which are appropriate for the purposes of licensing and management of rights.
Sowie Erwägungsgrund 39:
(…) When assessing the proportionality and effectiveness of the measures implemented, due consideration should be given to technological constraints and limitations as well as to the amount or the type of works or other subject matter uploaded by the users of the services. (…)
Daraus lässt sich auch ablesen, dass die Techniken je nach Dienst abhängen: Es wird also nicht die eine Filtertechnik für alle geben. Der Entwurf ist vielmehr technologieneutral formuliert. Durch diese unspezifische Regelung bleiben jedoch Fragen offen: Müssen Rechteinhaber an die Plattformen die Fingerprints ihrer Werke liefern, damit diese von den Filtern erfasst werden (das formuliert Abs. 1a zwar nicht explizit, zielt aber darauf ab, vgl. auch ErwGr. 39 S. 2)? Wie empfindlich müssen die Filter sein? Springen sie nur bei der Vollkopie an oder auch dann, wenn kleine Werkteile im Upload liegen? Je empfindlicher sie werden, desto höher die Gefahr für false positives. Hierzu schweigt der Entwurf. Das ist vor allem deshalb problematisch, weil für Plattformen aufgrund der strengen Haftung ein Anreiz besteht, Filter überempfindlich einzustellen – was Overblocking sehr wahrscheinlich macht.
Wer muss denn nun filtern?
Doch wer muss denn eigentlich filtern? YouTube und Facebook, in Ordnung – aber was ist mit Plattformen, bei denen es weniger klar ist? Die Frage rankt sich um den Begriff der „online content sharing service providers“. Der eigentliche Richtlinientext sagt hierzu nicht mehr als den Begriff selbst zu nennen.
Mehr Aufschluss geben die Erwägungsgründe, die bei der Auslegung der Richtlinie relevant werden. So heißt es in ErwGr. 37a, dass bestimmte „service providers” es gerade darauf anlegen, Zugang zu urheberrechtlich geschütztem Material zu geben:
The definition of an online content sharing service provider under this Directive shall cover information society service providers one of the main purposes of which is to store and give access to the public or to stream copyright protected content uploaded / made available by its users and that optimise content, including amongst others promoting displaying, tagging, curating, sequencing the uploaded works or other subject-matter, irrespective of the means used therefor, and therefore act in an active way. (…)
Wer verfolgt also den Hauptzweck, urheberrechtlich geschützten Content zugänglich zu machen? Gemeint sein dürften damit klassische Upload-Plattformen wie YouTube, Vimeo oder SoundCloud aber auch soziale Netzwerke wie Facebook, Instagram oder Reddit – wobei es hier schon schwieriger wird, ob der Hauptzweck das Teilen von Content ist oder es eigentlich um Vernetzung und Kommunikation geht.
Man wird also umfangreich untersuchen müssen, ob man unter diesen Hauptzweck fällt.
Nicht erfasst seien laut ErwGr. 37a hingegen nicht-kommerzielle Projekte wie Online-Enzyklopädien (gemeint ist Wikipedia), Forschungsdaten-Repositorien, eigene Clouddienste (Dropbox etc.), Open Source-Software-Entwicklungsplattformen (Github etc.) und Online Marketplaces (E-Bay etc.).
Welche Konsequenzen drohen?
Es droht die volle Haftung für Urheberrechtsverletzungen – und zwar nicht bei schlechten Filtern oder Prozessverstößen wie beim NetzDG, sondern für jede einzelne Urheberrechtsverletzung.
Vereinbar mit Haftungsprivileg und Grundrechten?
Ob Art. 13 mit dem Provider-Haftungsprivileg vereinbar ist, ist an dieser Stelle kaum sicher zu sagen. An verschiedenen Stellen betont Art. 13 das geltende Haftungsregime und die Grundrechte (siehe Art. 13 Abs. 1b). Der bisherige Deal gerät auf jeden Fall ins Wanken: Erstens werden Plattformen nach gescheiterten Lizenzverhandlungen selbst haften. Und zweitens wird man kaum noch von spezifischen Maßnahmen im Sinne des bisherigen Haftungsprivilegs sprechen können, wenn die ganze Zeit aller Uploadverkehr abgetastet wird. Die Interessen, die der Gesetzgeber ausgleichen muss – Eigentum der Rechteinhaber, Kommunikationsfreiheiten der Nutzer, Berufsfreiheit der Plattformbetreiber – werden mit Art. 13 anders voreingestellt sein.
Erlaubte Zitate, Remixe, Memes, Kritik: Es soll einen Beschwerdemechanismus geben
Selbst wenn gemeldetes Fremdmaterial im Upload enthalten ist: Man kann keineswegs pauschal beurteilen, ob der Upload von Inhalten, die urheberrechtlich geschützte Fremdinhalte beinhalten (oder Teile davon), erlaubt ist oder nicht. Denn im Urheberrecht gibt es viele Konstellationen, in denen die Verwendung von Werken zulässig ist. Diese Erlaubnisse, freie Benutzung, Schranken, Zitatrechte etc., unterliegen komplizierten Voraussetzungen. Ob eine solche Schranke greift, kann oft nur durch eine fachjuristische Prüfung beurteilt werden. Hier wird es mit hoher Wahrscheinlichkeit zu false positives kommen.
Um das auszugleichen und Nutzerrechte zu wahren, müssen Plattformen „effective and expeditious complaints and redress mechanisms“ bereithalten und müssen ihnen darauf zügig reagieren – was auch einklagbar sein bzw. wofür ein Rechtsweg offen stehen muss (Art. 13 Abs. 2). Immerhin kann man daraus einen Anspruch lesen, dass nicht rechtsverletzende Inhalte wieder freigeschaltet werden müssen.
Bei den großen Plattformen, die Geld mit User-Inhalten verdienen, Urheber zu beteiligen, ist zunächst legitim. Plattformen in die Pflicht zu nehmen, anstatt die Verantwortung allein den einzelnen Nutzerinnen zu überlassen, ist grundsätzlich ebenfalls ein richtiger Ansatz. Dies automatisiert umzusetzen, ist grundsätzlich auch keine schlechte Idee. Denn so kann massenweise Verwertung vergütet werden. Gerade wenn Komplettkopien online gestellt werden, scheint das legitim. Schüfe man so ein Anreizsystem, bei dem möglichst viel erlaubt und auch möglichst viel vergütet, und löste man dann noch die Umsetzungsprobleme und Zugangshürden gerade für kleine Plattformen – warum nicht?
Der Entwurf reicht aber viel weiter.
Wieder ein gesetzlicher Anreiz zum Overblocking
Da die Haftungsrisiken enorm nach oben geschraubt werden, werden Plattformen zu false positives angereizt sein. Diese Kritik wird auch beim NetzDG vorgetragen und der Frage, ob eine Meinungsäußerung erlaubte Hassrede ist oder strafbare Volksverhetzung.
Userrechte werden höherschwellig
Und wieder einmal lässt der EU-Urheberrechtsgesetzgeber die transformative, kunstoffene Nutzung von Fremdmaterial links liegen. Die Zweifel, ob der Filter schrankenrechtlich zulässige Nutzung erkennen, können derzeit mit den vorgesehenen Beschwerdemechanismen nicht ausgeräumt werden. Ob man unter das Zitatrecht fällt, die freie Benutzung oder unter Parodie- oder Kunstfreiheit, ist derzeit sowieso schon oft ein schwerer Abwägungsprozess, der auf den Nutzerinnen lastet. Die Uploadfilter bürden ihnen zukünftig zudem den Aufwand auf, ihre Nutzungshandlungen zusätzlich in einem Prozedere mit der Plattform zu rechtfertigen.
Dabei hat selbst der Koalitionsvertrag angekündigt, „moderne Nutzungsformen“ gegen Vergütung zuzulassen (und übrigens Uploadfilter abzulehnen).
Unsicherheit für Plattformen
Ein weiterer Punkt ist: Kleine Plattformanbieter und Startups haben womöglich nicht die Mittel, die technische Infrastuktur für solche Uploadfilter zu stemmen. Die Größe von solchen Plattformen soll zwar berücksichtigt werden. Da es aber keine klaren Kritierien gibt, müssen sie klären, ob sie unter die Filterpflichten fallen. Unterm Strich ergibt sich für neue und insbesondere europäische Plattformen ein weiterer komplizierter Prüfungspunkt vor dem Launch und ein weiteres rechtliches Risiko.
Gegen das Ziel, Urheber am Gewinn von Internetriesen fair zu beteiligen, wird man kaum etwas Vernünftiges einwenden können. Aber der Weg, den der Entwurf geht, ist der falsche. Es bleibt viel zu viel Unsicherheit an vielen Stellen, die Kollateralschäden könnten immens sein. Ein Flickenteppich aus 28 (oder 27) EU-Umsetzungen wird das nicht verbessern. Leider kanzelt ein bedeutender Teil von Rechteverwertern die großteils sachlich vorgetragene Kritik als „gezielte Desinformationskampagnen im Interesse global agierender Internetunternehmen“ ab. Bei allen ernsten Bedenken ist der Vorwurf, der Kritik aus der Zivilgesellschaft seien die Urheberinnen egal, unlauter – und wischt die breite Kritik aus der Urheberrechtswissenschaft mit einem Federstrich weg. Nachdem das Urheberrecht über Jahrzehnte verschärft wurde, die Akzeptanz des Urheberrechts als Verhinderungsrecht gesunken ist und es letztlich vor allem neue Geschäftsmodelle wie iTunes und später Spotify und Netflix gerichtet haben, müsste man sich ernsthafter mit den Argumenten auseinandersetzen.
Update, 31. August 2018
Julia Reda berichtet im Datenschutz-Podcast über einen bemerkenswerten Overblocking-Vorfall: Ein Fernsehsender zeigte in einem Beitrag ein YouTube-Musikvideo von politischen Aktivistinnen. Der Sender lud seinen Beitrag in das Content ID-System von YouTube. Daraufhin sei das ursprüngliche Video der Aktivistinnen (vorübergehend) gesperrt worden. Der Fall zeigt einmal mehr die Schwäche solcher Filter.
Der aktuelle Richtlinientext.
Wikimedia befasst sich ausführlich mit den Argumenten des Befürworters Axel Voss.
Initiative für die „Modernisierung des EU-Urheberrechts”.
Position der netzpolitischen Vereine der Parteien gegen Filter.
Positionspapier von Netzpionier Tim Berners Lee.
Urheberrechtswissenschaftler beantworten Fragen zum Richtlinienentwurf.
Rike Maier befasst sich in ihrer Doktorarbeit mit Uploadfiltern.