Heute veröffentlicht die Kölner Forschungsstelle für Medienrecht (TH Köln) ihren Vorschlag zur Umsetzung von Art. 17 der Richtlinie für das Urheberrecht im digitalen Binnenmarkt (PDF). Darin ist das neue Haftungskonzept für „Diensteanbieter für das Teilen von Online-Inhalten“ geregelt.
Der Text sollte eigentlich auf einem Symposium im Bundestag diskutiert werden. Wegen der Corona-Krise musste die Veranstaltung verschoben werden. Wir haben uns den Vorschlag vorab angesehen.
Die Debatte in dieser politisch besonders umkämpften Reform dreht(e) sich vor allem um die Angst vor dem Einsatz von Uploadfiltern. Der Umsetzungsvorschlag nimmt sich daher eine rechtssichere und verhältnismäßige Umsetzung zum Ziel, die ungerechtfertigtes Overblocking – also übermäßiges Blockieren von hochgeladenen Inhalten – verhindern soll. Er beinhaltet Änderungen im Urheberrechtsgesetz (UrhG), im Telemediengesetz (TMG) und im Verwertungsgesellschaftengesetz (VGG):
Das „gestufte Regelungskonzept” soll dafür sorgen, dass die meisten Nutzungen auf den angesprochenen Upload-Diensten entweder lizenziert oder gesetzlich erlaubt sind. Bei den verbleibenden Zweifelsfällen seien die Diensteanbieter in der Bringschuld, unberechtigte Filtermaßnahmen zu verhindern.
Noch knapp 15 Monate haben die EU-Mitgliedstaaten Zeit, um die jüngste EU-Urheberrechtsreform umzusetzen. Die Kölner Forschungsstelle für Medienrecht hat sich unter Leitung von Rolf Schwartmann und Christian-Henner Hentsch an den wohl komplexesten Punkt der Richtlinie gewagt.
Auf Diensten wie YouTube werden massenweise Medieninhalte wie Videos oder Musik hochgeladen. Ihnen warf die Kreativwirtschaft stets vor, Werbegeld mit Inhalten einzustreichen, die sie nicht lizenziert haben. Weil bei der Kreativwirtschaft nichts oder zu wenig davon ankomme, klaffe ein value gap. Um ihn zu schließen, hatten Platten- und Filmlabels, Verwertungsgesellschaften und Urheberverbände dafür lobbyiert, dass diese Dienste ihre neutrale Stellung endgültig verlieren und für das Verhalten ihrer Nutzer*innen haften. Bevor der Europäische Gerichtshof im Detail klären konnte, wie YouTube und Co haften, hat 2019 der EU-Gesetzgeber mit Art. 17 DSM-RL ein neues Haftungskonzept in Gesetzesform gegossen. Viele Nutzer*innen sorgten sich um eine automatische Filterung des Internets.
Und tatsächlich rammt der Art. 17 einen Pflock ein: Die Upload-Dienste machen künftig Inhalte selbst zugänglich, wenn sie der Öffentlichkeit Zugang zu Musik oder Videos verschaffen, die die Nutzer*innen hochladen. Dienste sollen durch die strengere Haftung dazu angehalten werden, Lizenzen einzuholen. Tun sie dies nicht, können Rechteinhaber sie in Anspruch nehmen. Holen sie Lizenzen ein, sollen auch die User davon profitieren.
Dienste können aber der Haftung entgehen. Dafür müssen sie nachweisen können, gewisse Maßnahmen ergriffen zu haben:
Die Maßnahmen müssen außerdem verhältnismäßig sein (Art. 17 V DSM-RL); dazu später mehr. Eine „allgemeine Überwachung“ ist verboten (Art. 17 VIII DSM-RL). Urheberrechtliche Schranken müssen gewahrt bleiben; Freiheiten, die das Urheberrecht bei Zitat, Kritik, Karikatur oder Pastiche gewährt, dürfen nicht unterminiert werden (Art. 17 VII DSM-RL). Und schließlich muss es Beschwerdemechanismen für zu unrecht gesperrte Inhalte geben, und die müssen „wirksam” und „zügig” ablaufen (Art. 17 IX DSM-RL).
Art. 17 DSM-RL rudert mit seinen zehn Absätzen über zwei Seiten lang immer wieder vor und zurück: Weitgehende Maßnahmen – aber verhältnismäßig. Sperren – aber nicht überwachen. Gleichzeitig enthält der Artikel reihenweise unbestimmte Rechtsbegriffe. Bei der Umsetzung lässt das einen gewissen Spielraum. Ihn will der jetzige Vorschlag der Kölner Forschungsstelle für Medienrecht ausnutzen. Dabei lässt der Vorschlag sich von einem Ziel leiten: Er will soweit wie möglich verhindern, dass Uploadfilter eingesetzt werden müssen:
„Nur in Fällen, in denen eine klare Rechtsverletzung vorliegt, darf ein Inhalt ohne Beteiligung des hochladenden Nutzers durch Filter gesperrt werden. Insoweit kann an die Rechtsprechung des Bundesgerichtshofes angeknüpft werden, die in der bisherigen Praxis keine Probleme bereitet hat. Dem Nutzer bleiben auch in diesen Fällen seine Ansprüche und Beschwerderechte.“
(S. 3 des Vorschlags)
Die Sorge, die mit dem Begriff der Uploadfilter vor allem artikuliert wurde, spricht vor allem die automatisierte Blockade von Inhalten an. Ein Dienst wie YouTube ist ja nicht nur ein Spaßmedium mit kostenloser Musik. Da werden Filmaufnahmen in politische Auseinandersetzungen gebettet, da bespricht eine Musiklehrerin einen Song und belegt ihre Aussagen mit Songschnipseln, da werden Film, Foto, Musik „transformativ“ genutzt, da lässt man aus (und vor allem mit) Vorhandenem Neues entstehen. Das sind die sogenannten nutzergenerierten Inhalte (UGC), die eben in vielen Fällen fremde Werke enthalten. Würden sie immer gleich in Filtern steckenbleiben und träfe die Uploader die Last, sich für ihre Inhalte erst einmal zu rechtfertigen – es wäre eine Katastrophe für moderne Kommunikation und für Meinungs- und Kunstfreiheit.
Zugleich: Erkennungssysteme wie Content-ID werden zwar heute schon eingesetzt. Ihre Funktion liegt aber bislang eher darin, die notice-and-stay-down-Rechtsprechung einzuhalten und Abrufe für Rechteinhaber zu monetarisieren. Eine gesetzliche Pflicht zum Einsatz solcher Techniken hat zudem noch einmal neuen Charakter.
Dass die Dienste selbst zugänglich machen, regelt der Vorschlag aus Köln in einem neuen § 19a Abs. 2 UrhG-Vorschlag (im Folgenden UrhG-V). Dort ist auch definiert, welche Upload-Dienste überhaupt erfasst sind – solche nämlich, die große Mengen an von Nutzer*innen hochgeladenen, urheberrechtlich geschützten Inhalten speichern und der Öffentlichkeit Zugang hierzu verschaffen. Private Clouds, Dating- und Instant-Messaging-Portale, Wikipedia und Forschungsdaten-Repositorien sind außen vor. Das ist schon in der Richtlinie angelegt (siehe Art. 2 Nr. 6 DSM-RL; der Vorschlag geht auf S. 8 f. genauer darauf ein). Für Startups gibt es gewisse Erleichterungen (Art. 17 VI DSM-RL, § 10a II TMG-V).
Wer als Upload-Dienst unter die Regelung fällt, unterliegt einem gestuften Regelungskonzept (vgl. stichpunktartig auf S. 3 des Vorschlags):
1. Erleichterte Lizenzierung
Für erleichterte Lizenzierung greift der Vorschlag auf Extended Collective Licensing (ECL) zurück, zu Deutsch „kollektive Lizenzvergabe mit erweiterter Wirkung“. Wenn es eine Verwertungsgesellschaft wie die GEMA gibt und sie das Repertoire in einzelnen Werkbereichen weitgehend repräsentiert, wird vermutet, dass sie die Rechte aller Rechteinhaber wahrnimmt. So können Diensteanbieter, denen eine Verwertungsgesellschaft eine Lizenz erteilt hat, davon ausgehen, dass alle Nutzungen erlaubt sind – auch für Werke, deren Urheber*innen nicht in der Verwertungsgesellschaft angemeldet sind. Das schafft aber bei Weitem nicht in allen Bereichen Rechtssicherheit, weil das Repertoire der Verwertungsgesellschaften oft nicht repräsentativ genug sein dürfte (s.o.).
2. Reichweite von Lizenzen
Wenn es den Diensten gelingt, die Inhalte zu lizenzieren und User die Inhalte hochladen, werden diese Inhalte durch Erkennungssysteme erkannt – und nicht blockiert. Die Lizenzen wirken dann gemäß § 31 IV UrhG-V auch für die Nutzer*innen, solange sie nicht gewerblich handeln. Daher müssen zum Beispiel Influencer, die mit der Nutzung Geld verdienen, selbst lizenzieren. Haben sie fürs Hochladen selbst eine Lizenz, gilt diese wiederum auch für den Dienst (§ 31 IVa UrhG-V).
3. Neue Schranke
Der Vorschlag enthält eine neue Schranke für Karikaturen, Parodien oder Pastiches (§ 51a UrhG-V). Damit sollen laut Begründung GIFs, Mashups, Remix- und Meme-Kultur weitgehend erlaubt und auch das Teilen dieser Inhalte rechtssicher möglich werden. Es soll also um weite Bereiche von UGC gehen. Die Plattformen sollen dafür eine Vergütung zahlen – nicht aber die Uploader. Das hätte gewissen Charme, da bisher umstritten war, inwieweit das deutsche Recht diese Nutzungen überhaupt erlaubt (Stichwort freie Benutzung).
4. Verhältnismäßigkeitskriterien
Besonderes Augenmerk legt der Vorschlag darauf, dass die eingesetzten Mittel verhältnismäßig sind. Dafür legt § 10a III TMG-V fest:
„Anstrengungen, die öffentliche Wiedergabe oder öffentliche Zugänglichmachung gemeldeter [Uploads] zu verhindern, sind insbesondere dann unverhältnismäßig, soweit nicht offensichtlich recht[s]widrige öffentliche Wiedergaben oder öffentliche Zugänglichmachungen verhindert werden.“
(Hervorhebungen nicht im Original.)
Und hier spielt die Musik. So führt die Vorschlagsbegründung aus:
5. Trusted Uploader
Bei besonders als besonders vertrauenswürdig gekennzeichneten Usern („trusted uploader“) soll die automatisierte Blockade der Uploads verboten sein (§ 10a VII TMG-V). Einen „trusted”-Status könne man zum Beispiel nach einer Probephase von nicht beanstandeten Uploads erreichen (S. 17 des Vorschlags).
6. Beschwerde
Beschwerden von Usern müssen durch Menschen überprüft werden. Falls Rechteinhaber Inhalte beanstanden, müssen User gehört werden. Bei „klaren” Rechtsverletzungen dürfen Uploads gesperrt werden, bei „nicht-klaren” darf die Sperrung erst nach Reaktion der Uploader erfolgen (S. 16 des Vorschlags).
7. Verbandsklagerecht und Bußgeld
Es gibt ein Verbot, rechtmäßige Inhalte zu sperren oder zu entfernen (§ 10a VI 2 TMG-V) – und es bekommt Zähne: Mitbewerber oder Verbände sollen gegen den Verstoß klagen können (das Verbot stelle eine Marktverhaltensregel dar, S. 17). Außerdem sollen Overblocking-Verstöße vor Gericht „im Regelfall im einstweiligen Verfügungsverfahren” – also in Eilverfahren – beurteilt werden (S. 17). Schließlich ist ein Bußgeld für Overblocking vorgesehen, aber nur wenn rechtmäßige Uploads von trusted uploadern nicht durchgelassen werden (§ 16 II Nr. 1a TMG-V).
Damit seien „die meisten Nutzungen im Internet entweder lizenziert oder gesetzlich erlaubt”, Uploadfilter für legale Inhalte überflüssig und unberechtigtes Overblocking „nahezu ausgeschlossen”.
Das Konzept von Art. 17 DSM-RL ist hochkomplex und das Produkt vieler Kompromisse. Der Vorschlag aus Köln ist von der Idee getragen, so weit wie möglich übermäßige automatische Blockaden von Uploads zu verhindern. Er tut das, indem er Lizenzierungsmöglichkeiten vereinfacht, gesetzliche Erlaubnisse ausweitet (Stichwort Meme-Schranke) und Overblocking mit Sanktionsmöglichkeiten belegt. Uploadfilter sollen zum letzten Mittel werden. Ob er Kollateralschäden bestmöglich eindämmen kann, wird die weitere Diskussion zeigen.
Deutschland wird sich hier auch besonders anstrengen müssen. Denn als es die finale Zustimmung zur Richtlinie gab, betonte die Bundesregierung: Upload-Dienste sind freie Kommunikationskanäle für die Zivilgesellschaft.