Telemedicus

, von

Uploadfilter als letztes Mittel: Stufenkonzept gegen Overblocking

Heute veröffentlicht die Kölner Forschungsstelle für Medienrecht (TH Köln) ihren Vorschlag zur Umsetzung von Art. 17 der Richtlinie für das Urheberrecht im digitalen Binnenmarkt (PDF). Darin ist das neue Haftungskonzept für „Diensteanbieter für das Teilen von Online-Inhalten“ geregelt.

Der Text sollte eigentlich auf einem Symposium im Bundestag diskutiert werden. Wegen der Corona-Krise musste die Veranstaltung verschoben werden. Wir haben uns den Vorschlag vorab angesehen.

Die Debatte in dieser politisch besonders umkämpften Reform dreht(e) sich vor allem um die Angst vor dem Einsatz von Uploadfiltern. Der Umsetzungsvorschlag nimmt sich daher eine rechtssichere und verhältnismäßige Umsetzung zum Ziel, die ungerechtfertigtes Overblocking – also übermäßiges Blockieren von hochgeladenen Inhalten – verhindern soll. Er beinhaltet Änderungen im Urheberrechtsgesetz (UrhG), im Telemediengesetz (TMG) und im Verwertungsgesellschaftengesetz (VGG):

  • Zunächst haften die Upload-Dienste künftig für die Uploads ihrer Nutzer*innen, wie es Art. 17 DSM-RL auch vorsieht.
  • Gleichzeitig soll die Lizenzierung von Inhalten erleichtert werden, insbesondere über Regelungen zur sogenannten kollektiven Lizenzvergabe mit erweiterter Wirkung (Extended Collective Licence, ECL).
  • Im TMG wird das Haftungskonzept für die Diensteanbieter konkretisiert und besonderes Augenmerk darauf gelegt, dass Uploads nicht übermäßig blockiert werden.
  • Im UrhG wird eine neue Schranke für Memes, Mashups, GIFs eingeführt und damit auf „User Generated Content” ausgeweitet.
  • Außerdem wird die automatisierte Blockade bei als besonders vertrauenswürdig gekennzeichneten Nutzer*innen („trusted Uploader“) verboten.

Das „gestufte Regelungskonzept” soll dafür sorgen, dass die meisten Nutzungen auf den angesprochenen Upload-Diensten entweder lizenziert oder gesetzlich erlaubt sind. Bei den verbleibenden Zweifelsfällen seien die Diensteanbieter in der Bringschuld, unberechtigte Filtermaßnahmen zu verhindern.

Noch knapp 15 Monate haben die EU-Mitgliedstaaten Zeit, um die jüngste EU-Urheberrechtsreform umzusetzen. Die Kölner Forschungsstelle für Medienrecht hat sich unter Leitung von Rolf Schwartmann und Christian-Henner Hentsch an den wohl komplexesten Punkt der Richtlinie gewagt.

Worum geht es in Art. 17 DSM-RL genau?

Auf Diensten wie YouTube werden massenweise Medieninhalte wie Videos oder Musik hochgeladen. Ihnen warf die Kreativwirtschaft stets vor, Werbegeld mit Inhalten einzustreichen, die sie nicht lizenziert haben. Weil bei der Kreativwirtschaft nichts oder zu wenig davon ankomme, klaffe ein value gap. Um ihn zu schließen, hatten Platten- und Filmlabels, Verwertungsgesellschaften und Urheberverbände dafür lobbyiert, dass diese Dienste ihre neutrale Stellung endgültig verlieren und für das Verhalten ihrer Nutzer*innen haften. Bevor der Europäische Gerichtshof im Detail klären konnte, wie YouTube und Co haften, hat 2019 der EU-Gesetzgeber mit Art. 17 DSM-RL ein neues Haftungskonzept in Gesetzesform gegossen. Viele Nutzer*innen sorgten sich um eine automatische Filterung des Internets.

Und tatsächlich rammt der Art. 17 einen Pflock ein: Die Upload-Dienste machen künftig Inhalte selbst zugänglich, wenn sie der Öffentlichkeit Zugang zu Musik oder Videos verschaffen, die die Nutzer*innen hochladen. Dienste sollen durch die strengere Haftung dazu angehalten werden, Lizenzen einzuholen. Tun sie dies nicht, können Rechteinhaber sie in Anspruch nehmen. Holen sie Lizenzen ein, sollen auch die User davon profitieren.

Dienste können aber der Haftung entgehen. Dafür müssen sie nachweisen können, gewisse Maßnahmen ergriffen zu haben:

  • Sie müssen erstens „alle Anstrengungen“ unternommen haben, um Lizenzen einzuholen (best effort). Die Schwierigkeit ist hier, dass natürlich nicht überall zentrale Stellen existieren, bei denen Upload-Dienste Inhalte lizenzieren können, etwa im Bereich Fotos oder Games. Es darf den Diensten in diesen Bereichen nicht abverlangt werden, flächendeckend millionenfach Lizenzen einzuholen. Das muss wiederum im best effort-Kriterium berücksichtigt werden.
  • Zweitens müssen die Dienste branchenübliche Standards zum Verhindern der Anzeige von Inhalten unternommen haben, wenn Rechteinhaber zum Beispiel Fingerprints von Werken zur Verfügung gestellt haben.
  • Drittens müssen sie nach einem Claim von Rechteinhabern Inhalte sperren oder den Wiederupload verhindern (Art. 17 IV DSM-RL).

Die Maßnahmen müssen außerdem verhältnismäßig sein (Art. 17 V DSM-RL); dazu später mehr. Eine „allgemeine Überwachung“ ist verboten (Art. 17 VIII DSM-RL). Urheberrechtliche Schranken müssen gewahrt bleiben; Freiheiten, die das Urheberrecht bei Zitat, Kritik, Karikatur oder Pastiche gewährt, dürfen nicht unterminiert werden (Art. 17 VII DSM-RL). Und schließlich muss es Beschwerdemechanismen für zu unrecht gesperrte Inhalte geben, und die müssen „wirksam” und „zügig” ablaufen (Art. 17 IX DSM-RL).

Art. 17 DSM-RL rudert mit seinen zehn Absätzen über zwei Seiten lang immer wieder vor und zurück: Weitgehende Maßnahmen – aber verhältnismäßig. Sperren – aber nicht überwachen. Gleichzeitig enthält der Artikel reihenweise unbestimmte Rechtsbegriffe. Bei der Umsetzung lässt das einen gewissen Spielraum. Ihn will der jetzige Vorschlag der Kölner Forschungsstelle für Medienrecht ausnutzen. Dabei lässt der Vorschlag sich von einem Ziel leiten: Er will soweit wie möglich verhindern, dass Uploadfilter eingesetzt werden müssen:

„Nur in Fällen, in denen eine klare Rechtsverletzung vorliegt, darf ein Inhalt ohne Beteiligung des hochladenden Nutzers durch Filter gesperrt werden. Insoweit kann an die Rechtsprechung des Bundesgerichtshofes angeknüpft werden, die in der bisherigen Praxis keine Probleme bereitet hat. Dem Nutzer bleiben auch in diesen Fällen seine Ansprüche und Beschwerderechte.“

(S. 3 des Vorschlags)

Wann sind es denn Uploadfilter?

Die Sorge, die mit dem Begriff der Uploadfilter vor allem artikuliert wurde, spricht vor allem die automatisierte Blockade von Inhalten an. Ein Dienst wie YouTube ist ja nicht nur ein Spaßmedium mit kostenloser Musik. Da werden Filmaufnahmen in politische Auseinandersetzungen gebettet, da bespricht eine Musiklehrerin einen Song und belegt ihre Aussagen mit Songschnipseln, da werden Film, Foto, Musik „transformativ“ genutzt, da lässt man aus (und vor allem mit) Vorhandenem Neues entstehen. Das sind die sogenannten nutzergenerierten Inhalte (UGC), die eben in vielen Fällen fremde Werke enthalten. Würden sie immer gleich in Filtern steckenbleiben und träfe die Uploader die Last, sich für ihre Inhalte erst einmal zu rechtfertigen – es wäre eine Katastrophe für moderne Kommunikation und für Meinungs- und Kunstfreiheit.

Zugleich: Erkennungssysteme wie Content-ID werden zwar heute schon eingesetzt. Ihre Funktion liegt aber bislang eher darin, die notice-and-stay-down-Rechtsprechung einzuhalten und Abrufe für Rechteinhaber zu monetarisieren. Eine gesetzliche Pflicht zum Einsatz solcher Techniken hat zudem noch einmal neuen Charakter.

Diese Maßnahmen sieht der Vorschlag vor

Dass die Dienste selbst zugänglich machen, regelt der Vorschlag aus Köln in einem neuen § 19a Abs. 2 UrhG-Vorschlag (im Folgenden UrhG-V). Dort ist auch definiert, welche Upload-Dienste überhaupt erfasst sind – solche nämlich, die große Mengen an von Nutzer*innen hochgeladenen, urheberrechtlich geschützten Inhalten speichern und der Öffentlichkeit Zugang hierzu verschaffen. Private Clouds, Dating- und Instant-Messaging-Portale, Wikipedia und Forschungsdaten-Repositorien sind außen vor. Das ist schon in der Richtlinie angelegt (siehe Art. 2 Nr. 6 DSM-RL; der Vorschlag geht auf S. 8 f. genauer darauf ein). Für Startups gibt es gewisse Erleichterungen (Art. 17 VI DSM-RL, § 10a II TMG-V).

Wer als Upload-Dienst unter die Regelung fällt, unterliegt einem gestuften Regelungskonzept (vgl. stichpunktartig auf S. 3 des Vorschlags):

1. Erleichterte Lizenzierung
Für erleichterte Lizenzierung greift der Vorschlag auf Extended Collective Licensing (ECL) zurück, zu Deutsch „kollektive Lizenzvergabe mit erweiterter Wirkung“. Wenn es eine Verwertungsgesellschaft wie die GEMA gibt und sie das Repertoire in einzelnen Werkbereichen weitgehend repräsentiert, wird vermutet, dass sie die Rechte aller Rechteinhaber wahrnimmt. So können Diensteanbieter, denen eine Verwertungsgesellschaft eine Lizenz erteilt hat, davon ausgehen, dass alle Nutzungen erlaubt sind – auch für Werke, deren Urheber*innen nicht in der Verwertungsgesellschaft angemeldet sind. Das schafft aber bei Weitem nicht in allen Bereichen Rechtssicherheit, weil das Repertoire der Verwertungsgesellschaften oft nicht repräsentativ genug sein dürfte (s.o.).

2. Reichweite von Lizenzen
Wenn es den Diensten gelingt, die Inhalte zu lizenzieren und User die Inhalte hochladen, werden diese Inhalte durch Erkennungssysteme erkannt – und nicht blockiert. Die Lizenzen wirken dann gemäß § 31 IV UrhG-V auch für die Nutzer*innen, solange sie nicht gewerblich handeln. Daher müssen zum Beispiel Influencer, die mit der Nutzung Geld verdienen, selbst lizenzieren. Haben sie fürs Hochladen selbst eine Lizenz, gilt diese wiederum auch für den Dienst (§ 31 IVa UrhG-V).

3. Neue Schranke
Der Vorschlag enthält eine neue Schranke für Karikaturen, Parodien oder Pastiches (§ 51a UrhG-V). Damit sollen laut Begründung GIFs, Mashups, Remix- und Meme-Kultur weitgehend erlaubt und auch das Teilen dieser Inhalte rechtssicher möglich werden. Es soll also um weite Bereiche von UGC gehen. Die Plattformen sollen dafür eine Vergütung zahlen – nicht aber die Uploader. Das hätte gewissen Charme, da bisher umstritten war, inwieweit das deutsche Recht diese Nutzungen überhaupt erlaubt (Stichwort freie Benutzung).

4. Verhältnismäßigkeitskriterien
Besonderes Augenmerk legt der Vorschlag darauf, dass die eingesetzten Mittel verhältnismäßig sind. Dafür legt § 10a III TMG-V fest:

„Anstrengungen, die öffentliche Wiedergabe oder öffentliche Zugänglichmachung gemeldeter [Uploads] zu verhindern, sind insbesondere dann unverhältnismäßig, soweit nicht offensichtlich recht[s]widrige öffentliche Wiedergaben oder öffentliche Zugänglichmachungen verhindert werden.“

(Hervorhebungen nicht im Original.)

Und hier spielt die Musik. So führt die Vorschlagsbegründung aus:

  • Nur „klare” Rechtsverletzungen dürfen künftig automatisch verhindert – also gefiltert – werden. Gemeint ist, dass beispielsweise komplette Filme, Serien oder E-Books veröffentlicht werden und Rechteinhaber dagegen vorgehen. Dann darf den Diensten abverlangt werden, dass sie diese Inhalte löschen (takedown), den erneuten Upload verhindern (staydown) und präventiv dafür zu sorgen, dass auch andere nicht die gleichen Rechtsverletzungen begehen. Damit wird dem Vorschlag zufolge die BGH-Rechtsprechung zum Gesetz (S. 14 f.).
  • „Nicht-klare” Rechtsverletzungen werden hingegen sanfter behandelt: Dienste dürfen sie zwar per Inhalteerkennung aufspüren, ihr Upload darf aber nicht automatisch verhindert werden. Dienste sollen die Uploads mit „nicht-klaren” Rechtsverletzungen veröffentlichen können, ohne in die Haftung zu laufen. Sie müssen dann in Dialog mit Rechteinhabern und Uploadern treten und – wohl händisch – prüfen, ob der Upload wirklich Urheberrechte verletzt (S. 15 des Vorschlags). Die „nicht-klaren” Rechtsverletzungen greifen die vielen Uploads auf, bei denen es eben nicht einfach so beurteilt werden kann, dass Inhalte illegal genutzt werden – sondern bei denen die Nutzung oftmals durch gesetzliche Schranken gedeckt sein kann, zum Beispiel das Zitatrecht.

5. Trusted Uploader
Bei besonders als besonders vertrauenswürdig gekennzeichneten Usern („trusted uploader“) soll die automatisierte Blockade der Uploads verboten sein (§ 10a VII TMG-V). Einen „trusted”-Status könne man zum Beispiel nach einer Probephase von nicht beanstandeten Uploads erreichen (S. 17 des Vorschlags).

6. Beschwerde
Beschwerden von Usern müssen durch Menschen überprüft werden. Falls Rechteinhaber Inhalte beanstanden, müssen User gehört werden. Bei „klaren” Rechtsverletzungen dürfen Uploads gesperrt werden, bei „nicht-klaren” darf die Sperrung erst nach Reaktion der Uploader erfolgen (S. 16 des Vorschlags).

7. Verbandsklagerecht und Bußgeld
Es gibt ein Verbot, rechtmäßige Inhalte zu sperren oder zu entfernen (§ 10a VI 2 TMG-V) – und es bekommt Zähne: Mitbewerber oder Verbände sollen gegen den Verstoß klagen können (das Verbot stelle eine Marktverhaltensregel dar, S. 17). Außerdem sollen Overblocking-Verstöße vor Gericht „im Regelfall im einstweiligen Verfügungsverfahren” – also in Eilverfahren – beurteilt werden (S. 17). Schließlich ist ein Bußgeld für Overblocking vorgesehen, aber nur wenn rechtmäßige Uploads von trusted uploadern nicht durchgelassen werden (§ 16 II Nr. 1a TMG-V).

Damit seien „die meisten Nutzungen im Internet entweder lizenziert oder gesetzlich erlaubt”, Uploadfilter für legale Inhalte überflüssig und unberechtigtes Overblocking „nahezu ausgeschlossen”.

Das Beste draus gemacht?

Das Konzept von Art. 17 DSM-RL ist hochkomplex und das Produkt vieler Kompromisse. Der Vorschlag aus Köln ist von der Idee getragen, so weit wie möglich übermäßige automatische Blockaden von Uploads zu verhindern. Er tut das, indem er Lizenzierungsmöglichkeiten vereinfacht, gesetzliche Erlaubnisse ausweitet (Stichwort Meme-Schranke) und Overblocking mit Sanktionsmöglichkeiten belegt. Uploadfilter sollen zum letzten Mittel werden. Ob er Kollateralschäden bestmöglich eindämmen kann, wird die weitere Diskussion zeigen.

Deutschland wird sich hier auch besonders anstrengen müssen. Denn als es die finale Zustimmung zur Richtlinie gab, betonte die Bundesregierung: Upload-Dienste sind freie Kommunikationskanäle für die Zivilgesellschaft.

Der Kölner Vorschlag als PDF.

, Telemedicus v. 27.03.2020, https://tlmd.in/a/3490

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Newsletter

In Kooperation mit

Kommunikation & Recht

Hosting

Domainfactory