Internet-Law

Onlinerecht und Bürgerrechte 2.0

16.2.24

Müssen Bewertungsportale jetzt Nutzerdaten preisgeben?

Juristische Fachmedien wie Beck-Online oder LTO warten aktuell mit der Meldung auf, der Portalbetreiber kununu müsse laut OLG Hamburg die Klarnahmen von Nutzern herausgeben.

Wenn man sich die Entscheidung des OLG Hamburg (Beschluss vom 08.02.2024 – 7 W 11/24) anschaut, trifft man auf eine Unterlassungsverfügung, die dem Bewertungsportal eine bestimmte Bewertung verbietet. Eine rechtliche Pflicht des Portalbetreibers zur Herausgabe von Nutzerdaten begründet die Entscheidung aber nicht. Das wäre wegen § 21 Abs. 2 – 4 TTDSG auch gar nicht möglich.

Allerdings geht das OLG Hamburg davon aus, dass sich der Bewertete darauf berufen kann, dass zwischen ihm und dem Bewertenden kein geschäftlicher Kontakt bestanden hat. Dadurch werden Prüfplichten des Portalbetreibers ausgelöst, die nach Ansicht des OLG so weit gehen, den Bewerter so zu individualisieren dass der Bewertete das Vorliegen eines geschäftlichen Kontaktes überprüfen kann. Gelingt dem Portalbetreiber das nicht, muss er die Bewertung löschen.

Das OLG Hamburg stützt sich hierbei auf eine neuere Entscheidung des Bundesgerichtshofs (Urteil vom 09.08.2022 – VI ZR 1244/20). Der Entscheidung des BGH lag allerdings ein Sachverhalt zugrunde, in dem der Portalbetreiber keinerlei Prüfmaßnahmen ergriffen hatte, nachdem der Bewertete sich darauf berufen hatte, es würde gar kein geschäftlicher Kontakt bestehen. Die Schlussfolgerung des OLG Hamburg, der Portalbetreiber müsse den Bewertenden in einer Art und Weise individualisieren, die bis hin zu einer Preisgabe des Klarnamens gehen kann, lässt sich aus der Rechtsprechung des BGH nicht ableiten.

Ganz im Gegenteil. Der BGH hatte bislang betont, dass dem Portalbetreiber keine Pflicht zur Identifizierung trifft, weil dies zu einem Verstoß gegen § 12 Abs. 1 TMG (a.F.) führen könnte.

Das Argument, der Portalbetreiber würde durch eine Übermittlung personenbezogener Daten gegen die neuen Vorschriften der §§ 21 Abs. 2 – 4 TTDSG verstoßen, wischt das OLG Hamburg vom Tisch. Selbst wenn die Preisgabe des Klarnamens eine Datenschutzverletzung zur Folge haben sollte, so das OLG, dürfe dies nicht dazu führen, dass eine Bewertung öffentlich zugänglich gehalten wird, solange dem Bewerteten die Möglichkeit genommen ist, zu klären, ob überhaupt ein geschäftlicher Kontakt mit dem Bewerten bestanden hat.

Diese Schlussfolgerung des OLG Hamburg lässt sich jedenfalls nicht auf die bisherige Rechtsprechung des BGH stützen. Der BGH ist bislang davon ausgegangen, dass gerade eine Identifizierung des Nutzers nicht verlangt werden kann. (Urteil vom 01.03.2016, Az.: VI ZR 34/15, Rn. 61).

Sie überspannt zudem die Anforderungen an die Prüf- und Verhaltenspflichten eines Störers, die ihm immer nur mögliche, rechtmäßige und zumutbare Verhaltenspflichten abverlangen. Da der Portalbetreiber die Nutzerdaten wegen § 21 Abs. 2 – 4 TTDSG im Regelfall gar nicht herausgaben darf, läuft die Rechtsprechung des OLG Hamburg darauf hinaus, dass der Portalbetreiber immer löschen muss. Damit wird er aber nicht mehr wie ein mittelbarer Störer behandelt, sondern wie ein unmittelbarer Störer bzw. Verletzter. Dadurch sprengt das OLG Hamburg allerdings die Grundsätze der Störerhaftung .

Der BGH hatte, die Anforderungen an die Prüfpflichten des Portalbetreibers gerade mit dem Argument nach oben geschraubt, dass hierdurch ein Gegengewicht zur Gefahr der anonymen Bewertung geschaffen werden müsse. Nach der Logik des OLG Hamburg besteht diese Gefahr aber nicht mehr, wenn entweder der Klarname preisgegeben oder gelöscht werden muss. Die Begründung des OLG Hamburg deckt sich also nicht mit der Argumentationslinie des BGH.

Da der Beschluss im Verfahren der einstweiligen Verfügung ergangen ist, kann eine Revision zum BGH nicht eingelegt werden. Es bleibt abzuwarten, ob der Portalbetreiber den Weg des Hauptsacheverfahren beschreiten will.

posted by Thomas Stadler at 19:15  

16.12.21

Telegram: Welche Maßnahmen kann der Staat ergreifen?

Die Forderung nach einer Regulierung des Messengerdienstes Telegram ist derzeit in aller Munde. Der neue Justizminister Buschmann hält ein staatliches Vorgehen gegen Telegram auf Grundlage des Netzwerkdurchsetzungsgesetzes (NetzDG) für möglich. Adressat des NetzDG sind nach der Regelung in § 1 Abs. 1 S. 1 aber nur sog. soziale Netzwerke. Das Gesetz definiert sie als

Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen (soziale Netzwerke).

Demgegenüber nimmt das NetzDG in § 1 Abs. 1 S. 3

 Plattformen, die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind

ausdrücklich vom Anwendungsbereich des Gesetzes aus.

Hier zeigt sich schon der erste Schwachpunkt der gesetzlichen Regelung, denn wie multifunktionale Dienste einzuordnen sind, bleibt unklar. Wenn man Telegram im Sinne einer Entweder-Oder-Logik nur als soziales Netzwerk oder als einen zur Individualkommunikation bestimmten Dienst betrachten kann, ist die Zuordnung eindeutig. Messengerdienste dienen vorrangig der Individualkommunikation und sind keine sozialen Netze.

In der Diskussion wird nun aber häufiger die Ansicht vertreten, man müsse Teildienste wie Gruppen oder Channels als (eigene) soziale Netzwerke qualifizieren. An dieser Stelle erscheint zunächst aber etwas mehr Differenzierung nötig. Channels, die keine Interaktion der Nutzer ermöglichen, sondern nur wie ein Nachrichtenkanal (Des-) Informationen lediglich ausspielen, sind keine sozialen Netze. Bei Gruppen kommt es darauf an, ob die Gruppe für jedermann offen ist und jeder Nutzer nach einem Betritt zur Gruppe auch sämtliche Inhalte aufrufen und mit anderen Nutzern interagieren kann. Geschlossene Nutzergruppen wird man demgegenüber kaum als soziale Netze einstufen können.

Wenn man also offene und für jedermann zugängliche Telegramgruppen als soziale Netzwerke betrachten möchte, ist die nächste Frage, wer der Anbieter solcher sozialer Medien ist. Denn die Entscheidung darüber, überhaupt eine Gruppe zu eröffnen und diese Gruppe für jeden beliebigen Nutzer zugänglich zu machen, trifft nicht Telegram, sondern der Admin/Owner der Gruppe. Deshalb wird man auch nur den Owner der Gruppe als Anbieter des sozialen Netzwerks Gruppe sehen können, während Telegram lediglich die technische Plattform bietet.

An diese Erkenntnis schließt sich dann allerdings ein weiterer Problempunkt an. Denn das NetzDG gilt nur für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben. Und das wird auf den Owner einer Gruppe zumeist nicht zutreffen. Darüber hinaus, sind soziale Netzwerke mit weniger als zwei Millionen Nutzern im Inland nach § 1 Abs. 2 NetzDG von den wesentlichen gesetzlichen Pflichten befreit. Die Nutzeranzahl der Telegramgruppen ist aber auf 200.000 begrenzt, so dass die gesetzliche Grenze nicht überschritten wird.

Es zeigt sich also, dass das NetzDG aus verschiedenen Gründen keine geeignete Grundlage für ein Vorgehen gegen Telegram bietet. Die Aussage von Justizminister Marco Buschmann, wonach das NetzDG keine pauschalen Ausnahmen für Messenger-Dienste wie Telegram kennen würde, erweist sich also als unzutreffend.

Erfolgsversprechender erscheint ein Rückgriff auf die gute alte Störerhaftung. Es entspricht gefestigter höchstrichterlicher Rechtsprechung, dass Intermediäre wie Hoster, die fremde Inhalte zum Abruf bereithalten einer eingeschränkten Haftung unterliegen, sofern sie zumutbare Prüfpflichten verletzt haben. Das setzt insbesondere voraus, dass ein solcher Anbieter über einen konkreten rechtswidrigen Inhalt in Kenntnis gesetzt wird und anschließend untätig bleibt. In solchen Fällen hat die Rechtsprechung des BGH, beginnend mit der Entscheidung Blogpost, einen Prüfprozess entwickelt, den der BGH in weiteren Entscheidungen zu Bewertungsportalen wie Jameda immer weiter ausdifferenziert hat.

Danach könnte Telegram also, auf konkreten Hinweis hin verpflichtet sein, rechtswidrige Inhalte zu entfernen.

Ob der Ansatz, auf Apple und Google einzuwirken, um Telegram aus den Appstores zu nehmen, einen rechtlich gangbaren Weg darstellt, erscheint zumindest auf den ersten Blick fraglich. Denn bei Telegram handelt es es sich in jedem Fall um einen legalen und legitimen Messengerdienst, dessen komplette Verbannung wegen einzelner rechtswidriger Inhalte in Gruppen nicht gerechtfertigt erscheint. Dies kann allenfalls ultima ratio sein, wenn alle anderen denkbaren Mittel und Wege auf Telegram mit Blick auf die Löschung rechtswidriger Inhalte, erfolglos geblieben sind.

posted by Thomas Stadler at 18:25  

26.11.19

BGH: Auskunftsansprüche gegen Portalbetreiber

Der BGH bejaht in einer aktuellen Entscheidung (Beschluss vom 24.09.2019, Az.: VI ZB 39/18) Auskunftsansprüche gegen Anbieter von Telemedien nach § 14 Abs. 3 – 5 TMG wegen Verletzung absolut geschützter Rechte, insbesondere wegen Persönlichkeitsrechtsverletzungen.

Das Interessante daran ist, dass der BGH das nicht auf soziale Netze im Sinne des NetzDG beschränken will – was der Wortlaut nahe legt – sondern der Anspruch sich gegen jeden Anbieter im Sinne des TMG richten kann. Der BGH spricht die Jameda-Entscheidung aus 2014 (VI ZR 345/13) in den Gründen ausdrücklich an und erklärt sie aufgrund der neuen Gesetzeslage letztlich für hinfällig. Portal- und Forenbetreiber sowie soziale Netzwerke werden also künftig grundsätzlich damit rechnen müssen, von einem Gericht zur Erteilung von Auskunft verpflichtet zu werden, wenn Dritte persönlichkeitsrechtsverletzende Bewertungen oder Kommentare einstellen.

Die Entscheidung ist auch für Datenschützer interessant, wegen der Ausführungen des BGH zu Art. 6 Abs. 4 DSGVO. § 14 Abs. 3 – 5 TMG ist nach Ansicht des BGH eine Rechtsvorschrift im Sinne von Art. 6 Abs. 4 DSGVO. Die Vorschrift dient der Durchsetzung zivilrechtlicher Ansprüche (Art. 23 Abs. 1 Buchst j DSGVO) und verfolgt damit ein in Art. 23 Abs. 1 DSGVO genanntes Ziel. Sie ist, so der BGH, in einer demokratischen Gesellschaft eine notwendige und verhältnismäßige Maßnahme zum Schutz dieses Ziels.

posted by Thomas Stadler at 21:55  

18.6.19

BGH zur Haftung für Uploads durch Dritte

In welchem Umfang haftet ein Fernsehsender (hier der MDR), wenn ein Dritter einen persönlichkeitsrechtsverletzenden Filmbericht bei YouTube und Facebook einstellt? Mit dieser Frage hatte sich der BGH (Urteil vom 09.04.2019, Az.: VI ZR 89/18) unlängst zu beschäftigen. Anders als das Oberlandesgericht hält der BGH eine Haftung des MDR (für Abmahnkosten) für denkbar.

Der BGH geht zunächst davon aus, dass der MDR die Erstveröffentlichung durch die Ausstrahlung und das Einstellen des Films in die ARD-Mediathek verursacht hat und insoweit auf Unterlassung und Schadensersatz haftet. Für die Folgefrage der Einstellung bei YouTube geht der BGH von der tatbestandlichen Feststellung des Berufungsgerichts aus, dass der Uploader den Filmbericht aus der Mediathek hochgeladen hat. Diese tatbestandliche Feststellung ist möglicherweise falsch, aber wegen § 314 Abs. 1 ZPO für den BGH bindend.

Sodann nimmt der BGH an, dass die von den Uploadern bewirkten Rechtsverletzungen dem MDR zuzurechnen sind. Der BGH bekräftigt damit seine bisherige Rechtsprechung, nach der sich durch die Weiterverbreitung im Internet, sei es durch Verlinkung oder erneutem Upload, eine internetetypische Gefahr verwirklicht, welche gerade durch die Erstveröffentlichung geschaffen wurde. Die hiergegen in der juristischen Literatur erhobene Kritik, dass dies jedenfalls dann nicht gelten könne, wenn der Dritte einen Beitrag urheberrechtswidrig weiterverbreitet, weil dies nicht dem Willen des Erstveröffentlichenden entspreche und dieser gleichsam selbst Opfer einer Rechtsverletzung sei, überzeugt den BGH nicht. Für die Zurechnung einer Verletzung des allgemeinen Persönlichkeitsrechts, die durch die Weiterverbreitung eines Beitrags durch Dritte im Internet entstanden ist, sei vielmehr allein die Frage maßgebend, ob in ihr die vom Erstveröffentlicher geschaffene Gefahr fortwirkt.

Der BGH erkennt, dass diese recht starre Betrachtung in Konflikt mit Art. 5 GG stehen könnte, weil von ihr eine veröffentlichungshemmende Wirkung ausgeht. Hier meint der BGH aber, dass abträgliche Effekte auf den Gebrauch von Presse- und Meinungsfreiheit oder gar ein „existenzbedrohender Einschüchterungseffekt“ weder zu befürchten noch eingetreten seien. Das mag man im Fall eines öffentlich-rechtlichen Senders so bewerten. Ob das aber ausnahmslos so gesehen werden kann, darf bezweifelt werden.

Wer im Internet Texte oder Filme veröffentlicht, muss also laut BGH immer damit rechnen, dass diese (auch rechtswidrig) weiterverbreitet werden und haftet deshalb nach deliktischen Grundsätzen regelmäßig auch für solche Rechtsverletzungen, die erst durch das Handeln Dritter entstehen.

posted by Thomas Stadler at 10:43  

7.4.19

Das geplante IT-Sicherheitsgesetz 2.0

Netzpolitik.org hat vor ein paar Tagen den Referentenentwurf eines IT-Sicherheitsgesetzes 2.0 veröffentlicht.

Die geplante Neuregelung soll zunächst die Aufgaben und Befugnisse des Bundesamt für Sicherheit in der Informationstechnik durch Änderung des BSIG erweitern.

Außerdem findet sich der bereits vom Bundesrat beschlossene Vorschlag eines neuen § 126a StGB (Zugänglichmachen von Leistungen zur Begehung von Straftaten) der auch als Darknet-Paragraph öffentlich diskutiert wurde, in dem Entwurf wieder.

Auch der ebenfalls bereits häufiger diskutierte Vorschlag eines „digitalen Hausfriedensbruchs“ taucht in dem Entwurf als unbefugte Nutzung informationstechnischer Systeme erneut auf, ebenso wie ein Vorschlag eines neuen § 163g StPO, der folgenden Wortlaut haben soll:

163g

Begründen bestimmte Tatsachen den Verdacht, dass jemand Täter oder Teilnehmer einer Straftat im Sinne von § 100g Absatz 1 StPO ist, so dürfen die Staatsanwaltschaft sowie die Behörden und Beamten des Polizeidienstes auch gegen den Willen des Inhabers auf Nutzerkonten oder Funktionen, die ein Anbieter eines Telekommunikations- oder Telemediendienstes dem Verdächtigen zur Verfügung stellt und mittels derer der Verdächtige im Rahmen der Nutzung des Telekommunikations- oder Telemediendienstes eine dauerhafte virtuelle Identität unterhält, zugreifen. Sie dürfen unter dieser virtuellen Identität mit Dritten in Kontakt treten. Der Verdächtige ist verpflichtet, die zur Nutzung der virtuellen Identität erforderlichen Zugangsdaten herauszugeben. § 95 Absatz 2 gilt entsprechend mit der Maßgabe, dass die Zugangsdaten auch herauszugeben sind, wenn sie geeignet sind, eine Verfolgung wegen einer Straftat oder einer Ordnungswidrigkeit herbeizuführen. Jedoch dürfen die durch Nutzung der Zugangsdaten gewonnenen Erkenntnisse in einem Strafverfahren oder in einem Verfahren nach dem Gesetz über Ordnungswidrigkeiten gegen den Verdächtigen oder einen in § 52 Absatz 1 der Strafprozessordnung bezeichneten Angehörigen des Verdächtigen nur mit Zustimmung des Verdächtigen verwendet werden.

Diese Vorschrift soll es den Ermittlungsbehörden ermöglichen, virtuelle Identitäten zu übernehmen, um künftig verdeckt unter der Identität eines Tatbeteiligten ermitteln zu können. Erstaunlich an der Vorschrift ist u.a., dass der Verdächtigte verpflichtet sein soll, die Zugangsdaten zu seinem Account herauszugeben und die Herausgabe auch zwangsweise mittels Ordnungsgeld und Ordnungshaft durchgesetzt werden soll. Weil das gegen den vielleicht fundamentalsten rechtsstaatlichen Grundsatz des Strafverfahrens, dass niemand als Beweismittel gegen sich selbst dienen muss (nemo tenetur se ipsum accusare), verstoßen würde, beeilt sich die Vorschrift klarzustellen, dass die durch Nutzung der Zugangsdaten gewonnenen Erkenntnisse in einem Straf- und Ordnungswidrigkeitenverfahren nur mit Zustimmung des Verdächtigen verwendet werden dürfen.

Ob dieses Beweisverwertungsverbot allerdings zu demselben Schutz des Verdächtigen/Beschuldigten führt, als wie wenn er die Preisgabe seiner Zugangsdaten schlicht verweigern könnte, erscheint schon deshalb zweifelhaft, weil es in Deutschland, anders als im US-Recht, keine fruit of the poisonous tree doctrine gibt. Zufallsfunde, die auf andere Straftaten hinweisen, könnten damit verwertet werden. Unklar bleibt auch, inwieweit die Erkenntnisse genutzt werden könnten, um weitere, noch nicht bekannte Tatumstände und -hintergründe zu ermitteln und damit neue Beweismittel zu schaffen, die nicht mehr von dem Beweisverwertungsverbot umfasst wären. Ob diese mittelbare Verwendung dann ebenfalls unzulässig wäre, bleibt offen. Die Vorschrift beinhaltet damit in jedem Fall eine Beschränkung des Grundsatzes „nemo tenetur se ipsum accusare“ und ist deshalb verfassungsrechtlich höchst problematisch.

Auch von dem Vorhaben, ein „Zugänglichmachen von Leistungen zur Begehung von Straftaten“ (§ 126 a StGB) zu regeln, scheint das Innenministerium, trotz mannigfacher Kritik nicht abgerückt zu sein.

Der aktuelle Textvorschlag

(1) Wer Dritten eine internetbasierte Leistung zugänglich macht, deren Zweck oder Tätigkeit darauf ausgerichtet ist, die Begehung von rechtswidrigen Taten zu ermöglichen, zu fördern oder zu erleichtern, wird mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft, wenn die Tat nicht in anderen Vorschriften mit schwererer Strafe bedroht ist.

weist allerdings keinerlei Bezug zu Darknet-Sachverhalten mehr auf. Die Vorschrift ist so weitgehend formuliert, dass sich praktisch jede beliebige Tätigkeit eines Internet Services Anbieters darunter subsumieren lässt. Das sieht offensichtlich auch die Gesetzesbegründung so, heißt es doch dort, dass die Vorschrift hinsichtlich ihres sachlichen Anwendungsbereichs auch zur Ermöglichung der Berücksichtigung der weiteren technischen Entwicklung weit gefasst ist und jegliche internetbasierte Zugänglichmachung von Leistungen erfasst. Wie dann die gebotene Eingrenzung des objektiven Tatbestands auf strafwürdige Sachverhalte erreicht werden soll, erschließt sich mir nicht. Denn die Tathandlung ist ja allein das Zugänglichmachen einer internetbasierten Leistung, die in vielen Fällen auch nicht vom Anbieter selbst stammen wird, sondern von einem Dritten. Jeder Access-Provider, jeder Anbieter von User-Generated Content macht zugänglich. Ob Inhalte/Dienste, die aus Sicht des Anbieters häufig fremde internetbasierte Leistungen darstellen, darauf ausgerichtet sind, Straftaten zu ermöglichen, kann der technische Anbieter oder der Plattformbetreiber im Regelfall weder prüfen noch beurteilen. Es stellt sich auch die Frage, wie eine solche Regelung mit den Providerprivilegien der §§ 8 ff. TMG, die auf die E-Commerce-Richtlinie zurückgehen, in Einklang zu bringen sein soll.

Die Regelung bewirkt nichts anderes als, dass in großem Umfang erlaubte und erwünschte Tätigkeiten pauschal dem objektiven Tatbestand einer Strafnorm unterworfen werden. Die Korrektur erfolgt dann nur über den subjektiven Tatbestand oder die allerdings eng begrenzten Ausnahmen.

Die Vorschrift ist in dieser Form nicht nur rechtspolitisch vollständig verfehlt, sondern mangels Bestimmtheit auch nicht verfassungskonform. Wenn der Gesetzgeber nicht dazu in der Lage ist, strafwürdiges Verhalten im objektiven Tatbestand einer Strafnorm konkret zu umschreiben, dann sollte er auch keine Strafvorschriften erlassen. Der Ansatz, mit Blick auf die künftige Entwicklung vorsorglich einfach mal jedwede Zugänglichmachung von Onlinediensten zu pönalisieren, kann in einem Rechtsstaat kein taugliches Mittel der Gesetzgebung sein.

posted by Stadler at 17:10  

18.3.19

Neues zum Thema Access-Sperren

Die Münchener Gerichte haben im letzten Jahr, soweit ersichtlich erstmals, einen Internet Service Provider (Vodafone) im Wege der einstweiligen Verfügung zu Access-Sperren verpflichtet. Die Urteile des Landgerichts München I vom 01.02.2018 (Az.: 7 O 17752/17) und des OLG München vom 14.06.2018 (Az.:29 U 732/18) sind mittlerweile durch die Dead-Island-Entscheidung des BGH überholt (Urteil vom 26.07.2018, Az.: I ZR 64/17).

Der BGH betont, dass der Unterlassungsanspruch entfällt und an seine Stelle, der gesetzlich neu geschaffene Sperranspruch aus § 7 Abs. 4 TMG tritt. Mithin muss nunmehr im einstweiligen Rechtsschutz eine sog. Leistungsverfügung geltend gemacht werden.

Die Verpflichtung zu einer (konkreten) Sperrmaßnahme wird aber anders als der bloße Unterlassungsausspruch häufig eine unzulässige Vorwegnahme der Hauptsache darstellen.

Mit Blick auf die nur subsidiäre Haftung des Access-Providers müssen im Rahmen der Prüfung des Verfügungsgrunds außerdem die zuvor durchgeführten Ermittlungen und eingeleiteten Maßnahmen gegen die vorrangig Verantwortlichen berücksichtigt werden. Diese sind zum Zweck der Prüfung, ob mit der gebotenen Eile und Konsequenz vorgegangen wurde, vom Antragsteller inhaltlich als auch zeitlich substantiiert darzulegen. Über dieses Erfordernis setzt sich das OLG München in der oben genannten Entscheidung eher großzügig hinweg, indem es postuliert, dass das Gebot der vorrangigen Inanspruchnahme des Verletzers entfällt, wenn der Inanspruchnahme des Betreibers der Website jede Erfolgsaussicht fehlt und deshalb andernfalls eine Rechtsschutzlücke entstünde. Das Oberlandesgericht lässt den Vortrag genügen, der Betreiber der zu sperrenden Website sei unbekannt, ohne der Antragstellerin aufzugeben, konkret vorzutragen, wie und mit welchen Maßnahmen versucht worden ist, den Rechtsverletzter zu ermitteln und in Anspruch zu nehmen. Das ist weder mit der gesetzlichen Regelung noch mit den Vorgaben der Rechtsprechung des BGH und des EuGH vereinbar. Vielmehr wird man vom Rechteinhaber spürbare Anstrengungen verlangen müssen, um entweder den Rechtsverletzter oder seinen Hoster in Anspruch zu nehmen, weil der Sperranspruch gegen den Access-Provider lediglich ultima ratio sein kann.

Vermutlich haben zwischenzeitlich auch die Münchener Gerichte erkannt, dass sie es sich mit den Sperrverfügungen gegen Zugangsprovider etwas zu einfach gemacht haben. Zwei brandneue Entscheidungen des OLG München und des Landgerichts München I, mit denen Verfügungsanträge von Rechteinhabern auf Sperren gegen Access-Provider wegen fehlender Dringlichkeit abgelehnt wurden, deuten darauf hin, dass es künftig wieder schwieriger werden dürfte, solche Sperransprüche im Wege des einstweiligen Rechtsschutzes durchzusetzen.

Die Gerichte stützen sich ebenfalls auf die Entscheidung des BGH „Dead Island“, dabei allerdings spezifisch auf den Aspekt, dass der Verfügungsantrag einerseits zwar werkbezogen gestellt wurde, die beantragte Sperrmaßnahme (DNS-Sperre) andererseits allerdings plattformbezogen ist. Hierzu führt das OLG München im Urteil vom 07.02.2019 (Az.: 29 U 3889/18) aus:

Stellt man vorliegend entsprechend dem Antrag der Antragstellerinnen werksbezogen auf die über die Portale begangenen Verletzungen ab, haben sich die Antragstellerinnen nicht dringlichkeitsschädlich verhalten, weil sie binnen eines Monats ab Kenntnis der Verletzungen der Werke, die Gegenstand der Anträge sind, den Erlass der einstweiligen Verfügung beantragt haben. Die bereits seit längerem bekannten Rechtsverletzungen hinsichtlich anderer Werke stellen bei einer werksbezogenen Betrachtung auch keine kerngleichen Verletzungen dar. Eine solche werksbezogene Betrachtungsweise berücksichtigt jedoch nicht, dass das Begehren der Antragstellerinnen auf die Sperrung des Zugangs zu „L…Gen“ und „S…-Hub“ insgesamt gerichtet ist (vgl. S. 9 der Antragsschrift vom 16.08.2018) und die Anträge zwar werksbezogen formuliert sind, die konkret beantragte Maßnahme der DNS-Sperre tatsächlich aber nicht schutzrechtsbezogen wirkt. Die beantragte und zur Verfügung stehende Sperrmaßnahme ist nicht auf ein bestimmtes Schutzrecht ausgerichtet (vgl. BGH GRUR 2018, 1044 Tz. 27 und Tz. 32 – Dead Island), sondern darauf, dass den Kunden der Zugang zu den Portalen insgesamt nicht mehr vermittelt wird und sie somit auf sämtliche Inhalte der Portale nicht mehr zugreifen können. Ist aber die begehrte Sperrmaßnahme nicht schutzrechtsbezogen und ergibt sich der Anspruch auf diese auch nicht (allein) aus der Verletzung eines konkreten Schutzrechts, sondern vielmehr daraus, dass über die Portale eine Vielzahl von Schutzrechten laufend verletzt werden (Verhältnismäßigkeit, vgl. § 7 Abs. 4 Satz 2 TMG), ist auch hinsichtlich der Frage der Dringlichkeit eine auf das einzelne Schutzrecht bezogene Betrachtungsweise nicht angezeigt (vgl. BGH GRUR 2018, 1044 Tz. 27 – Dead Island zu der Frage, ob bei nicht schutzrechtsbezogenen Maßnahmen im Rahmen der Störerhaftung der vorangegangene Hinweis auf eine Rechtsverletzung auf das gleiche Werk bezogen sein muss). Nimmt ein Antragsteller einen Accessprovider auf Sperrung des Zugangs zu bestimmten Portalen in Anspruch, weil über diese laufend Urheberrechtsverletzungen begangen werden, dann stellen die Verletzungen der Rechte an den verschiedenen Werken im Hinblick auf die begehrte Maßnahme der Sperrung des Zugangs zu den Portalen kerngleiche Verletzungen dar, mit der Folge, dass, wenn der Antragsteller trotz Kenntnis der Möglichkeit, eine Sperrung zu bewirken, eine diesbezügliche einstweilige Verfügung nicht binnen eines Monats beantragt, er zeigt, dass ihm die Angelegenheit nicht dringlich ist.

Dem hat sich das LG München I mit Urteil vom 22.02.2019 (Az.: 37 O 18232/18) angeschlossen.

Das bedeutet zunächst nur, dass für bereits bekannte Portale regelmäßig keine Dringlichkeit für eine plattformbezogene Sperrung mehr besteht, sondern allenfalls noch für schutzrechtsbezogene Maßnahmen. Solche werkbezogenen Maßnahmen würden gegenüber Access-Providern allerdings wohl spezifische Filteranstrengungen auf Inhaltsebene erfordern, was nicht nur deutlich aufwendiger, sondern auch von einer ganz anderen Eingriffsintensität wäre. Außerdem müsste der Antragsteller, die Maßnahme schon in seinem Antrag ganz konkret umschreiben.

posted by Thomas Stadler at 21:12  

28.2.19

Sechs Gegenthesen zur EU-Urheberrechtsreform

Die aktuelle Debatte um die Urheberrechtsreform der EU wird von dem Versuch dominiert, die Diskurshoheit durch bestimmte Thesen und Behauptungen zu erringen. Der Beitrag unterzieht vier Grundthesen der Befürworter von Art. 13 der geplanten Richtlinie über das Urheberrecht im digitalen Binnenmarkt einer kritischen Prüfung.

These 1: Google und andere US-Anbieter versuchen, die EU-Urheberrechtsreform mit unglaublichem lobbyistischem Aufwand zu verhindern

Dass große amerikanische Anbieter insbesondere gegen Art. 11 und Art. 13 der geplanten Richtlinie über das Urheberrecht im digitalen Binnenmarkt lobbyieren, ist kaum zu bestreiten. Die Frage ist nur, in welchem Verhältnis das zum Lobbyismus deutscher und europäischer Verbände und Unternehmen steht, die die Regelungen befürworten. Vor einigen Jahren habe ich mich intensiv mit dem deutschen Leistungsschutzrecht für Presseerzeugnisse beschäftigt – das jetzt seine europäischen Fortsetzung in Art. 11 der geplanten Richtlinie findet – und bin dabei auch mit den lobbyistischen Anstrengungen der deutschen Zeitungsverleger in Berührung gekommen. Der Einfluss der Zeitungsverlage war derart groß, dass einer der Hauptlobbyisten von Springer als Sachverständiger (sic!) in die Ausschussanhörung des Bundestages geladen war, während die Vertreter von Google nur als Zaungäste anwesend waren. Es ist gerade der über Jahrzehnte hinweg gewachsene Einfluss europäischer Verbände, der Art. 11 und Art. 13 möglich gemacht hat. Google und andere US-Player verfügen, egal wieviel Geld sie in die Waagschale werfen, in Europa nicht ansatzweise über einen vergleichbaren politischen Einfluss. Wenn in diesem Gesetzgebungsverfahren der Eindruck eines übermächtigen Lobbyismus von Google & Co. erweckt wird, ist dies nichts weiter als ein Zerrbild. Richtig ist vielmehr, dass der politische Einfluss der Befürworter von Art. 11 und Art. 13 ungleich größer ist.

These 2: Die Richtlinie fordert doch gar keine Uploadfilter

Der zwischen Parlament und Rat abgestimmte endgültige Text, regelt in Art. 13 Nr. 3 zunächst, dass derjenige Anbieter, den die Richtlinie als Online Content Sharing Service Provider bezeichnet, nicht mehr in den Genuss der Haftungsprivilegierung aus Art. 14 der E-Commerce-Richtlinie für Host-Provider kommen soll. Das ist der eigentliche juristische Kern von Art. 13. Plattformen, die von Nutzern eingestellte Inhalte zum Abruf bereithalten, sollen nicht mehr als Hoster betrachtet werden. Obwohl sie natürlich zunächst auch weiterhin nichts anderes tun, als fremde, von Nutzern hochgeladene Inhalte zum Abruf bereit zu halten, werden sie nunmehr so behandelt wie die Anbieter von eigenen Inhalten. Die Veränderung des Haftungsregimes ist der eigentliche Knackpunkt der Neuregelung. Der europäische Gesetzgeber stellt damit Plattformen wie YouTube in haftungsrechtlicher Sicht gleich mit Anbietern wie Spotify oder Netflix.

Der gesamte Rest ist nur eine Folge dieser Regelungslogik. Online Content Sharing Service Provider werden angehalten, mit Rechteinhabern bzw. Verwertungsgesellschaften wie der GEMA Lizenzvereinbarungen zu schließen. Gelingt ihnen dies nicht, sind sie für die unerlaubte Veröffentlichung urheberrechtlich geschützter Werke voll verantwortlich, wie Art. 13 Nr. 4 unmissverständlich klarstellt. Der Plattformbetreiber kann sich exkulpieren, indem er darlegt, dass er hohe Industriestandards beachtet und eingesetzt hat, um die Nichtverfügbarkeit urheberrechtlich geschützter Werke zu gewährleisten. Aus dieser Vorschrift wird die Notwendigkeit des Einsatzes technischer Maßnahmen zur Verhinderung des Uploads (Uploadfilter) hergeleitet. Denn die Nichtverfügbarkeit können solche Plattformen nur durch Uploadfilter, die automatisiert den Upload solcher Inhalte verhindern, die die Software als urheberrechtlich geschützt erkennt, gewährleisten.

These 3: Das Gerede von Zensur ist Quatsch, die geplante Neuregelung stellt keine Gefahr für die Meinungs- und Informationsfreiheit dar

An dieser Stelle stellt sich zunächst die Frage, wem man mehr glauben will. Unabhängigen Experten, die erhebliche Bedenken äußern oder Verbänden die die Interessen ihrer Mitglieder vertreten. Die Gesellschaft für Informatik (GI) warnt eindringlich vor der geplanten Neuregelung. Ihr Präsident Hannes Federrath, einer der führenden Köpfe auf dem Gebiet der IT-Sicherheit in Deutschland hat es so formuliert:

Es ist richtig und wichtig, das Urheberrecht an das digitale Zeitalter anzupassen. Die hier vorgeschlagene automatisierte Prüfung auf Urheberrechtsverletzungen legt jedoch den technischen Grundstein für eine Zensur- und Kontrollinfrastruktur im Internet. Zugleich wird sie Urheberrechtsverletzungen und kriminelle Inhalte nicht wirkungsvoll verhindern können.

Der Bundesdatenschutzbeauftragte warnt ebenfalls und rückt einen anderen Aspekt in den Vordergrund:

Auch wenn Uploadfilter nicht explizit im Gesetzentwurf gefordert werden, wird es in der praktischen Anwendung auf sie hinauslaufen. Gerade kleinere Plattform- und Diensteanbieter werden nicht die Möglichkeit haben, mit allen erdenklichen Rechteinhabern Lizenzverträge zu schließen. Ebensowenig werden sie den immensen Programmieraufwand betreiben können, eigene Uploadfilter zu erstellen. Stattdessen werden sie auf Angebote großer IT-Unternehmen zurückgreifen, so wie das heute schon unter anderem bei Analysetools passiert, bei denen die entsprechenden Bausteine von Facebook, Amazon und Google von vielen Apps, Websites und Services verwendet werden.

Letztendlich entstünde so ein Oligopol weniger Anbieter von Filtertechniken, über die dann mehr oder weniger der gesamte Internetverkehr relevanter Plattformen und Dienste läuft.

Dass man die Plattformbetreiber letztlich dazu zwingt, eine Kontrollinfrastruktur zu schaffen, deren Aufbau man dann vermutlich wieder wenigen großen Anbietern überlässt, mutet nahezu grotesk an.

Aber auch die häufig anzutreffende These, die Meinungsfreiheit werde nicht beeinträchtigt, es ginge nur um eine faire Vergütung der Urheber, hält einer kritischen Prüfung nicht stand. Dieser Aussage liegt vielmehr der die nur als naiv zu bezeichnende Annahme zugrunde, Filtertechnologien könnten urheberrechtsverletzende Inhalte zuverlässig ausfiltern und würden andere, nicht zu beanstandende Inhalte passieren lassen. Jeder, der sich auch nur ein bisschen mit diesem Thema befasst hat, weiß, dass diese These eine Schimäre darstellt. Der Einsatz von Uploadfiltern wird in relevantem Ausmaß dazu führen, dass auch Inhalte ausgefiltert werden, die nicht zu beanstanden sind.

Der Journalist Peter Welchring hat anschaulich erläutert, dass die Uploadfilter, die Google derzeit ohnehin schon einsetzt, im Bereich von Musik und Film dann gut funktionieren, wenn zuvor bereits eine Prüfsumme der maßgeblichen Datei hinterlegt worden ist. Schwieriger wird es bei unbekannten Werken und erst recht bei Fotos, Bildern und Texten. Über die Neuregelung freuen werden sich sicherlich die bereits jetzt sehr abmahnfreudigen Bildagenturen, denn sie können in Zukunft unmittelbar beim Plattformbetreiber Schadensersatz geltend machen, was andererseits für viele Plattformen zu einem schwer kalkulierbaren Risiko werden dürfte.

Ob man in diesem Kontext bereits von Zensur im juristischen Sinne sprechen kann, ist zumindest diskutabel. Auch wenn hier nicht der Staat selbst Äußerungen und Geistesinhalte vor ihrer Veröffentlichung einer inhaltlichen Prüfung unterzieht, so zwingt der Gesetzgeber die Anbieter solcher Plattformen – sofern sie ihr Geschäftsmodell nicht aufgeben wollen – faktisch dennoch dazu, eine Infrastruktur für eine inhaltliche Vorkontrolle aller Inhalte zu etablieren. Damit verpflichtet der Staat den Provider zu einer zensurähnlichen Maßnahme. Es galt daher bisher als Konsens, dass Dienstanbietern keine proaktiven Prüf- und Überwachungspflichten auferlegt werden dürfen. Diesen in der fast 20 Jahre alten E-Commerce-Richtlinie normierten Konsens will die neue Richtlinie aufkündigen. Ein enormer lobbyistischer Erfolg, der unausgewogen und für die Allgemeinheit nachteilig ist.

These 4: Das betrifft doch ohnehin nur YouTube bzw. Google, die sollen ruhig mehr zahlen

Der Richtlinienentwurf hat einen neuen Providertypus erfunden, der Online Content Sharing Provider genannt wird. Der ist legaldefiniert als

provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes.

Das umfasst zunächst alle kommerziellen Dienste, die es Nutzern gestatten, Inhalte hochzuladen. Das Korrektiv besteht nun darin, dass einer der Hauptzwecke darin bestehen muss, urheberrechtlich oder anderweitig geschützte Inhalte öffentlich zugänglich zu machen. Wie weit oder einschränkend dieses Merkmal auszulegen ist, bleibt zunächst unklar.

Umfasst sind neben Plattformen wie YouTube auch soziale Medien, deren Schwerpunkt auf Bildveröffentlichungen liegen. Also Plattformen wie Instagram, Pinterest, aber auch Dating-Services wie Tinder. Denn Fotos genießen immer urheberrechtlichen Schutz. Auch alle anderen sozialen Netzwerke wie Facebook oder Twitter dürften darunter fallen. Letztlich wird man auch ernsthaft darüber diskutieren müssen, ob Meinungs- und Diskussionsforen ebenfalls erfasst sind. Denn von Usern verfasste Texte werden zumindest in nennenswertem Umfang als urheberrechtlich schutzfähig anzusehen sein.

Letztlich sollte sich keine Plattform, die den Upload von Inhalten durch ihre Nutzer ermöglicht, zu sicher sein, dass sie der Regelung nicht unterfällt.

These 5: Die Neuregelung verlagert die Haftung von den Nutzern auf die Plattformbetreiber

Nein, diese Aussage ist falsch. Im Grundsatz bleibt es dabei, dass derjenige Nutzer, der urheberrechtswidrige Inhalte auf einer Plattform einstellt, in vollem Umfang selbst haftet. Neben ihm haftet nunmehr auch der Plattformbetreiber. Wenn der Anbieter allerdings eine Lizenz erworben hat, dann soll diese Lizenz auch Uploads durch nicht kommerziell handelnde Nutzer abdecken. Das ergibt sich aus Art. 13 Nr. 2. Wobei man die Frage diskutieren muss, ob das nicht bereits nach aktueller Rechtslage so ist. Denn die Handlung, die dem Plattformbetreiber derzeit vorgeworfen wird, ist ja auch nur die des Nutzers und nicht seine eigene. Im Ergebnis ist es also so, dass neben die Haftung des Nutzers noch die des Plattformbetreibers tritt. Für die Rechteinhaber ist das günstig, weil sie künftig beide in Anspruch nehmen können.

These 6: Art. 13 Nr. 7 schließt Uploadfilter aus

Die Vorschrift des Art. 13 Nr. 7 betont, dass aus der Regelung des Art. 13 keine allgemeine Überwachungspflicht im Sinne von Art. 15 der E-Commerce-Richtline folgt. Diese Vorschrift steht allerdings in einem erkennbaren Spannungsverhältnis zu Art. 13 Nr. 4, der den Ausschluss der Haftungsprivilegierung für den Content Sharing Provider postuliert und ihm gleichzeitig die Pflicht auferlegt, hohe Anstrengungen zu unternehmen, um zu gewährleisten, dass urheberrechtswidriger Content über seine Plattform nicht verfügbar ist. Das ist widersprüchlich und klingt ein bisschen nach wasch mir den Pelz, aber mach mich nicht nass. Denn die Nichtverfügbarkeit von urheberrechtswidrigen Inhalten kann man, selbst man sich bemüht, Lizenzverträge zu schließen, nur gewährleisten, wenn man jeden Upload einer Vorprüfung unterzieht. Offenbar hat der Gesetzgeber bemerkt, dass die Schaffung einer proaktiven Überwachungspflicht bedenklich nah an die Vorzensur heranrückt, weshalb er sich beeilt hat zu betonen, dass eine solche Pflicht natürlich nicht besteht. Das ändert allerdings nichts daran, dass sich Art. 13 Nr. 4 und Nr. 7 widersprechen und nicht sinnvoll in Übereinstimmung zu bringen sind. Das wiederum führt zu erheblicher Rechtsunsicherheit und wird viele kleinere Anbieter vermutlich zur Aufgabe zwingen. Denn klar ist, dass der Anbieter erhebliche Anstrengungen unternehmen muss, um den Upload von urheberrechtswidrigen Inhalten zu verhindern. Wie hoch insoweit die Anforderungen sind, kann derzeit niemand zuverlässig sagen. Das werden am Ende die Gerichte festlegen, in einem Rechtsprechungsprozess, der Jahre dauern wird.

posted by Thomas Stadler at 22:27  

18.2.19

Uploadfilter waren gestern

Wer dachte, die faktische Verpflichtung zu Uploadfiltern sei schon der Supergau, hat sich wohl getäuscht. Denn im Streit um den geplanten Art. 13 der Richtlinie über das Urheberrecht im digitalen Binnenmarkt hat sich die Situation nochmals verschärft. Der zwischen Parlament und Rat abgestimmte endgültige Text, trägt keineswegs den vielfach geäußerten Bedenken Rechnung, sondern geht vielmehr noch einen Schritt weiter.

Art. 13 Nr. 1 lautet nunmehr wie folgt:

Member States shall provide that an online content sharing service provider performs an act of communication to the public or an act of making available to the public for the purposes of this directive when it gives the public access to copyright protected works or other protected subject matter uploaded by its users. An online content sharing service provider shall therefore obtain an authorisation from the right holders referred to in Article 3(1) and (2) of Directive 2001/29/EC, for instance by concluding a licencing agreement, in order to communicate or make available to the public works or other subject matter.

Die Anbieter sollen also jetzt nicht mehr nur eine Veröffentlichung ohne Zustimmung des Rechteinhabers verhindern. Das hätte es erforderlich gemacht, die vieldiskutierten Uploadfilter einzuführen. Nach dem aktuellen Konzept sollen die Plattformbetreiber vielmehr gleich direkt beim Rechteinhaber eine Lizenz erwerben. Selbst Uploadfilter wären dann kein zwingend geeignetes Instrument mehr, um eine eigene Haftung zu vermeiden.

Es ist zwar nach wie vor so, dass Art. 13 Nr. 4 es dem Content Sharing Service Provider immer noch ermöglicht, sich ohne eigene Lizenz darauf zu berufen, er hätte alles getan, um eine Rechtsverletzung zu vermeiden. Die Beweislast liegt dabei aber bei ihm. Welche Anforderungen insoweit zu erfüllen wären, ist auch nicht gänzlich klar. Nach der aktuellen Formulierung, scheint die Messlatte allerdings äußerst hoch zu liegen. Im Zweifel helfen also nicht einmal mehr Uploadfilter.

Anbieter von User-Generated-Content Plattformen wie YouTube, nach meiner Einschätzung aber auch soziale Netzwerke wie Facebook, Instagram oder Twitter, werden damit also so behandelt, als würden sie die urheberrechtlichen Nutzungshandlungen ihrer User selbst vornehmen, weshalb sie auch originär dafür verantwortlich wären, sich selbst beim Rechteinhaber eine urheberrechtliche Gestattung (Lizenz) zu besorgen.

Das geht deutlich über die bisher geplante Regelung hinaus. Letztlich wird damit das bisherige Geschäftsmodell sämtlicher Plattformen, die den Upload von Inhalten durch Nutzer ermöglichen, in Frage gestellt. Denn der Anbieter kann, wenn sich auf seinem Portal urheberrechtswidriger Content befindet, unmittelbar auf Unterlassung und vor allem auch auf Schadensersatz in Anspruch genommen werden. Die bisherigen Haftungsprivilegien, die eine Haftung erst dann einsetzen ließen, wenn der Anbieter Kenntnis von einem Verstoß hatte und untätig blieb, sind damit für diesen Bereich hinfällig. Die bisherige Regelungslogik, die auch im US-Recht als Notice And Take Down umgesetzt ist, wird dadurch beseitigt. Das stellt Art. 13 Nr. 3 sogar ausdrücklich klar, indem er die Haftungsprivilegierung des Art. 14 der ECRL für das Hosting explizit für unanwendbar erklärt. Die EU überholt die durchaus urheberrechtsfreundlichen USA damit mal eben locker.

Die damit zusammenhängenden Fragen sind von gesamtgesellschaftlicher Relevanz und sollten daher nicht auf Ebene einer Urheberrechtsreform entschieden werden. Letztlich geht es nämlich auch darum, welches Internet wir als Bürger haben wollen. Man hat erneut das Gefühl, dass vielen Abgeordneten des EU-Parlaments einmal mehr die Bedeutung und Tragweite ihrer Entscheidung nicht bewusst ist.

Die Anbieter von Plattformen für User-Generated-Content, werden sich künftig sehr genau überlegen, ob sie wie bislang den freien Upload und das freie Einstellen von Inhalten durch ihre Nutzer ermöglichen wollen, oder ob dies aufgrund der urheberrechtlichen Vorgaben nicht mehr mit vertretbarem wirtschaftlichem Risiko möglich ist.

Obwohl ich nicht zu Alarmismus neige, ist die Befürchtung, dass eine solche Regelung Plattformen wie YouTube, Facebook oder Instagram in Europa generell in Frage stellt, keinesfalls mehr abwegig oder übertrieben. Die Anbieter werden sich jedenfalls sehr genau überlegen, ob sie die erhöhten wirtschaftlichen Risiken in Kauf nehmen wollen.

Das Urheberrecht beachtet die Interessen der Allgemeinheit in immer geringerem Maße. Das ist für eine Informationsgesellschaft generell keine gute Nachricht. Es gelingt speziell der EU-Gesetzgebung nicht, die notwendige Balance zwischen den Gemeinwohlinteressen und den Interessen der Rechteinhaber herzustellen.

posted by Thomas Stadler at 20:03  

26.11.18

Art. 13: The End of the Web as we know it?

Der Streit um den geplanten Art. 13 der Richtlinie über das Urheberrecht im digitalen Binnenmarkt ist in aller Munde, spätestens seit YouTube Chefin Susan Wojcicki unlängst in einem offenen Brief eine Bedrohung der Kreativwirtschaft durch die sich im sog. Trilog-Verfahren befindliche Richtlinie beschwor und gar damit drohte, dass EU-Bürger künftig weitgehend von YouTube-Inhalten abgeschnitten sein könnten.

Die Richtlinie will als neue Kategorie des Diensteanbieters den „online content sharing service provider“ einführen, der in der deutschen Fassung „Online-Inhalte teilender Diensteanbieter“ (Content-Sharing-Dienst) heißt. Nach der gesetzlichen Definition sind das Diensteanbieter der Informationsgesellschaft, die hauptsächlich oder mitunter bezwecken, große Mengen von ihren Nutzern hochgeladene Inhalte in organisierter Weise und mit Gewinnerzielungsabsicht zu speichern und für die Öffentlichkeit bereitzustellen (Art. 2 Abs. 5). Ausgenommen davon werden nur nicht gewinnorientierte Online-Enzyklopädien wie Wikipedia, digitale Bildungs- und Forschungsarchive, Open-Source Entwicklungsplattformen sowie klassische Internetdiensteanbieter, Online-Marktplätze und Cloud-Anbieter. Es spricht also einiges dafür, sämtliche großen sozialen Netzwerke wie Facebook, Instagram oder Twitter unter diese Definition zu subsumieren. Die aktuelle Debatte erscheint daher zu sehr auf YouTube fokussiert zu sein.

Inahltlich spielt die Musik bei dem Vorschlag für einen Artikel 13, der die vieldiskutierten Uploadfilter etablieren soll. Wenn die Vorschrift so kommt, wie von Parlament und Rat gewünscht, sollen solche Content-Sharing-Dienste zunächst als Anbieter qualifiziert werden, die selbst Inhalte im urheberrechtlichen Sinne öffentlich wiedergeben und deshalb dazu verpflichtet werden, eine Veröffentlichung ohne Zustimmung des Rechteinhabers zu verhindern. Das bedeutet, dass im Grunde jeder Inhalt vor der Veröffentlichung auf seine Urheberrechtskonformität überprüft werden muss. Eine parallele Entwicklung zeigt sich derzeit übrigens auch schon auf Ebene der Rechtsprechung. Der BGH hat dem EuGH gerade (Beschluss vom 13.09.2018, Az.: I ZR 140/15) die Frage zur Entscheidung vorgelegt, ob YouTube eine Handlung der Wiedergabe im Sinne der Urheberrechtsrichtlinie vornimmt und falls der Gerichtshof diese Frage verneint, ob YouTube dann als haftungsprivilegierter Host-Provider im Sinne der eCommerce-Richtlinie anzusehen ist. Vor diesem Hintergrund besteht also die Möglichkeit, dass der EuGH schon auf Grundlage des geltenden Rechts das bejaht, was der europäische Gesetzgeber im Wege der geplanten Richtlinie erst regeln möchte.

Am Ende ist die Frage nicht (nur) die der Uploadfilter, sondern vor allem die, wie man Anbieter wie YouTube, aber auch Instagram und Facebook insgesamt betrachten und qualifizierern will. Die neue europäische Sichtweise läuft darauf hinaus, sie Content-Anbietern gleichzustellen und vor allem auch wie Anbieter eigener Inhalte haften zu lassen. Es mag zwar einiges dafür sprechen, dass Anbieter wie YouTube deutlich mehr machen und auch deutlich näher an den Inhalten sind, als ein klassischer Hoster. Das macht sie aber andererseits noch nicht zu einem Dienst, wie es beispielsweise Netflix ist. Es bleibt eine offene Plattform, die User-Generated-Content oder zumindest von Nutzern eingestellte Inhalte zum Abruf bereithält und auf der vor allem jeder Nutzer die Möglichkeit hat, selbst Inhalte einzustellen. Gerade darin besteht der wesentliche Unterschied zu Anbietern eigener Inhalte. Denn diese lassen keinen Upload durch Nutzer zu. Letztlich reden wir also über eine rechtspolitische Frage und darüber, ob wir Anbieter wie YouTube, Instagram oder Facebook genauso behandeln wollen wie die Anbieter von eigenen Inhalten oder ob man auch im Interesse der Internetnutzer, die Inhalte auf solchen Portalen einstellen, weiterhin einen signifikanten Unterschied anerkennen will, der in eine Haftungsprivilegierung münden muss.

Auch wenn die Warnungen von YouTube eigenen geschäftlichen Interessen dienen und eine Abschaltung von YouTube in Europa kaum zu erwarten ist, geht es letztlich nicht nur um ein Geschäftsmodell, sondern auch um eine Form von Nutzerpartizipation, die schützenswert erscheint. Ein Dienst wie YouTube mag nicht mit einem klassischen Hostprovider vergleichbar sein. Dennoch hält er fremde Inhalte zum Abruf bereit und keine eigenen.

posted by Stadler at 19:35  

24.9.18

BGH legt Frage der Haftung von Sharehostern an EuGH vor

Mit Beschluss vom 20.09.2018 (Az.: I ZR 53/17 – Uploaded) hat der BGH dem EuGH verschiedene Fragen zur Haftung eines Sharehosters auf Schadensersatz wegen des Hostings von urheberrechtsverletzenden Inhalten vorgelegt.

Der BGH möchte u.a. wissen, ob ein Sharehoster eine eigene urheberrechtliche Nutzung im Sinne einer Wiedergabe nach Art. 3 Abs. 1 der Richtlinie 2001/29/EG vornimmt, weil er das unkontrollierte Einstellen urheberrechtsverletzender Files ermöglicht und sein Geschäftsmodell solche Rechtsverletzungen auch gezielt fördert.

Außerdem fragt der BGH, ob der Sharehoster unter die Haftungsprivilegierung der E-Commerce-Richtlinie (ECRL) für Host-Provider fällt und ob sich die in Art. 14 ECRL genannte tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information und das Bewusstsein der Tatsachen oder Umstände, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, auf konkrete rechtswidrige Tätigkeiten oder Informationen beziehen muss.

posted by Stadler at 20:08  
Nächste Seite »