Internet-Law

Onlinerecht und Bürgerrechte 2.0

26.11.19

BGH: Auskunftsansprüche gegen Portalbetreiber

Der BGH bejaht in einer aktuellen Entscheidung (Beschluss vom 24.09.2019, Az.: VI ZB 39/18) Auskunftsansprüche gegen Anbieter von Telemedien nach § 14 Abs. 3 – 5 TMG wegen Verletzung absolut geschützter Rechte, insbesondere wegen Persönlichkeitsrechtsverletzungen.

Das Interessante daran ist, dass der BGH das nicht auf soziale Netze im Sinne des NetzDG beschränken will – was der Wortlaut nahe legt – sondern der Anspruch sich gegen jeden Anbieter im Sinne des TMG richten kann. Der BGH spricht die Jameda-Entscheidung aus 2014 (VI ZR 345/13) in den Gründen ausdrücklich an und erklärt sie aufgrund der neuen Gesetzeslage letztlich für hinfällig. Portal- und Forenbetreiber sowie soziale Netzwerke werden also künftig grundsätzlich damit rechnen müssen, von einem Gericht zur Erteilung von Auskunft verpflichtet zu werden, wenn Dritte persönlichkeitsrechtsverletzende Bewertungen oder Kommentare einstellen.

Die Entscheidung ist auch für Datenschützer interessant, wegen der Ausführungen des BGH zu Art. 6 Abs. 4 DSGVO. § 14 Abs. 3 – 5 TMG ist nach Ansicht des BGH eine Rechtsvorschrift im Sinne von Art. 6 Abs. 4 DSGVO. Die Vorschrift dient der Durchsetzung zivilrechtlicher Ansprüche (Art. 23 Abs. 1 Buchst j DSGVO) und verfolgt damit ein in Art. 23 Abs. 1 DSGVO genanntes Ziel. Sie ist, so der BGH, in einer demokratischen Gesellschaft eine notwendige und verhältnismäßige Maßnahme zum Schutz dieses Ziels.

posted by Thomas Stadler at 21:55  

18.6.19

BGH zur Haftung für Uploads durch Dritte

In welchem Umfang haftet ein Fernsehsender (hier der MDR), wenn ein Dritter einen persönlichkeitsrechtsverletzenden Filmbericht bei YouTube und Facebook einstellt? Mit dieser Frage hatte sich der BGH (Urteil vom 09.04.2019, Az.: VI ZR 89/18) unlängst zu beschäftigen. Anders als das Oberlandesgericht hält der BGH eine Haftung des MDR (für Abmahnkosten) für denkbar.

Der BGH geht zunächst davon aus, dass der MDR die Erstveröffentlichung durch die Ausstrahlung und das Einstellen des Films in die ARD-Mediathek verursacht hat und insoweit auf Unterlassung und Schadensersatz haftet. Für die Folgefrage der Einstellung bei YouTube geht der BGH von der tatbestandlichen Feststellung des Berufungsgerichts aus, dass der Uploader den Filmbericht aus der Mediathek hochgeladen hat. Diese tatbestandliche Feststellung ist möglicherweise falsch, aber wegen § 314 Abs. 1 ZPO für den BGH bindend.

Sodann nimmt der BGH an, dass die von den Uploadern bewirkten Rechtsverletzungen dem MDR zuzurechnen sind. Der BGH bekräftigt damit seine bisherige Rechtsprechung, nach der sich durch die Weiterverbreitung im Internet, sei es durch Verlinkung oder erneutem Upload, eine internetetypische Gefahr verwirklicht, welche gerade durch die Erstveröffentlichung geschaffen wurde. Die hiergegen in der juristischen Literatur erhobene Kritik, dass dies jedenfalls dann nicht gelten könne, wenn der Dritte einen Beitrag urheberrechtswidrig weiterverbreitet, weil dies nicht dem Willen des Erstveröffentlichenden entspreche und dieser gleichsam selbst Opfer einer Rechtsverletzung sei, überzeugt den BGH nicht. Für die Zurechnung einer Verletzung des allgemeinen Persönlichkeitsrechts, die durch die Weiterverbreitung eines Beitrags durch Dritte im Internet entstanden ist, sei vielmehr allein die Frage maßgebend, ob in ihr die vom Erstveröffentlicher geschaffene Gefahr fortwirkt.

Der BGH erkennt, dass diese recht starre Betrachtung in Konflikt mit Art. 5 GG stehen könnte, weil von ihr eine veröffentlichungshemmende Wirkung ausgeht. Hier meint der BGH aber, dass abträgliche Effekte auf den Gebrauch von Presse- und Meinungsfreiheit oder gar ein „existenzbedrohender Einschüchterungseffekt“ weder zu befürchten noch eingetreten seien. Das mag man im Fall eines öffentlich-rechtlichen Senders so bewerten. Ob das aber ausnahmslos so gesehen werden kann, darf bezweifelt werden.

Wer im Internet Texte oder Filme veröffentlicht, muss also laut BGH immer damit rechnen, dass diese (auch rechtswidrig) weiterverbreitet werden und haftet deshalb nach deliktischen Grundsätzen regelmäßig auch für solche Rechtsverletzungen, die erst durch das Handeln Dritter entstehen.

posted by Thomas Stadler at 10:43  

7.4.19

Das geplante IT-Sicherheitsgesetz 2.0

Netzpolitik.org hat vor ein paar Tagen den Referentenentwurf eines IT-Sicherheitsgesetzes 2.0 veröffentlicht.

Die geplante Neuregelung soll zunächst die Aufgaben und Befugnisse des Bundesamt für Sicherheit in der Informationstechnik durch Änderung des BSIG erweitern.

Außerdem findet sich der bereits vom Bundesrat beschlossene Vorschlag eines neuen § 126a StGB (Zugänglichmachen von Leistungen zur Begehung von Straftaten) der auch als Darknet-Paragraph öffentlich diskutiert wurde, in dem Entwurf wieder.

Auch der ebenfalls bereits häufiger diskutierte Vorschlag eines „digitalen Hausfriedensbruchs“ taucht in dem Entwurf als unbefugte Nutzung informationstechnischer Systeme erneut auf, ebenso wie ein Vorschlag eines neuen § 163g StPO, der folgenden Wortlaut haben soll:

163g

Begründen bestimmte Tatsachen den Verdacht, dass jemand Täter oder Teilnehmer einer Straftat im Sinne von § 100g Absatz 1 StPO ist, so dürfen die Staatsanwaltschaft sowie die Behörden und Beamten des Polizeidienstes auch gegen den Willen des Inhabers auf Nutzerkonten oder Funktionen, die ein Anbieter eines Telekommunikations- oder Telemediendienstes dem Verdächtigen zur Verfügung stellt und mittels derer der Verdächtige im Rahmen der Nutzung des Telekommunikations- oder Telemediendienstes eine dauerhafte virtuelle Identität unterhält, zugreifen. Sie dürfen unter dieser virtuellen Identität mit Dritten in Kontakt treten. Der Verdächtige ist verpflichtet, die zur Nutzung der virtuellen Identität erforderlichen Zugangsdaten herauszugeben. § 95 Absatz 2 gilt entsprechend mit der Maßgabe, dass die Zugangsdaten auch herauszugeben sind, wenn sie geeignet sind, eine Verfolgung wegen einer Straftat oder einer Ordnungswidrigkeit herbeizuführen. Jedoch dürfen die durch Nutzung der Zugangsdaten gewonnenen Erkenntnisse in einem Strafverfahren oder in einem Verfahren nach dem Gesetz über Ordnungswidrigkeiten gegen den Verdächtigen oder einen in § 52 Absatz 1 der Strafprozessordnung bezeichneten Angehörigen des Verdächtigen nur mit Zustimmung des Verdächtigen verwendet werden.

Diese Vorschrift soll es den Ermittlungsbehörden ermöglichen, virtuelle Identitäten zu übernehmen, um künftig verdeckt unter der Identität eines Tatbeteiligten ermitteln zu können. Erstaunlich an der Vorschrift ist u.a., dass der Verdächtigte verpflichtet sein soll, die Zugangsdaten zu seinem Account herauszugeben und die Herausgabe auch zwangsweise mittels Ordnungsgeld und Ordnungshaft durchgesetzt werden soll. Weil das gegen den vielleicht fundamentalsten rechtsstaatlichen Grundsatz des Strafverfahrens, dass niemand als Beweismittel gegen sich selbst dienen muss (nemo tenetur se ipsum accusare), verstoßen würde, beeilt sich die Vorschrift klarzustellen, dass die durch Nutzung der Zugangsdaten gewonnenen Erkenntnisse in einem Straf- und Ordnungswidrigkeitenverfahren nur mit Zustimmung des Verdächtigen verwendet werden dürfen.

Ob dieses Beweisverwertungsverbot allerdings zu demselben Schutz des Verdächtigen/Beschuldigten führt, als wie wenn er die Preisgabe seiner Zugangsdaten schlicht verweigern könnte, erscheint schon deshalb zweifelhaft, weil es in Deutschland, anders als im US-Recht, keine fruit of the poisonous tree doctrine gibt. Zufallsfunde, die auf andere Straftaten hinweisen, könnten damit verwertet werden. Unklar bleibt auch, inwieweit die Erkenntnisse genutzt werden könnten, um weitere, noch nicht bekannte Tatumstände und -hintergründe zu ermitteln und damit neue Beweismittel zu schaffen, die nicht mehr von dem Beweisverwertungsverbot umfasst wären. Ob diese mittelbare Verwendung dann ebenfalls unzulässig wäre, bleibt offen. Die Vorschrift beinhaltet damit in jedem Fall eine Beschränkung des Grundsatzes „nemo tenetur se ipsum accusare“ und ist deshalb verfassungsrechtlich höchst problematisch.

Auch von dem Vorhaben, ein „Zugänglichmachen von Leistungen zur Begehung von Straftaten“ (§ 126 a StGB) zu regeln, scheint das Innenministerium, trotz mannigfacher Kritik nicht abgerückt zu sein.

Der aktuelle Textvorschlag

(1) Wer Dritten eine internetbasierte Leistung zugänglich macht, deren Zweck oder Tätigkeit darauf ausgerichtet ist, die Begehung von rechtswidrigen Taten zu ermöglichen, zu fördern oder zu erleichtern, wird mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft, wenn die Tat nicht in anderen Vorschriften mit schwererer Strafe bedroht ist.

weist allerdings keinerlei Bezug zu Darknet-Sachverhalten mehr auf. Die Vorschrift ist so weitgehend formuliert, dass sich praktisch jede beliebige Tätigkeit eines Internet Services Anbieters darunter subsumieren lässt. Das sieht offensichtlich auch die Gesetzesbegründung so, heißt es doch dort, dass die Vorschrift hinsichtlich ihres sachlichen Anwendungsbereichs auch zur Ermöglichung der Berücksichtigung der weiteren technischen Entwicklung weit gefasst ist und jegliche internetbasierte Zugänglichmachung von Leistungen erfasst. Wie dann die gebotene Eingrenzung des objektiven Tatbestands auf strafwürdige Sachverhalte erreicht werden soll, erschließt sich mir nicht. Denn die Tathandlung ist ja allein das Zugänglichmachen einer internetbasierten Leistung, die in vielen Fällen auch nicht vom Anbieter selbst stammen wird, sondern von einem Dritten. Jeder Access-Provider, jeder Anbieter von User-Generated Content macht zugänglich. Ob Inhalte/Dienste, die aus Sicht des Anbieters häufig fremde internetbasierte Leistungen darstellen, darauf ausgerichtet sind, Straftaten zu ermöglichen, kann der technische Anbieter oder der Plattformbetreiber im Regelfall weder prüfen noch beurteilen. Es stellt sich auch die Frage, wie eine solche Regelung mit den Providerprivilegien der §§ 8 ff. TMG, die auf die E-Commerce-Richtlinie zurückgehen, in Einklang zu bringen sein soll.

Die Regelung bewirkt nichts anderes als, dass in großem Umfang erlaubte und erwünschte Tätigkeiten pauschal dem objektiven Tatbestand einer Strafnorm unterworfen werden. Die Korrektur erfolgt dann nur über den subjektiven Tatbestand oder die allerdings eng begrenzten Ausnahmen.

Die Vorschrift ist in dieser Form nicht nur rechtspolitisch vollständig verfehlt, sondern mangels Bestimmtheit auch nicht verfassungskonform. Wenn der Gesetzgeber nicht dazu in der Lage ist, strafwürdiges Verhalten im objektiven Tatbestand einer Strafnorm konkret zu umschreiben, dann sollte er auch keine Strafvorschriften erlassen. Der Ansatz, mit Blick auf die künftige Entwicklung vorsorglich einfach mal jedwede Zugänglichmachung von Onlinediensten zu pönalisieren, kann in einem Rechtsstaat kein taugliches Mittel der Gesetzgebung sein.

posted by Stadler at 17:10  

18.3.19

Neues zum Thema Access-Sperren

Die Münchener Gerichte haben im letzten Jahr, soweit ersichtlich erstmals, einen Internet Service Provider (Vodafone) im Wege der einstweiligen Verfügung zu Access-Sperren verpflichtet. Die Urteile des Landgerichts München I vom 01.02.2018 (Az.: 7 O 17752/17) und des OLG München vom 14.06.2018 (Az.:29 U 732/18) sind mittlerweile durch die Dead-Island-Entscheidung des BGH überholt (Urteil vom 26.07.2018, Az.: I ZR 64/17).

Der BGH betont, dass der Unterlassungsanspruch entfällt und an seine Stelle, der gesetzlich neu geschaffene Sperranspruch aus § 7 Abs. 4 TMG tritt. Mithin muss nunmehr im einstweiligen Rechtsschutz eine sog. Leistungsverfügung geltend gemacht werden.

Die Verpflichtung zu einer (konkreten) Sperrmaßnahme wird aber anders als der bloße Unterlassungsausspruch häufig eine unzulässige Vorwegnahme der Hauptsache darstellen.

Mit Blick auf die nur subsidiäre Haftung des Access-Providers müssen im Rahmen der Prüfung des Verfügungsgrunds außerdem die zuvor durchgeführten Ermittlungen und eingeleiteten Maßnahmen gegen die vorrangig Verantwortlichen berücksichtigt werden. Diese sind zum Zweck der Prüfung, ob mit der gebotenen Eile und Konsequenz vorgegangen wurde, vom Antragsteller inhaltlich als auch zeitlich substantiiert darzulegen. Über dieses Erfordernis setzt sich das OLG München in der oben genannten Entscheidung eher großzügig hinweg, indem es postuliert, dass das Gebot der vorrangigen Inanspruchnahme des Verletzers entfällt, wenn der Inanspruchnahme des Betreibers der Website jede Erfolgsaussicht fehlt und deshalb andernfalls eine Rechtsschutzlücke entstünde. Das Oberlandesgericht lässt den Vortrag genügen, der Betreiber der zu sperrenden Website sei unbekannt, ohne der Antragstellerin aufzugeben, konkret vorzutragen, wie und mit welchen Maßnahmen versucht worden ist, den Rechtsverletzter zu ermitteln und in Anspruch zu nehmen. Das ist weder mit der gesetzlichen Regelung noch mit den Vorgaben der Rechtsprechung des BGH und des EuGH vereinbar. Vielmehr wird man vom Rechteinhaber spürbare Anstrengungen verlangen müssen, um entweder den Rechtsverletzter oder seinen Hoster in Anspruch zu nehmen, weil der Sperranspruch gegen den Access-Provider lediglich ultima ratio sein kann.

Vermutlich haben zwischenzeitlich auch die Münchener Gerichte erkannt, dass sie es sich mit den Sperrverfügungen gegen Zugangsprovider etwas zu einfach gemacht haben. Zwei brandneue Entscheidungen des OLG München und des Landgerichts München I, mit denen Verfügungsanträge von Rechteinhabern auf Sperren gegen Access-Provider wegen fehlender Dringlichkeit abgelehnt wurden, deuten darauf hin, dass es künftig wieder schwieriger werden dürfte, solche Sperransprüche im Wege des einstweiligen Rechtsschutzes durchzusetzen.

Die Gerichte stützen sich ebenfalls auf die Entscheidung des BGH „Dead Island“, dabei allerdings spezifisch auf den Aspekt, dass der Verfügungsantrag einerseits zwar werkbezogen gestellt wurde, die beantragte Sperrmaßnahme (DNS-Sperre) andererseits allerdings plattformbezogen ist. Hierzu führt das OLG München im Urteil vom 07.02.2019 (Az.: 29 U 3889/18) aus:

Stellt man vorliegend entsprechend dem Antrag der Antragstellerinnen werksbezogen auf die über die Portale begangenen Verletzungen ab, haben sich die Antragstellerinnen nicht dringlichkeitsschädlich verhalten, weil sie binnen eines Monats ab Kenntnis der Verletzungen der Werke, die Gegenstand der Anträge sind, den Erlass der einstweiligen Verfügung beantragt haben. Die bereits seit längerem bekannten Rechtsverletzungen hinsichtlich anderer Werke stellen bei einer werksbezogenen Betrachtung auch keine kerngleichen Verletzungen dar. Eine solche werksbezogene Betrachtungsweise berücksichtigt jedoch nicht, dass das Begehren der Antragstellerinnen auf die Sperrung des Zugangs zu „L…Gen“ und „S…-Hub“ insgesamt gerichtet ist (vgl. S. 9 der Antragsschrift vom 16.08.2018) und die Anträge zwar werksbezogen formuliert sind, die konkret beantragte Maßnahme der DNS-Sperre tatsächlich aber nicht schutzrechtsbezogen wirkt. Die beantragte und zur Verfügung stehende Sperrmaßnahme ist nicht auf ein bestimmtes Schutzrecht ausgerichtet (vgl. BGH GRUR 2018, 1044 Tz. 27 und Tz. 32 – Dead Island), sondern darauf, dass den Kunden der Zugang zu den Portalen insgesamt nicht mehr vermittelt wird und sie somit auf sämtliche Inhalte der Portale nicht mehr zugreifen können. Ist aber die begehrte Sperrmaßnahme nicht schutzrechtsbezogen und ergibt sich der Anspruch auf diese auch nicht (allein) aus der Verletzung eines konkreten Schutzrechts, sondern vielmehr daraus, dass über die Portale eine Vielzahl von Schutzrechten laufend verletzt werden (Verhältnismäßigkeit, vgl. § 7 Abs. 4 Satz 2 TMG), ist auch hinsichtlich der Frage der Dringlichkeit eine auf das einzelne Schutzrecht bezogene Betrachtungsweise nicht angezeigt (vgl. BGH GRUR 2018, 1044 Tz. 27 – Dead Island zu der Frage, ob bei nicht schutzrechtsbezogenen Maßnahmen im Rahmen der Störerhaftung der vorangegangene Hinweis auf eine Rechtsverletzung auf das gleiche Werk bezogen sein muss). Nimmt ein Antragsteller einen Accessprovider auf Sperrung des Zugangs zu bestimmten Portalen in Anspruch, weil über diese laufend Urheberrechtsverletzungen begangen werden, dann stellen die Verletzungen der Rechte an den verschiedenen Werken im Hinblick auf die begehrte Maßnahme der Sperrung des Zugangs zu den Portalen kerngleiche Verletzungen dar, mit der Folge, dass, wenn der Antragsteller trotz Kenntnis der Möglichkeit, eine Sperrung zu bewirken, eine diesbezügliche einstweilige Verfügung nicht binnen eines Monats beantragt, er zeigt, dass ihm die Angelegenheit nicht dringlich ist.

Dem hat sich das LG München I mit Urteil vom 22.02.2019 (Az.: 37 O 18232/18) angeschlossen.

Das bedeutet zunächst nur, dass für bereits bekannte Portale regelmäßig keine Dringlichkeit für eine plattformbezogene Sperrung mehr besteht, sondern allenfalls noch für schutzrechtsbezogene Maßnahmen. Solche werkbezogenen Maßnahmen würden gegenüber Access-Providern allerdings wohl spezifische Filteranstrengungen auf Inhaltsebene erfordern, was nicht nur deutlich aufwendiger, sondern auch von einer ganz anderen Eingriffsintensität wäre. Außerdem müsste der Antragsteller, die Maßnahme schon in seinem Antrag ganz konkret umschreiben.

posted by Thomas Stadler at 21:12  

28.2.19

Sechs Gegenthesen zur EU-Urheberrechtsreform

Die aktuelle Debatte um die Urheberrechtsreform der EU wird von dem Versuch dominiert, die Diskurshoheit durch bestimmte Thesen und Behauptungen zu erringen. Der Beitrag unterzieht vier Grundthesen der Befürworter von Art. 13 der geplanten Richtlinie über das Urheberrecht im digitalen Binnenmarkt einer kritischen Prüfung.

These 1: Google und andere US-Anbieter versuchen, die EU-Urheberrechtsreform mit unglaublichem lobbyistischem Aufwand zu verhindern

Dass große amerikanische Anbieter insbesondere gegen Art. 11 und Art. 13 der geplanten Richtlinie über das Urheberrecht im digitalen Binnenmarkt lobbyieren, ist kaum zu bestreiten. Die Frage ist nur, in welchem Verhältnis das zum Lobbyismus deutscher und europäischer Verbände und Unternehmen steht, die die Regelungen befürworten. Vor einigen Jahren habe ich mich intensiv mit dem deutschen Leistungsschutzrecht für Presseerzeugnisse beschäftigt – das jetzt seine europäischen Fortsetzung in Art. 11 der geplanten Richtlinie findet – und bin dabei auch mit den lobbyistischen Anstrengungen der deutschen Zeitungsverleger in Berührung gekommen. Der Einfluss der Zeitungsverlage war derart groß, dass einer der Hauptlobbyisten von Springer als Sachverständiger (sic!) in die Ausschussanhörung des Bundestages geladen war, während die Vertreter von Google nur als Zaungäste anwesend waren. Es ist gerade der über Jahrzehnte hinweg gewachsene Einfluss europäischer Verbände, der Art. 11 und Art. 13 möglich gemacht hat. Google und andere US-Player verfügen, egal wieviel Geld sie in die Waagschale werfen, in Europa nicht ansatzweise über einen vergleichbaren politischen Einfluss. Wenn in diesem Gesetzgebungsverfahren der Eindruck eines übermächtigen Lobbyismus von Google & Co. erweckt wird, ist dies nichts weiter als ein Zerrbild. Richtig ist vielmehr, dass der politische Einfluss der Befürworter von Art. 11 und Art. 13 ungleich größer ist.

These 2: Die Richtlinie fordert doch gar keine Uploadfilter

Der zwischen Parlament und Rat abgestimmte endgültige Text, regelt in Art. 13 Nr. 3 zunächst, dass derjenige Anbieter, den die Richtlinie als Online Content Sharing Service Provider bezeichnet, nicht mehr in den Genuss der Haftungsprivilegierung aus Art. 14 der E-Commerce-Richtlinie für Host-Provider kommen soll. Das ist der eigentliche juristische Kern von Art. 13. Plattformen, die von Nutzern eingestellte Inhalte zum Abruf bereithalten, sollen nicht mehr als Hoster betrachtet werden. Obwohl sie natürlich zunächst auch weiterhin nichts anderes tun, als fremde, von Nutzern hochgeladene Inhalte zum Abruf bereit zu halten, werden sie nunmehr so behandelt wie die Anbieter von eigenen Inhalten. Die Veränderung des Haftungsregimes ist der eigentliche Knackpunkt der Neuregelung. Der europäische Gesetzgeber stellt damit Plattformen wie YouTube in haftungsrechtlicher Sicht gleich mit Anbietern wie Spotify oder Netflix.

Der gesamte Rest ist nur eine Folge dieser Regelungslogik. Online Content Sharing Service Provider werden angehalten, mit Rechteinhabern bzw. Verwertungsgesellschaften wie der GEMA Lizenzvereinbarungen zu schließen. Gelingt ihnen dies nicht, sind sie für die unerlaubte Veröffentlichung urheberrechtlich geschützter Werke voll verantwortlich, wie Art. 13 Nr. 4 unmissverständlich klarstellt. Der Plattformbetreiber kann sich exkulpieren, indem er darlegt, dass er hohe Industriestandards beachtet und eingesetzt hat, um die Nichtverfügbarkeit urheberrechtlich geschützter Werke zu gewährleisten. Aus dieser Vorschrift wird die Notwendigkeit des Einsatzes technischer Maßnahmen zur Verhinderung des Uploads (Uploadfilter) hergeleitet. Denn die Nichtverfügbarkeit können solche Plattformen nur durch Uploadfilter, die automatisiert den Upload solcher Inhalte verhindern, die die Software als urheberrechtlich geschützt erkennt, gewährleisten.

These 3: Das Gerede von Zensur ist Quatsch, die geplante Neuregelung stellt keine Gefahr für die Meinungs- und Informationsfreiheit dar

An dieser Stelle stellt sich zunächst die Frage, wem man mehr glauben will. Unabhängigen Experten, die erhebliche Bedenken äußern oder Verbänden die die Interessen ihrer Mitglieder vertreten. Die Gesellschaft für Informatik (GI) warnt eindringlich vor der geplanten Neuregelung. Ihr Präsident Hannes Federrath, einer der führenden Köpfe auf dem Gebiet der IT-Sicherheit in Deutschland hat es so formuliert:

Es ist richtig und wichtig, das Urheberrecht an das digitale Zeitalter anzupassen. Die hier vorgeschlagene automatisierte Prüfung auf Urheberrechtsverletzungen legt jedoch den technischen Grundstein für eine Zensur- und Kontrollinfrastruktur im Internet. Zugleich wird sie Urheberrechtsverletzungen und kriminelle Inhalte nicht wirkungsvoll verhindern können.

Der Bundesdatenschutzbeauftragte warnt ebenfalls und rückt einen anderen Aspekt in den Vordergrund:

Auch wenn Uploadfilter nicht explizit im Gesetzentwurf gefordert werden, wird es in der praktischen Anwendung auf sie hinauslaufen. Gerade kleinere Plattform- und Diensteanbieter werden nicht die Möglichkeit haben, mit allen erdenklichen Rechteinhabern Lizenzverträge zu schließen. Ebensowenig werden sie den immensen Programmieraufwand betreiben können, eigene Uploadfilter zu erstellen. Stattdessen werden sie auf Angebote großer IT-Unternehmen zurückgreifen, so wie das heute schon unter anderem bei Analysetools passiert, bei denen die entsprechenden Bausteine von Facebook, Amazon und Google von vielen Apps, Websites und Services verwendet werden.

Letztendlich entstünde so ein Oligopol weniger Anbieter von Filtertechniken, über die dann mehr oder weniger der gesamte Internetverkehr relevanter Plattformen und Dienste läuft.

Dass man die Plattformbetreiber letztlich dazu zwingt, eine Kontrollinfrastruktur zu schaffen, deren Aufbau man dann vermutlich wieder wenigen großen Anbietern überlässt, mutet nahezu grotesk an.

Aber auch die häufig anzutreffende These, die Meinungsfreiheit werde nicht beeinträchtigt, es ginge nur um eine faire Vergütung der Urheber, hält einer kritischen Prüfung nicht stand. Dieser Aussage liegt vielmehr der die nur als naiv zu bezeichnende Annahme zugrunde, Filtertechnologien könnten urheberrechtsverletzende Inhalte zuverlässig ausfiltern und würden andere, nicht zu beanstandende Inhalte passieren lassen. Jeder, der sich auch nur ein bisschen mit diesem Thema befasst hat, weiß, dass diese These eine Schimäre darstellt. Der Einsatz von Uploadfiltern wird in relevantem Ausmaß dazu führen, dass auch Inhalte ausgefiltert werden, die nicht zu beanstanden sind.

Der Journalist Peter Welchring hat anschaulich erläutert, dass die Uploadfilter, die Google derzeit ohnehin schon einsetzt, im Bereich von Musik und Film dann gut funktionieren, wenn zuvor bereits eine Prüfsumme der maßgeblichen Datei hinterlegt worden ist. Schwieriger wird es bei unbekannten Werken und erst recht bei Fotos, Bildern und Texten. Über die Neuregelung freuen werden sich sicherlich die bereits jetzt sehr abmahnfreudigen Bildagenturen, denn sie können in Zukunft unmittelbar beim Plattformbetreiber Schadensersatz geltend machen, was andererseits für viele Plattformen zu einem schwer kalkulierbaren Risiko werden dürfte.

Ob man in diesem Kontext bereits von Zensur im juristischen Sinne sprechen kann, ist zumindest diskutabel. Auch wenn hier nicht der Staat selbst Äußerungen und Geistesinhalte vor ihrer Veröffentlichung einer inhaltlichen Prüfung unterzieht, so zwingt der Gesetzgeber die Anbieter solcher Plattformen – sofern sie ihr Geschäftsmodell nicht aufgeben wollen – faktisch dennoch dazu, eine Infrastruktur für eine inhaltliche Vorkontrolle aller Inhalte zu etablieren. Damit verpflichtet der Staat den Provider zu einer zensurähnlichen Maßnahme. Es galt daher bisher als Konsens, dass Dienstanbietern keine proaktiven Prüf- und Überwachungspflichten auferlegt werden dürfen. Diesen in der fast 20 Jahre alten E-Commerce-Richtlinie normierten Konsens will die neue Richtlinie aufkündigen. Ein enormer lobbyistischer Erfolg, der unausgewogen und für die Allgemeinheit nachteilig ist.

These 4: Das betrifft doch ohnehin nur YouTube bzw. Google, die sollen ruhig mehr zahlen

Der Richtlinienentwurf hat einen neuen Providertypus erfunden, der Online Content Sharing Provider genannt wird. Der ist legaldefiniert als

provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes.

Das umfasst zunächst alle kommerziellen Dienste, die es Nutzern gestatten, Inhalte hochzuladen. Das Korrektiv besteht nun darin, dass einer der Hauptzwecke darin bestehen muss, urheberrechtlich oder anderweitig geschützte Inhalte öffentlich zugänglich zu machen. Wie weit oder einschränkend dieses Merkmal auszulegen ist, bleibt zunächst unklar.

Umfasst sind neben Plattformen wie YouTube auch soziale Medien, deren Schwerpunkt auf Bildveröffentlichungen liegen. Also Plattformen wie Instagram, Pinterest, aber auch Dating-Services wie Tinder. Denn Fotos genießen immer urheberrechtlichen Schutz. Auch alle anderen sozialen Netzwerke wie Facebook oder Twitter dürften darunter fallen. Letztlich wird man auch ernsthaft darüber diskutieren müssen, ob Meinungs- und Diskussionsforen ebenfalls erfasst sind. Denn von Usern verfasste Texte werden zumindest in nennenswertem Umfang als urheberrechtlich schutzfähig anzusehen sein.

Letztlich sollte sich keine Plattform, die den Upload von Inhalten durch ihre Nutzer ermöglicht, zu sicher sein, dass sie der Regelung nicht unterfällt.

These 5: Die Neuregelung verlagert die Haftung von den Nutzern auf die Plattformbetreiber

Nein, diese Aussage ist falsch. Im Grundsatz bleibt es dabei, dass derjenige Nutzer, der urheberrechtswidrige Inhalte auf einer Plattform einstellt, in vollem Umfang selbst haftet. Neben ihm haftet nunmehr auch der Plattformbetreiber. Wenn der Anbieter allerdings eine Lizenz erworben hat, dann soll diese Lizenz auch Uploads durch nicht kommerziell handelnde Nutzer abdecken. Das ergibt sich aus Art. 13 Nr. 2. Wobei man die Frage diskutieren muss, ob das nicht bereits nach aktueller Rechtslage so ist. Denn die Handlung, die dem Plattformbetreiber derzeit vorgeworfen wird, ist ja auch nur die des Nutzers und nicht seine eigene. Im Ergebnis ist es also so, dass neben die Haftung des Nutzers noch die des Plattformbetreibers tritt. Für die Rechteinhaber ist das günstig, weil sie künftig beide in Anspruch nehmen können.

These 6: Art. 13 Nr. 7 schließt Uploadfilter aus

Die Vorschrift des Art. 13 Nr. 7 betont, dass aus der Regelung des Art. 13 keine allgemeine Überwachungspflicht im Sinne von Art. 15 der E-Commerce-Richtline folgt. Diese Vorschrift steht allerdings in einem erkennbaren Spannungsverhältnis zu Art. 13 Nr. 4, der den Ausschluss der Haftungsprivilegierung für den Content Sharing Provider postuliert und ihm gleichzeitig die Pflicht auferlegt, hohe Anstrengungen zu unternehmen, um zu gewährleisten, dass urheberrechtswidriger Content über seine Plattform nicht verfügbar ist. Das ist widersprüchlich und klingt ein bisschen nach wasch mir den Pelz, aber mach mich nicht nass. Denn die Nichtverfügbarkeit von urheberrechtswidrigen Inhalten kann man, selbst man sich bemüht, Lizenzverträge zu schließen, nur gewährleisten, wenn man jeden Upload einer Vorprüfung unterzieht. Offenbar hat der Gesetzgeber bemerkt, dass die Schaffung einer proaktiven Überwachungspflicht bedenklich nah an die Vorzensur heranrückt, weshalb er sich beeilt hat zu betonen, dass eine solche Pflicht natürlich nicht besteht. Das ändert allerdings nichts daran, dass sich Art. 13 Nr. 4 und Nr. 7 widersprechen und nicht sinnvoll in Übereinstimmung zu bringen sind. Das wiederum führt zu erheblicher Rechtsunsicherheit und wird viele kleinere Anbieter vermutlich zur Aufgabe zwingen. Denn klar ist, dass der Anbieter erhebliche Anstrengungen unternehmen muss, um den Upload von urheberrechtswidrigen Inhalten zu verhindern. Wie hoch insoweit die Anforderungen sind, kann derzeit niemand zuverlässig sagen. Das werden am Ende die Gerichte festlegen, in einem Rechtsprechungsprozess, der Jahre dauern wird.

posted by Thomas Stadler at 22:27  

18.2.19

Uploadfilter waren gestern

Wer dachte, die faktische Verpflichtung zu Uploadfiltern sei schon der Supergau, hat sich wohl getäuscht. Denn im Streit um den geplanten Art. 13 der Richtlinie über das Urheberrecht im digitalen Binnenmarkt hat sich die Situation nochmals verschärft. Der zwischen Parlament und Rat abgestimmte endgültige Text, trägt keineswegs den vielfach geäußerten Bedenken Rechnung, sondern geht vielmehr noch einen Schritt weiter.

Art. 13 Nr. 1 lautet nunmehr wie folgt:

Member States shall provide that an online content sharing service provider performs an act of communication to the public or an act of making available to the public for the purposes of this directive when it gives the public access to copyright protected works or other protected subject matter uploaded by its users. An online content sharing service provider shall therefore obtain an authorisation from the right holders referred to in Article 3(1) and (2) of Directive 2001/29/EC, for instance by concluding a licencing agreement, in order to communicate or make available to the public works or other subject matter.

Die Anbieter sollen also jetzt nicht mehr nur eine Veröffentlichung ohne Zustimmung des Rechteinhabers verhindern. Das hätte es erforderlich gemacht, die vieldiskutierten Uploadfilter einzuführen. Nach dem aktuellen Konzept sollen die Plattformbetreiber vielmehr gleich direkt beim Rechteinhaber eine Lizenz erwerben. Selbst Uploadfilter wären dann kein zwingend geeignetes Instrument mehr, um eine eigene Haftung zu vermeiden.

Es ist zwar nach wie vor so, dass Art. 13 Nr. 4 es dem Content Sharing Service Provider immer noch ermöglicht, sich ohne eigene Lizenz darauf zu berufen, er hätte alles getan, um eine Rechtsverletzung zu vermeiden. Die Beweislast liegt dabei aber bei ihm. Welche Anforderungen insoweit zu erfüllen wären, ist auch nicht gänzlich klar. Nach der aktuellen Formulierung, scheint die Messlatte allerdings äußerst hoch zu liegen. Im Zweifel helfen also nicht einmal mehr Uploadfilter.

Anbieter von User-Generated-Content Plattformen wie YouTube, nach meiner Einschätzung aber auch soziale Netzwerke wie Facebook, Instagram oder Twitter, werden damit also so behandelt, als würden sie die urheberrechtlichen Nutzungshandlungen ihrer User selbst vornehmen, weshalb sie auch originär dafür verantwortlich wären, sich selbst beim Rechteinhaber eine urheberrechtliche Gestattung (Lizenz) zu besorgen.

Das geht deutlich über die bisher geplante Regelung hinaus. Letztlich wird damit das bisherige Geschäftsmodell sämtlicher Plattformen, die den Upload von Inhalten durch Nutzer ermöglichen, in Frage gestellt. Denn der Anbieter kann, wenn sich auf seinem Portal urheberrechtswidriger Content befindet, unmittelbar auf Unterlassung und vor allem auch auf Schadensersatz in Anspruch genommen werden. Die bisherigen Haftungsprivilegien, die eine Haftung erst dann einsetzen ließen, wenn der Anbieter Kenntnis von einem Verstoß hatte und untätig blieb, sind damit für diesen Bereich hinfällig. Die bisherige Regelungslogik, die auch im US-Recht als Notice And Take Down umgesetzt ist, wird dadurch beseitigt. Das stellt Art. 13 Nr. 3 sogar ausdrücklich klar, indem er die Haftungsprivilegierung des Art. 14 der ECRL für das Hosting explizit für unanwendbar erklärt. Die EU überholt die durchaus urheberrechtsfreundlichen USA damit mal eben locker.

Die damit zusammenhängenden Fragen sind von gesamtgesellschaftlicher Relevanz und sollten daher nicht auf Ebene einer Urheberrechtsreform entschieden werden. Letztlich geht es nämlich auch darum, welches Internet wir als Bürger haben wollen. Man hat erneut das Gefühl, dass vielen Abgeordneten des EU-Parlaments einmal mehr die Bedeutung und Tragweite ihrer Entscheidung nicht bewusst ist.

Die Anbieter von Plattformen für User-Generated-Content, werden sich künftig sehr genau überlegen, ob sie wie bislang den freien Upload und das freie Einstellen von Inhalten durch ihre Nutzer ermöglichen wollen, oder ob dies aufgrund der urheberrechtlichen Vorgaben nicht mehr mit vertretbarem wirtschaftlichem Risiko möglich ist.

Obwohl ich nicht zu Alarmismus neige, ist die Befürchtung, dass eine solche Regelung Plattformen wie YouTube, Facebook oder Instagram in Europa generell in Frage stellt, keinesfalls mehr abwegig oder übertrieben. Die Anbieter werden sich jedenfalls sehr genau überlegen, ob sie die erhöhten wirtschaftlichen Risiken in Kauf nehmen wollen.

Das Urheberrecht beachtet die Interessen der Allgemeinheit in immer geringerem Maße. Das ist für eine Informationsgesellschaft generell keine gute Nachricht. Es gelingt speziell der EU-Gesetzgebung nicht, die notwendige Balance zwischen den Gemeinwohlinteressen und den Interessen der Rechteinhaber herzustellen.

posted by Thomas Stadler at 20:03  

26.11.18

Art. 13: The End of the Web as we know it?

Der Streit um den geplanten Art. 13 der Richtlinie über das Urheberrecht im digitalen Binnenmarkt ist in aller Munde, spätestens seit YouTube Chefin Susan Wojcicki unlängst in einem offenen Brief eine Bedrohung der Kreativwirtschaft durch die sich im sog. Trilog-Verfahren befindliche Richtlinie beschwor und gar damit drohte, dass EU-Bürger künftig weitgehend von YouTube-Inhalten abgeschnitten sein könnten.

Die Richtlinie will als neue Kategorie des Diensteanbieters den „online content sharing service provider“ einführen, der in der deutschen Fassung „Online-Inhalte teilender Diensteanbieter“ (Content-Sharing-Dienst) heißt. Nach der gesetzlichen Definition sind das Diensteanbieter der Informationsgesellschaft, die hauptsächlich oder mitunter bezwecken, große Mengen von ihren Nutzern hochgeladene Inhalte in organisierter Weise und mit Gewinnerzielungsabsicht zu speichern und für die Öffentlichkeit bereitzustellen (Art. 2 Abs. 5). Ausgenommen davon werden nur nicht gewinnorientierte Online-Enzyklopädien wie Wikipedia, digitale Bildungs- und Forschungsarchive, Open-Source Entwicklungsplattformen sowie klassische Internetdiensteanbieter, Online-Marktplätze und Cloud-Anbieter. Es spricht also einiges dafür, sämtliche großen sozialen Netzwerke wie Facebook, Instagram oder Twitter unter diese Definition zu subsumieren. Die aktuelle Debatte erscheint daher zu sehr auf YouTube fokussiert zu sein.

Inahltlich spielt die Musik bei dem Vorschlag für einen Artikel 13, der die vieldiskutierten Uploadfilter etablieren soll. Wenn die Vorschrift so kommt, wie von Parlament und Rat gewünscht, sollen solche Content-Sharing-Dienste zunächst als Anbieter qualifiziert werden, die selbst Inhalte im urheberrechtlichen Sinne öffentlich wiedergeben und deshalb dazu verpflichtet werden, eine Veröffentlichung ohne Zustimmung des Rechteinhabers zu verhindern. Das bedeutet, dass im Grunde jeder Inhalt vor der Veröffentlichung auf seine Urheberrechtskonformität überprüft werden muss. Eine parallele Entwicklung zeigt sich derzeit übrigens auch schon auf Ebene der Rechtsprechung. Der BGH hat dem EuGH gerade (Beschluss vom 13.09.2018, Az.: I ZR 140/15) die Frage zur Entscheidung vorgelegt, ob YouTube eine Handlung der Wiedergabe im Sinne der Urheberrechtsrichtlinie vornimmt und falls der Gerichtshof diese Frage verneint, ob YouTube dann als haftungsprivilegierter Host-Provider im Sinne der eCommerce-Richtlinie anzusehen ist. Vor diesem Hintergrund besteht also die Möglichkeit, dass der EuGH schon auf Grundlage des geltenden Rechts das bejaht, was der europäische Gesetzgeber im Wege der geplanten Richtlinie erst regeln möchte.

Am Ende ist die Frage nicht (nur) die der Uploadfilter, sondern vor allem die, wie man Anbieter wie YouTube, aber auch Instagram und Facebook insgesamt betrachten und qualifizierern will. Die neue europäische Sichtweise läuft darauf hinaus, sie Content-Anbietern gleichzustellen und vor allem auch wie Anbieter eigener Inhalte haften zu lassen. Es mag zwar einiges dafür sprechen, dass Anbieter wie YouTube deutlich mehr machen und auch deutlich näher an den Inhalten sind, als ein klassischer Hoster. Das macht sie aber andererseits noch nicht zu einem Dienst, wie es beispielsweise Netflix ist. Es bleibt eine offene Plattform, die User-Generated-Content oder zumindest von Nutzern eingestellte Inhalte zum Abruf bereithält und auf der vor allem jeder Nutzer die Möglichkeit hat, selbst Inhalte einzustellen. Gerade darin besteht der wesentliche Unterschied zu Anbietern eigener Inhalte. Denn diese lassen keinen Upload durch Nutzer zu. Letztlich reden wir also über eine rechtspolitische Frage und darüber, ob wir Anbieter wie YouTube, Instagram oder Facebook genauso behandeln wollen wie die Anbieter von eigenen Inhalten oder ob man auch im Interesse der Internetnutzer, die Inhalte auf solchen Portalen einstellen, weiterhin einen signifikanten Unterschied anerkennen will, der in eine Haftungsprivilegierung münden muss.

Auch wenn die Warnungen von YouTube eigenen geschäftlichen Interessen dienen und eine Abschaltung von YouTube in Europa kaum zu erwarten ist, geht es letztlich nicht nur um ein Geschäftsmodell, sondern auch um eine Form von Nutzerpartizipation, die schützenswert erscheint. Ein Dienst wie YouTube mag nicht mit einem klassischen Hostprovider vergleichbar sein. Dennoch hält er fremde Inhalte zum Abruf bereit und keine eigenen.

posted by Stadler at 19:35  

24.9.18

BGH legt Frage der Haftung von Sharehostern an EuGH vor

Mit Beschluss vom 20.09.2018 (Az.: I ZR 53/17 – Uploaded) hat der BGH dem EuGH verschiedene Fragen zur Haftung eines Sharehosters auf Schadensersatz wegen des Hostings von urheberrechtsverletzenden Inhalten vorgelegt.

Der BGH möchte u.a. wissen, ob ein Sharehoster eine eigene urheberrechtliche Nutzung im Sinne einer Wiedergabe nach Art. 3 Abs. 1 der Richtlinie 2001/29/EG vornimmt, weil er das unkontrollierte Einstellen urheberrechtsverletzender Files ermöglicht und sein Geschäftsmodell solche Rechtsverletzungen auch gezielt fördert.

Außerdem fragt der BGH, ob der Sharehoster unter die Haftungsprivilegierung der E-Commerce-Richtlinie (ECRL) für Host-Provider fällt und ob sich die in Art. 14 ECRL genannte tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information und das Bewusstsein der Tatsachen oder Umstände, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, auf konkrete rechtswidrige Tätigkeiten oder Informationen beziehen muss.

posted by Stadler at 20:08  

10.1.18

Die Debatte um das NetzDG ist unsachlich

Die aktuelle Debatte um das Für und Wider des Netzwerkdurchsetzungsgesetzes (NetzDG) ist hysterisch, eine ruhige und sachliche Auseinandersetzung ist selten erkennbar, auch nicht bei den zahlreich diskutierenden Juristen. Dies passt zum Zeitgeist und ist Ausdruck einer Debattenkultur, die nahezu zwanghaft auf Polarisierung setzt, nur noch schwarz und weiß kennt und in der die differenzierte Betrachtung nicht mehr viel gilt.

Das Gesetz geht zunächst ein tatsächlich vorhandenes Problem an. Soziale Netzwerke wie Facebook oder Twitter löschen nur einen Bruchteil derjenigen Inhalte, die strafbar oder rechtswidrig sind. Gleichzeitig, und das geht in der aktuellen Debatte stark unter, entfernen soziale Netzwerke häufiger Postings und Inhalte, die erkennbar rechtmäßig sind. Die Kriterien, nach denen Facebook & Co. ihre Löschentscheidungen treffen, waren bislang weder transparent noch nachvollziehbar. Zum Teil sind falsche Löschentscheidungen einfach auch dem Umstand geschuldet, dass die Anbieter nicht genügend und vor allem kein ausreichend geschultes Personal vorhalten. Wenn wir also wollen, dass rechtswidrige Inhalte in größerem Umfang als bislang gelöscht werden, dann ist es unumgänglich den Betreibern sozialer Netze entsprechende Pflichten aufzuerlegen und Verstöße auch zu sanktionieren.

Man kann das NetzDG mit guten Gründen wegen Verstoß gegen das Herkunftslandprinzip und die Haftungsprivilegierungstatbestände der E-Commerce-Richtlinie für europarechtswidrig halten. Wer die Rechtsprechung des EuGH zur Provider- und Linkhaftung verfolgt, weiß aber auch, dass wir es allzu oft mit einer Wundertüte zu tun haben. Man sollte also nicht darauf wetten, dass der EuGH das deutsche Gesetz tatsächlich am Ende auch für europarechtswidrig halten wird, sollte es ihm vorgelegt werden. In diesem Zusammenhang muss man auch berücksichtigen, dass die Kommission bereits Überlegungen anstellt, die in eine ganz ähnliche Richtung gehen und eher noch weiter reichen werden. Es spricht also einiges dafür, dass die künftige europäische Marschroute ähnlich verlaufen wird.

Ein ebenfalls oft gehörtes Argument ist das von der Privatisierung der Rechtsdurchsetzung, das mir allerdings wenig stichhaltig erscheint. Facebook und Twitter werden ja nicht dazu angehalten, Aufgaben der Strafverfolgung zu übernehmen, sondern nur dazu, strafbare Inhalte zu löschen. Wer sich das Gesetz genau ansieht, wird außerdem erkennen, dass das NetzDG gar keine neuen Löschpflichten begründet, sondern wie schon bisher das TMG von bereits bestehenden Löschpflichten ausgeht. Was manche offenbar zu irritieren scheint, ist der Umstand, dass Facebook & Co. in zunehmendem Maße wie Medienanbieter betrachtet werden und nicht mehr so sehr wie Provider. Würde man einem Fernsehsender oder einer Zeitung gestatten, rechtswidrige Inhalte zu verbreiten? Und wer anders als der Plattformbetreiber sollte rechtswidrige/strafbare Inhalte denn löschen? Der Vorwurf der Privatisierung der Rechtsdurchsetzung greift letztlich nicht. Die Strafjustiz wird außerdem niemals in der Lage sein, Millionen strafbarer Einzelinhalte zu verfolgen und schon gar nicht zeitnah. Wer also rechtswidrige Inhalte aus dem Netz bekommen will, muss den Plattformbetreibern entsprechende Pflichten auferlegen. Hierzu gibt es keine praktikable Alternative.

Auch der immer wieder erhobene Zensurvorwurf ist nicht durchgreifend. Abgesehen davon, dass die Zensur im Sinne des Grundgesetzes jedenfalls nach überwiegender Ansicht nur die Vorzensur meint, ist nicht wirklich erkennbar, warum die Ausgestaltung eines Verfahrens zur Löschung strafbarer Inhalte in sozialen Netzen als Zensur zu betrachten sein sollte. Dieser Logik folgend wäre der Straftatbestand, der die Verbreitung bestimmter Inhalte untersagt oder eine richterliche Unterlassungsentscheidung ebenfalls Zensur.

In sachlicher Hinsicht macht das NetzDG nichts anderes, als den Betreibern sozialer Netzwerke Verfahrensregeln aufzuerlegen, die sicherstellen sollen, dass bestimmte strafbare Inhalte kurzfristig entfernt werden. Zumindest die gesetzgeberische Intention kann man m.E. im Grundsatz nicht ernsthaft kritisieren.

Das bedeutet freilich noch nicht, dass dem Gesetzgeber eine sinnvolle Umsetzung gelungen ist. Denn das Gesetz schafft einen einseitigen Löschanreiz. Vor diesem Hintergrund hätte das NetzDG von vornherein Maßnahmen gegen die Gefahr des Overblockings ergreifen müssen. Denn der Gesetzgeber darf nicht allzu leichtfertig die fälschliche Löschung von rechtmäßigen Inhalten in Kauf nehmen, weil dies in der Tat sowohl die Meinungs- als auch die Informationsfreiheit beeinträchtigt. Vor diesem Hintergrund wäre zumindest eine Art Rechtsbehelf des von der Löschung Betroffenen in das Verfahren zu implementieren gewesen. Möglicherweise müsste man an dieser Stelle sogar noch einen Schritt weiter gehen und hätte dem Betroffenen unmittelbar ein effektives behördliches oder gerichtliches Verfahren an die Hand geben müssen, das es ihm gestattet, vor einem inländischen Gericht oder einer Behörde gegen die Löschentscheidung des Netzwerkbetreibers vorzugehen, wenn der Betreiber auf die Beschwerde des Nutzers hin nicht abhilft.

Um die Gefahr des Verstoßes gegen europarechtliche Vorgaben zu reduzieren, wäre es zudem sinnvoll, den Wortlaut von § 3 Abs. 2 an den von § 10 TMG bzw. Art. 14 ECRL anzupassen. Zumal die jetzige Differenzierung zwischen rechtswidrigen und offensichtlich rechtswidrigen Inhalten wenig sinnvoll erscheint und den Betreiber nur vor ein zusätzliches Abgrenzungsproblem stellt.

posted by Stadler at 21:35  

9.10.17

Anmerkungen zum „Facebook-Gesetz“

Am 01.10.2017 ist das Gesetz mit dem sperrigen Titel „Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken“ (Netzwerkdurchsetzungsgesetz – NetzDG) in Kraft getreten, das in den Medien zuweilen nur als „Facebook-Gesetz“ bezeichnet wird. Das Gesetz verpflichtet soziale Netze wie Facebook und Twitter dazu, bestimmte rechtswidrige Inhalte kurzfristig zu löschen. Das Gesetzesvorhaben wurde im Netz und auch in der juristischen Fachwelt überwiegend kritisiert und dies häufig sogar in äußerst alarmistischer Art und Weise. Als jemand, der die Kritik jedenfalls nicht durchgehend zu teilen vermag, möchte ich eine differenzierte Betrachtung anstellen.

Gegen das Gesetz bestehen erhebliche juristische Bedenken, von denen die europarechtlichen sicherlich am stichhaltigsten sind. Die zeitlich starren Sperrvorgaben des § 3 Abs. 2 NetzDG, die die Anbieter dazu verpflichten, offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden zu löschen und sonstige rechtswidrige Inhalte unverzüglich, worunter der deutsche Gesetzgeber in der Regel einen Zeitraum von sieben Tagen versteht, stehen in Konflikt mit der E-Commerce-Richtlinie. Die Vorschriften dieser Richtlinie zur Haftungsprivilegierung verlangen von Anbietern, die Informationen für einen Nutzer speichern, ein unverzügliches Tätigwerden, sobald sie Kenntnis von einer rechtswidrigen Information erlangt haben. Die Richtlinie gibt also keine festen Sperrfristen vor, sondern orientiert sich an den Umständen des Einzelfalls. Das heißt, gemessen an der Richtlinie können 24 Stunden zu kurz oder sieben Tage zu lang sein. Das deutsche Gesetz entspricht also nicht den Vorgaben der Richtlinie und diese Abweichung kann durchaus als europarechtswidrig betrachtet werden. Kontrovers diskutiert wird in europarechtlicher Hinsicht auch die Frage, ob das NetzDG gegen das sog. Herkunftslandprinzip verstößt, das besagt, dass ausländische Dienstanbieter keinen strengeren Anforderungen unterworfen werden dürfen, als in ihrem Sitzmitgliedsstaat. Der wissenschaftliche Dienst des Bundestages betrachtet das Gesetz als mit dem Herkunftslandprinzip unvereinbar. Auch die sachlich höchst sinnvolle Verpflichtung der sozialen Medien, einen inländischen Zustellungsbevollmächtigten zu benennen, könnte gegen das Herkunftslandprinzip der E-Commerce-Richtlinie verstoßen.

Allerdings sollte man in der europarechtlichen Diskussion auch deren Dynamik nicht verkennen. So gibt es bei der Kommission bereits aktuell Überlegungen, die nicht nur in eine ganz ähnliche Richtung weisen wie das NetzDG, sondern deutlich und in teilweise bedenklicher Form darüber hinausgehen. Es steht also nicht unbedingt zu erwarten, dass die Kommission das deutsche Gesetz beanstanden wird, nachdem man dort noch viel weiterreichende Regulierungsmaßnahmen im Auge hat. In einem aktuellen Papier „Tackling Illegal Content Online – Towards an enhanced responsibility of online platform„, denkt die Kommission darüber nach, Portalbetreibern wesentlich konkretere Handlungspflichten aufzuerlegen als bisher, einschließlich einer engeren Zusammenarbeit mit staatlichen Stellen, dezidierten Berichtspflichten, proaktiven Filterpflichten, sowie kurzen und konkreten Löschfristen.

Als weit weniger griffig erachte ich die geäußerte Kritik dann allerdings, soweit von einer Gefahr für die Meinungs- und Informationsfreiheit die Rede ist.

Diese Kritik verkennt den momentanen status quo und unterstellt eine Verschlechterung im Vergleich zur aktuell bestehenden Situation, die kaum zu erwarten ist.

Dazu muss man sich allerdings vergegenwärtigen, wo wir eigentlich herkommen. Derzeit löscht Facebook nach gänzlich intransparenten Kriterien Inhalte, die teilweise erkennbar nicht rechtswidrig sind, während bei ersichtlich rechtswidrigen Inhalten häufiger die textbausteinartige Antwort erfolgt, dass ein Verstoß gegen die Community-Regeln nicht gegeben ist. Der Ausgangszustand auf den das Gesetz reagiert, ist also im Lichte der Meinung- und Informationsfreiheit alles andere als optimal. Es besteht mithin durchaus der Bedarf, Facebook & Co. rechtsstaatlicher Kuratel zu unterstellen, weil eine gesetzeskonforme und rechtsstaatlich akzeptable Löschpraxis dort schlicht nicht existiert. Vor diesem Hintergrund verwundert es auch etwas, dass das NetzDG gerade wegen seiner grundrechtlichen Auswirkungen abgelehnt wird.

Allein den Umstand, dass große Anbieter wie Facebook gezwungen werden, Geld in die Hand zu nehmen, um ein transparenteres und professionelleres System der Überprüfung und Löschung von rechtswidrigen Inhalten zu etablieren, muss man als Fortschritt gegenüber dem status quo betrachten. Auch die im Gesetz normierten Berichtspflichten sind zu begrüßen, denn sie zwingen die sozialen Netzwerke dazu, mit Blick auf ihre Löschpraxis öffentlich Farbe zu bekennen und Rechenschaft abzulegen. Es ist daher kaum naheliegend anzunehmen, dass sich die Zahl falscher Löschentscheidungen erhöhen wird. Vielmehr darf man, wenn man die Thematik primär aus dem Blickwinkel der Meinungs- und Informationsfreiheit betrachtet, berechtigterweise sogar auf eine Verbesserung im Vergleich zur aktuellen Situation hoffen. Gerade in grundrechtlicher Hinsicht teile ich die vielerorts artikulierten Bedenken deshalb nicht.

Man sollte gleichwohl nicht verschweigen, dass das Gesetz den falschen Grundansatz wählt, indem es allein auf ein öffentlich-rechtliches Ordnungswidrigkeitensystem setzt, ohne gleichzeitig die Rechtsdurchsetzung für die Betroffenen zu erleichtern.

Es ist zudem nicht von der Hand zu weisen, dass das Gesetz einseitige Löschanreize schafft. Denn das Gesetz sanktioniert nur die Nichtlöschung rechtswidriger Inhalte, während die Löschung rechtmäßiger Inhalte keinerlei Konsequenzen hat.

Das Gesetz kann insgesamt nicht als der große Wurf betrachtet werden, der es eventuell bei anderer Ausgestaltung hätte sein können. Die oft beschworene Gefahr für die Meinungs- und Informationsfreiheit besteht, jedenfalls gemessen am status quo, aber auch nicht.

posted by Stadler at 17:30  
Nächste Seite »