Internet-Law

Onlinerecht und Bürgerrechte 2.0

16.2.24

Müssen Bewertungsportale jetzt Nutzerdaten preisgeben?

Juristische Fachmedien wie Beck-Online oder LTO warten aktuell mit der Meldung auf, der Portalbetreiber kununu müsse laut OLG Hamburg die Klarnahmen von Nutzern herausgeben.

Wenn man sich die Entscheidung des OLG Hamburg (Beschluss vom 08.02.2024 – 7 W 11/24) anschaut, trifft man auf eine Unterlassungsverfügung, die dem Bewertungsportal eine bestimmte Bewertung verbietet. Eine rechtliche Pflicht des Portalbetreibers zur Herausgabe von Nutzerdaten begründet die Entscheidung aber nicht. Das wäre wegen § 21 Abs. 2 – 4 TTDSG auch gar nicht möglich.

Allerdings geht das OLG Hamburg davon aus, dass sich der Bewertete darauf berufen kann, dass zwischen ihm und dem Bewertenden kein geschäftlicher Kontakt bestanden hat. Dadurch werden Prüfplichten des Portalbetreibers ausgelöst, die nach Ansicht des OLG so weit gehen, den Bewerter so zu individualisieren dass der Bewertete das Vorliegen eines geschäftlichen Kontaktes überprüfen kann. Gelingt dem Portalbetreiber das nicht, muss er die Bewertung löschen.

Das OLG Hamburg stützt sich hierbei auf eine neuere Entscheidung des Bundesgerichtshofs (Urteil vom 09.08.2022 – VI ZR 1244/20). Der Entscheidung des BGH lag allerdings ein Sachverhalt zugrunde, in dem der Portalbetreiber keinerlei Prüfmaßnahmen ergriffen hatte, nachdem der Bewertete sich darauf berufen hatte, es würde gar kein geschäftlicher Kontakt bestehen. Die Schlussfolgerung des OLG Hamburg, der Portalbetreiber müsse den Bewertenden in einer Art und Weise individualisieren, die bis hin zu einer Preisgabe des Klarnamens gehen kann, lässt sich aus der Rechtsprechung des BGH nicht ableiten.

Ganz im Gegenteil. Der BGH hatte bislang betont, dass dem Portalbetreiber keine Pflicht zur Identifizierung trifft, weil dies zu einem Verstoß gegen § 12 Abs. 1 TMG (a.F.) führen könnte.

Das Argument, der Portalbetreiber würde durch eine Übermittlung personenbezogener Daten gegen die neuen Vorschriften der §§ 21 Abs. 2 – 4 TTDSG verstoßen, wischt das OLG Hamburg vom Tisch. Selbst wenn die Preisgabe des Klarnamens eine Datenschutzverletzung zur Folge haben sollte, so das OLG, dürfe dies nicht dazu führen, dass eine Bewertung öffentlich zugänglich gehalten wird, solange dem Bewerteten die Möglichkeit genommen ist, zu klären, ob überhaupt ein geschäftlicher Kontakt mit dem Bewerten bestanden hat.

Diese Schlussfolgerung des OLG Hamburg lässt sich jedenfalls nicht auf die bisherige Rechtsprechung des BGH stützen. Der BGH ist bislang davon ausgegangen, dass gerade eine Identifizierung des Nutzers nicht verlangt werden kann. (Urteil vom 01.03.2016, Az.: VI ZR 34/15, Rn. 61).

Sie überspannt zudem die Anforderungen an die Prüf- und Verhaltenspflichten eines Störers, die ihm immer nur mögliche, rechtmäßige und zumutbare Verhaltenspflichten abverlangen. Da der Portalbetreiber die Nutzerdaten wegen § 21 Abs. 2 – 4 TTDSG im Regelfall gar nicht herausgaben darf, läuft die Rechtsprechung des OLG Hamburg darauf hinaus, dass der Portalbetreiber immer löschen muss. Damit wird er aber nicht mehr wie ein mittelbarer Störer behandelt, sondern wie ein unmittelbarer Störer bzw. Verletzter. Dadurch sprengt das OLG Hamburg allerdings die Grundsätze der Störerhaftung .

Der BGH hatte, die Anforderungen an die Prüfpflichten des Portalbetreibers gerade mit dem Argument nach oben geschraubt, dass hierdurch ein Gegengewicht zur Gefahr der anonymen Bewertung geschaffen werden müsse. Nach der Logik des OLG Hamburg besteht diese Gefahr aber nicht mehr, wenn entweder der Klarname preisgegeben oder gelöscht werden muss. Die Begründung des OLG Hamburg deckt sich also nicht mit der Argumentationslinie des BGH.

Da der Beschluss im Verfahren der einstweiligen Verfügung ergangen ist, kann eine Revision zum BGH nicht eingelegt werden. Es bleibt abzuwarten, ob der Portalbetreiber den Weg des Hauptsacheverfahren beschreiten will.

posted by Thomas Stadler at 19:15  

14.10.22

BGH entscheidet erneut zu Access-Sperren

Die Frage, ob und unter welchen Voraussetzungen ein reiner Zugangsprovider verpflichtet werden kann, seine Kunden von bestimmten Internetangeboten auszusperren, ist Gegenstand einer schon jahrzehntelangen Diskussion.

Mittlerweile hat sich die Auffassung durchgesetzt, dass zumindest vorrangig der Inhaltsanbieter oder der Hoster in Anspruch zu nehmen sind. Wann allerdings ein Vorgehen gegen die vorrangig Haftenden nicht mehr möglich ist oder als aussichtslos zu gelten hat, ist vielfach unklar.

Der BGH hat jetzt mit Urteil vom 13.10.2022 (Az.: I ZR 111/21 – DNS-Sperre) entschieden, dass gegen innerhalb der Europäischen Union ansässige Inhaltsanbieter oder Host-Provider zumindest ein Verfahren des einstweiligen Rechtsschutzes grundsätzlich anzustrengen ist.

Das schafft ein Stück Rechtsklarheit.

Zur Pressemitteilung des BGH

posted by Thomas Stadler at 18:45  

16.12.21

Telegram: Welche Maßnahmen kann der Staat ergreifen?

Die Forderung nach einer Regulierung des Messengerdienstes Telegram ist derzeit in aller Munde. Der neue Justizminister Buschmann hält ein staatliches Vorgehen gegen Telegram auf Grundlage des Netzwerkdurchsetzungsgesetzes (NetzDG) für möglich. Adressat des NetzDG sind nach der Regelung in § 1 Abs. 1 S. 1 aber nur sog. soziale Netzwerke. Das Gesetz definiert sie als

Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen (soziale Netzwerke).

Demgegenüber nimmt das NetzDG in § 1 Abs. 1 S. 3

 Plattformen, die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind

ausdrücklich vom Anwendungsbereich des Gesetzes aus.

Hier zeigt sich schon der erste Schwachpunkt der gesetzlichen Regelung, denn wie multifunktionale Dienste einzuordnen sind, bleibt unklar. Wenn man Telegram im Sinne einer Entweder-Oder-Logik nur als soziales Netzwerk oder als einen zur Individualkommunikation bestimmten Dienst betrachten kann, ist die Zuordnung eindeutig. Messengerdienste dienen vorrangig der Individualkommunikation und sind keine sozialen Netze.

In der Diskussion wird nun aber häufiger die Ansicht vertreten, man müsse Teildienste wie Gruppen oder Channels als (eigene) soziale Netzwerke qualifizieren. An dieser Stelle erscheint zunächst aber etwas mehr Differenzierung nötig. Channels, die keine Interaktion der Nutzer ermöglichen, sondern nur wie ein Nachrichtenkanal (Des-) Informationen lediglich ausspielen, sind keine sozialen Netze. Bei Gruppen kommt es darauf an, ob die Gruppe für jedermann offen ist und jeder Nutzer nach einem Betritt zur Gruppe auch sämtliche Inhalte aufrufen und mit anderen Nutzern interagieren kann. Geschlossene Nutzergruppen wird man demgegenüber kaum als soziale Netze einstufen können.

Wenn man also offene und für jedermann zugängliche Telegramgruppen als soziale Netzwerke betrachten möchte, ist die nächste Frage, wer der Anbieter solcher sozialer Medien ist. Denn die Entscheidung darüber, überhaupt eine Gruppe zu eröffnen und diese Gruppe für jeden beliebigen Nutzer zugänglich zu machen, trifft nicht Telegram, sondern der Admin/Owner der Gruppe. Deshalb wird man auch nur den Owner der Gruppe als Anbieter des sozialen Netzwerks Gruppe sehen können, während Telegram lediglich die technische Plattform bietet.

An diese Erkenntnis schließt sich dann allerdings ein weiterer Problempunkt an. Denn das NetzDG gilt nur für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben. Und das wird auf den Owner einer Gruppe zumeist nicht zutreffen. Darüber hinaus, sind soziale Netzwerke mit weniger als zwei Millionen Nutzern im Inland nach § 1 Abs. 2 NetzDG von den wesentlichen gesetzlichen Pflichten befreit. Die Nutzeranzahl der Telegramgruppen ist aber auf 200.000 begrenzt, so dass die gesetzliche Grenze nicht überschritten wird.

Es zeigt sich also, dass das NetzDG aus verschiedenen Gründen keine geeignete Grundlage für ein Vorgehen gegen Telegram bietet. Die Aussage von Justizminister Marco Buschmann, wonach das NetzDG keine pauschalen Ausnahmen für Messenger-Dienste wie Telegram kennen würde, erweist sich also als unzutreffend.

Erfolgsversprechender erscheint ein Rückgriff auf die gute alte Störerhaftung. Es entspricht gefestigter höchstrichterlicher Rechtsprechung, dass Intermediäre wie Hoster, die fremde Inhalte zum Abruf bereithalten einer eingeschränkten Haftung unterliegen, sofern sie zumutbare Prüfpflichten verletzt haben. Das setzt insbesondere voraus, dass ein solcher Anbieter über einen konkreten rechtswidrigen Inhalt in Kenntnis gesetzt wird und anschließend untätig bleibt. In solchen Fällen hat die Rechtsprechung des BGH, beginnend mit der Entscheidung Blogpost, einen Prüfprozess entwickelt, den der BGH in weiteren Entscheidungen zu Bewertungsportalen wie Jameda immer weiter ausdifferenziert hat.

Danach könnte Telegram also, auf konkreten Hinweis hin verpflichtet sein, rechtswidrige Inhalte zu entfernen.

Ob der Ansatz, auf Apple und Google einzuwirken, um Telegram aus den Appstores zu nehmen, einen rechtlich gangbaren Weg darstellt, erscheint zumindest auf den ersten Blick fraglich. Denn bei Telegram handelt es es sich in jedem Fall um einen legalen und legitimen Messengerdienst, dessen komplette Verbannung wegen einzelner rechtswidriger Inhalte in Gruppen nicht gerechtfertigt erscheint. Dies kann allenfalls ultima ratio sein, wenn alle anderen denkbaren Mittel und Wege auf Telegram mit Blick auf die Löschung rechtswidriger Inhalte, erfolglos geblieben sind.

posted by Thomas Stadler at 18:25  

15.11.19

OLG Köln: Löschanspruch gegen Jameda

Das Oberlandesgericht Köln hat gerade das Ärztebewertungsportal Jameda u.a. dazu verurteilt, sämtliche zu einem bewerteten Arzt gespeicherten Informationen zu löschen (Urteile vom 14.11.2019, Az.: 15 U 89/19 und Az.: 15 U 126/19).

Nach Auffassung des OLG Köln habe Jameda ihre grundsätzlich geschützte Position als „neutrale Informationsmittlerin“ dadurch verlassen, dass sie den zahlenden Kunden „verdeckte Vorteile“ zukommen lasse. Das sei der Fall, wenn die ohne ihre Einwilligung aufgenommenen Basiskunden auf dem Portal als „Werbeplattform“ für Premiumkunden benutzt würden und letzteren durch die Darstellung ein Vorteil gewährt werde, der für die Nutzer nicht erkennbar sei. Dann diene das Portal nicht mehr allein dem Informationsaustausch zwischen (potentiellen) Patienten. In diesem Fall müssten Ärzte nicht hinnehmen, ohne ihre Einwilligung als Basiskunden aufgeführt zu werden.

Zusätzlich vertritt das OLG Köln – in Einklang mit der Rechtsprechung des BGH – die Auffassung, dass sich Jameda nicht auf das Medienprivileg berufen könne, weil das Geschäftsmodell der Plattform nicht als eigene meinungsbildende Tätigkeit aufgefasst werden könne, sondern allenfalls als ein Hilfsdienst zur besseren Verbreitung von (Dritt-)Informationen. Das OLG meint, dass sich nur derjenige auf das Medienprivileg berufen könne, der einer eigenen journalistischen Tätigkeit nachgeht.

Damit beachtet das OLG, ebenso wie schon zuvor der BGH, die meinungseinschränkende Wirkung der von ihm postulierten Löschungsverpflichtung zu wenig und löst das erhebliche Spannungsverhältnis zwischen Datenschutz und Meinungsfreiheit nicht korrekt auf.

Art. 85 DSGVO verpflichtet die Mitgliedsstaaten dazu, das Recht auf den Schutz personenbezogener Daten gemäß der DSGVO mit dem Recht auf freie Meinungsäußerung und Informationsfreiheit in Einklang zu bringen. Die Verarbeitung zu journalistischen Zwecken wird im Anschluss nur exemplarisch erwähnt. Am Ende ist eine Abwägung unterschiedlicher grundrechtlich geschützter Rechtspositionen vorzunehmen. Vor diesem Hintergrund ist bereits das Postulat, nur die journalistische Tätigkeit könne in den Genuss eines Medienprivilegs kommen, ersichtlich verfehlt und wird der zentralen Bedeutung der Meinungs- und Informationsfreiheit nicht gerecht. Dafür spricht auch Erwägungsgrund 153 der DSGVO, der verlangt, dass Begriffe wie Journalismus weit ausgelegt werden müssen, um der Bedeutung des Rechts auf freie Meinungsäußerung in einer demokratischen Gesellschaft Rechnung zu tragen.

Man wird auch nicht per se davon ausgehen können, dass die klassische journalistische Tätigkeit für die Meinungs- und gerade auch die Informationsfreiheit von größerer Bedeutung ist, als die bloße Informationsvermittlung über Bewertungsportale. Darüber hinaus stellt sich auch die Frage, weshalb die klassisch journalistisch-redaktionelle Tätigkeit äußerungsrechtlich einen weiterreichenden Schutz genießen sollte, als sonstige Meinungsäußerungen. Man darf im konkreten Fall auch nicht übersehen, dass das Oberlandesgericht Köln mit einer Löschung sämtlicher Daten eines Arztes auch die Löschung von Bewertungen verfügt, die äußerungsrechtlich nicht zu beanstanden sind, was zudem dazu führt, dass der betreffende Arzt auf Jameda gar nicht mehr bewertet werden kann. Das bewirkt aber dann genau den Effekt, den Art. 5 GG und Art. 11 der Grundrechtecharta verhindern wollen, nämlich, dass sich jemand mit Blick auf seine berufliche Betätigung der öffentlichen Kritik entziehen kann. Der Verbotsausspruch des OLG Köln stellt einen empfindlichen Eingriff in die Grundrechte unterschiedlicher Beteiligter dar, der sich am Ende auf eine Differenzierung zwischen journalistischer und nichtjournalistischer Betätigung in einem meinungsrelevanten Kontext stützt, was aus grundrechtlicher Sicht nicht maßgeblich sein kann.

Vor diesem Hintergrund hat auch der EuGH (Urteil vom 14.02.2019, Az.: C-345/17) entschieden, dass selbst das Einstellen eines Videos durch eine Privatperson, das einen fragwürdigen Polizeieinsatz dokumentiert, als journalistisch zu betrachten ist, wenn die Veröffentlichung ausschließlich zum Ziel hat, Informationen, Meinungen oder Ideen in der Öffentlichkeit zu verbreiten.

Wenn man dieses Begriffsverständnis des EuGH zugrunde legt, kann die Schlussfolgerung für Bewertungsportale nur die sein, dass man zunächst davon auszugehen hat, dass die Nutzerbewertungen, die Jameda veröffentlicht, eine journalistische Tätigkeit der Nutzer im Sinne der Rechtsprechung des EuGH darstellen, gegen die datenschutzrechtliche Einwände nicht durchgreifend sind. Auch in der juristischen Literatur wird mittlerweile die Ansicht vertreten, dass Nutzerbewertungen, die Informationen, Meinungen und Ideen in der Öffentlichkeit verbreiten, dem Medienprivileg unterfallen müssen (Michel, ZUM 2018, 836, 839).

Das bedeutet dann aber auch, dass äußerungsrechtlich zulässige Bewertungen nicht auf Grundlage datenschutzrechtlicher Erwägungen gelöscht werden dürfen. Wenn man eine solche Löschung vom Nutzer selbst nicht verlangen könnte, kann man sie aber auch nicht vom Portalbetreiber verlangen. Ansonsten gestattet man immer die Verkürzung von Grundrechten über die Hintertür. Nach der Logik der Presso-Grosso Entscheidung des BVerfG muss man deshalb Intermediäre wie die Betreiber von Bewertungsportalen, die eine notwendige Hilfstätigkeit dafür erbringen, dass solche Bewertungen überhaupt möglich sind, im selben Umfang wie den Äußernden selbst in den Schutzbereich der Meinungsfreiheit einbeziehen. Das bedeutet, dass sich solche Intermediäre auch auf das Medienprivileg berufen können.

Das OLG Köln hat den Anspruch der Kläger auf Löschung des ohne Einwilligung eingerichteten Profils auf §§ 823 Abs. 2, 1004 BGB analog in Verbindung mit Art. 6 Abs. 1 f) DSGVO gestützt. Diese rechtliche Bewertung ist deshalb unrichtig, weil sich auch Jameda auf das Medienprivileg stützen kann und deshalb weder eine Löschung ganzer Ärzteprofile verlangt werden kann, noch eine Löschung von Bewertungen, die nach allgemeinen Kriterien äußerungsrechtlich nicht zu beanstanden sind.

Man muss mit Blick auf die erstinstanzlichen Urteile des Landgerichts Köln dennoch hervorheben, dass dieses weitgehend aufgehoben wurden.

Hinweis: Die Kanzlei SSB, für die ich mittlerweile anwaltlich tätig bin, hat Jameda in dem Verfahren vor dem OLG Köln vertreten.

posted by Thomas Stadler at 22:27  

14.10.19

Unterlassungsverpflichtung und Löschung bei Google

Wer (wettbewerbsrechtlich) zur Unterlassung verpflichtet ist, muss zudem bei Google auf eine Löschung hinwirken. Das hat das OLG Frankfurt mit Urteil vom 22.08.2019 (Az.: 6 U 83/19) entschieden. Das Gericht führt hierzu aus:

Analog zum Umfang der Unterlassungsverpflichtung aus einem Unterlassungstitel umfasst die wettbewerbsrechtliche Verkehrspflicht auch hier die Pflicht der Antragsgegnerin, i.R.d. ihm Möglichen und Zumutbaren beim Betreiber der Suchmaschine Google auf eine Löschung des streitgegenständlichen Eintrags hinzuwirken, wobei sich diese Verpflichtung auch auf die Entfernung aus dem Cache erstreckt. Zwar hat ein Schuldner für das selbstständige Handeln Dritter grds. nicht einzustehen. Er ist jedoch gehalten, auf Dritte, deren Handeln ihm wirtschaftlich zugutekommt, einzuwirken, wenn er mit einem Verstoß ernstlich rechnen muss und zudem rechtliche und tatsächliche Einwirkungsmöglichkeiten auf das Verhalten der Dritten hat (BGH GRUR 2014, 595 – Vertragsstrafenklausel). Die streitgegenständlichen Einträge bzw. Treffer bei Google beruhten letztlich auf der eigenen Internetseite der Antragsgegnerin. Damit, dass eine allseits bekannte und gängige Suchmaschine die Einträge auf ihrer Internetseite auffinden und ihre Angaben bei einer Suchanfrage ausweisen wird, musste die Antragsgegnerin rechnen. Es kam ihr auch wirtschaftlich zugute. Folglich war sie gehalten, unverzüglich eigene Recherchen über die Verwendung des Hinweises durchzuführen und jedenfalls den Betreiber der Suchmaschine Google aufzufordern, den streitgegenständlichen Eintrag zu entfernen (vgl. OLG Düsseldorf, MMR 2016, 114; OLG Celle, WRP 2015, 475, 476, Rnr. 18; OLG Stuttgart, WRP 2016, 773. 775, Rnr. 26; Harte-Bavendamm/Hennig-Goldmann, UWG, 4. Aufl., § 8, Rnr. 16; a.A. OLG Zweibrücken, MMR 2016, 831, sowie bei einem Verstoß im nicht gewerblichen Bereich OLG Frankfurt, 11. ZS, GRUR-RR 2019. 289 – Google Cache; zur Übersicht vgl. Sakowski, NJW 2016, 3623). Da Google zudem ein Webmaster-Tool bereithält, über das die Löschung im Cache gespeicherter veralteter oder gelöschter Informationen beantragt und damit ihre Anzeige verhindert werden kann (wie die Antragsgegnerin es ja am 21.11. selbst vorgenommen hat), war es der Antragsgegnerin auch möglich und zumutbar, die Entfernung des streitgegenständlichen Hinweises aus dem Cache zu beantragen.

Das deckt sich von der Stoßrichtung her mit dem, was der BGH für äußerungsrechtliche Sachverhalte entschieden hat.

Der BGH bejaht eine eingeschränkte Störerhaftung desjenigen, der die Erstveröffentlichung zu verantworten hat, auch für Folgeveröffentlichungen. Geschuldet ist danach zumindest ein „Hinwirken auf Löschung rechtswidriger, im Internet abrufbarer Tatsachenbehauptungen“

posted by Stadler at 17:22  

18.6.19

BGH zur Haftung für Uploads durch Dritte

In welchem Umfang haftet ein Fernsehsender (hier der MDR), wenn ein Dritter einen persönlichkeitsrechtsverletzenden Filmbericht bei YouTube und Facebook einstellt? Mit dieser Frage hatte sich der BGH (Urteil vom 09.04.2019, Az.: VI ZR 89/18) unlängst zu beschäftigen. Anders als das Oberlandesgericht hält der BGH eine Haftung des MDR (für Abmahnkosten) für denkbar.

Der BGH geht zunächst davon aus, dass der MDR die Erstveröffentlichung durch die Ausstrahlung und das Einstellen des Films in die ARD-Mediathek verursacht hat und insoweit auf Unterlassung und Schadensersatz haftet. Für die Folgefrage der Einstellung bei YouTube geht der BGH von der tatbestandlichen Feststellung des Berufungsgerichts aus, dass der Uploader den Filmbericht aus der Mediathek hochgeladen hat. Diese tatbestandliche Feststellung ist möglicherweise falsch, aber wegen § 314 Abs. 1 ZPO für den BGH bindend.

Sodann nimmt der BGH an, dass die von den Uploadern bewirkten Rechtsverletzungen dem MDR zuzurechnen sind. Der BGH bekräftigt damit seine bisherige Rechtsprechung, nach der sich durch die Weiterverbreitung im Internet, sei es durch Verlinkung oder erneutem Upload, eine internetetypische Gefahr verwirklicht, welche gerade durch die Erstveröffentlichung geschaffen wurde. Die hiergegen in der juristischen Literatur erhobene Kritik, dass dies jedenfalls dann nicht gelten könne, wenn der Dritte einen Beitrag urheberrechtswidrig weiterverbreitet, weil dies nicht dem Willen des Erstveröffentlichenden entspreche und dieser gleichsam selbst Opfer einer Rechtsverletzung sei, überzeugt den BGH nicht. Für die Zurechnung einer Verletzung des allgemeinen Persönlichkeitsrechts, die durch die Weiterverbreitung eines Beitrags durch Dritte im Internet entstanden ist, sei vielmehr allein die Frage maßgebend, ob in ihr die vom Erstveröffentlicher geschaffene Gefahr fortwirkt.

Der BGH erkennt, dass diese recht starre Betrachtung in Konflikt mit Art. 5 GG stehen könnte, weil von ihr eine veröffentlichungshemmende Wirkung ausgeht. Hier meint der BGH aber, dass abträgliche Effekte auf den Gebrauch von Presse- und Meinungsfreiheit oder gar ein „existenzbedrohender Einschüchterungseffekt“ weder zu befürchten noch eingetreten seien. Das mag man im Fall eines öffentlich-rechtlichen Senders so bewerten. Ob das aber ausnahmslos so gesehen werden kann, darf bezweifelt werden.

Wer im Internet Texte oder Filme veröffentlicht, muss also laut BGH immer damit rechnen, dass diese (auch rechtswidrig) weiterverbreitet werden und haftet deshalb nach deliktischen Grundsätzen regelmäßig auch für solche Rechtsverletzungen, die erst durch das Handeln Dritter entstehen.

posted by Thomas Stadler at 10:43  

28.2.19

Sechs Gegenthesen zur EU-Urheberrechtsreform

Die aktuelle Debatte um die Urheberrechtsreform der EU wird von dem Versuch dominiert, die Diskurshoheit durch bestimmte Thesen und Behauptungen zu erringen. Der Beitrag unterzieht vier Grundthesen der Befürworter von Art. 13 der geplanten Richtlinie über das Urheberrecht im digitalen Binnenmarkt einer kritischen Prüfung.

These 1: Google und andere US-Anbieter versuchen, die EU-Urheberrechtsreform mit unglaublichem lobbyistischem Aufwand zu verhindern

Dass große amerikanische Anbieter insbesondere gegen Art. 11 und Art. 13 der geplanten Richtlinie über das Urheberrecht im digitalen Binnenmarkt lobbyieren, ist kaum zu bestreiten. Die Frage ist nur, in welchem Verhältnis das zum Lobbyismus deutscher und europäischer Verbände und Unternehmen steht, die die Regelungen befürworten. Vor einigen Jahren habe ich mich intensiv mit dem deutschen Leistungsschutzrecht für Presseerzeugnisse beschäftigt – das jetzt seine europäischen Fortsetzung in Art. 11 der geplanten Richtlinie findet – und bin dabei auch mit den lobbyistischen Anstrengungen der deutschen Zeitungsverleger in Berührung gekommen. Der Einfluss der Zeitungsverlage war derart groß, dass einer der Hauptlobbyisten von Springer als Sachverständiger (sic!) in die Ausschussanhörung des Bundestages geladen war, während die Vertreter von Google nur als Zaungäste anwesend waren. Es ist gerade der über Jahrzehnte hinweg gewachsene Einfluss europäischer Verbände, der Art. 11 und Art. 13 möglich gemacht hat. Google und andere US-Player verfügen, egal wieviel Geld sie in die Waagschale werfen, in Europa nicht ansatzweise über einen vergleichbaren politischen Einfluss. Wenn in diesem Gesetzgebungsverfahren der Eindruck eines übermächtigen Lobbyismus von Google & Co. erweckt wird, ist dies nichts weiter als ein Zerrbild. Richtig ist vielmehr, dass der politische Einfluss der Befürworter von Art. 11 und Art. 13 ungleich größer ist.

These 2: Die Richtlinie fordert doch gar keine Uploadfilter

Der zwischen Parlament und Rat abgestimmte endgültige Text, regelt in Art. 13 Nr. 3 zunächst, dass derjenige Anbieter, den die Richtlinie als Online Content Sharing Service Provider bezeichnet, nicht mehr in den Genuss der Haftungsprivilegierung aus Art. 14 der E-Commerce-Richtlinie für Host-Provider kommen soll. Das ist der eigentliche juristische Kern von Art. 13. Plattformen, die von Nutzern eingestellte Inhalte zum Abruf bereithalten, sollen nicht mehr als Hoster betrachtet werden. Obwohl sie natürlich zunächst auch weiterhin nichts anderes tun, als fremde, von Nutzern hochgeladene Inhalte zum Abruf bereit zu halten, werden sie nunmehr so behandelt wie die Anbieter von eigenen Inhalten. Die Veränderung des Haftungsregimes ist der eigentliche Knackpunkt der Neuregelung. Der europäische Gesetzgeber stellt damit Plattformen wie YouTube in haftungsrechtlicher Sicht gleich mit Anbietern wie Spotify oder Netflix.

Der gesamte Rest ist nur eine Folge dieser Regelungslogik. Online Content Sharing Service Provider werden angehalten, mit Rechteinhabern bzw. Verwertungsgesellschaften wie der GEMA Lizenzvereinbarungen zu schließen. Gelingt ihnen dies nicht, sind sie für die unerlaubte Veröffentlichung urheberrechtlich geschützter Werke voll verantwortlich, wie Art. 13 Nr. 4 unmissverständlich klarstellt. Der Plattformbetreiber kann sich exkulpieren, indem er darlegt, dass er hohe Industriestandards beachtet und eingesetzt hat, um die Nichtverfügbarkeit urheberrechtlich geschützter Werke zu gewährleisten. Aus dieser Vorschrift wird die Notwendigkeit des Einsatzes technischer Maßnahmen zur Verhinderung des Uploads (Uploadfilter) hergeleitet. Denn die Nichtverfügbarkeit können solche Plattformen nur durch Uploadfilter, die automatisiert den Upload solcher Inhalte verhindern, die die Software als urheberrechtlich geschützt erkennt, gewährleisten.

These 3: Das Gerede von Zensur ist Quatsch, die geplante Neuregelung stellt keine Gefahr für die Meinungs- und Informationsfreiheit dar

An dieser Stelle stellt sich zunächst die Frage, wem man mehr glauben will. Unabhängigen Experten, die erhebliche Bedenken äußern oder Verbänden die die Interessen ihrer Mitglieder vertreten. Die Gesellschaft für Informatik (GI) warnt eindringlich vor der geplanten Neuregelung. Ihr Präsident Hannes Federrath, einer der führenden Köpfe auf dem Gebiet der IT-Sicherheit in Deutschland hat es so formuliert:

Es ist richtig und wichtig, das Urheberrecht an das digitale Zeitalter anzupassen. Die hier vorgeschlagene automatisierte Prüfung auf Urheberrechtsverletzungen legt jedoch den technischen Grundstein für eine Zensur- und Kontrollinfrastruktur im Internet. Zugleich wird sie Urheberrechtsverletzungen und kriminelle Inhalte nicht wirkungsvoll verhindern können.

Der Bundesdatenschutzbeauftragte warnt ebenfalls und rückt einen anderen Aspekt in den Vordergrund:

Auch wenn Uploadfilter nicht explizit im Gesetzentwurf gefordert werden, wird es in der praktischen Anwendung auf sie hinauslaufen. Gerade kleinere Plattform- und Diensteanbieter werden nicht die Möglichkeit haben, mit allen erdenklichen Rechteinhabern Lizenzverträge zu schließen. Ebensowenig werden sie den immensen Programmieraufwand betreiben können, eigene Uploadfilter zu erstellen. Stattdessen werden sie auf Angebote großer IT-Unternehmen zurückgreifen, so wie das heute schon unter anderem bei Analysetools passiert, bei denen die entsprechenden Bausteine von Facebook, Amazon und Google von vielen Apps, Websites und Services verwendet werden.

Letztendlich entstünde so ein Oligopol weniger Anbieter von Filtertechniken, über die dann mehr oder weniger der gesamte Internetverkehr relevanter Plattformen und Dienste läuft.

Dass man die Plattformbetreiber letztlich dazu zwingt, eine Kontrollinfrastruktur zu schaffen, deren Aufbau man dann vermutlich wieder wenigen großen Anbietern überlässt, mutet nahezu grotesk an.

Aber auch die häufig anzutreffende These, die Meinungsfreiheit werde nicht beeinträchtigt, es ginge nur um eine faire Vergütung der Urheber, hält einer kritischen Prüfung nicht stand. Dieser Aussage liegt vielmehr der die nur als naiv zu bezeichnende Annahme zugrunde, Filtertechnologien könnten urheberrechtsverletzende Inhalte zuverlässig ausfiltern und würden andere, nicht zu beanstandende Inhalte passieren lassen. Jeder, der sich auch nur ein bisschen mit diesem Thema befasst hat, weiß, dass diese These eine Schimäre darstellt. Der Einsatz von Uploadfiltern wird in relevantem Ausmaß dazu führen, dass auch Inhalte ausgefiltert werden, die nicht zu beanstanden sind.

Der Journalist Peter Welchring hat anschaulich erläutert, dass die Uploadfilter, die Google derzeit ohnehin schon einsetzt, im Bereich von Musik und Film dann gut funktionieren, wenn zuvor bereits eine Prüfsumme der maßgeblichen Datei hinterlegt worden ist. Schwieriger wird es bei unbekannten Werken und erst recht bei Fotos, Bildern und Texten. Über die Neuregelung freuen werden sich sicherlich die bereits jetzt sehr abmahnfreudigen Bildagenturen, denn sie können in Zukunft unmittelbar beim Plattformbetreiber Schadensersatz geltend machen, was andererseits für viele Plattformen zu einem schwer kalkulierbaren Risiko werden dürfte.

Ob man in diesem Kontext bereits von Zensur im juristischen Sinne sprechen kann, ist zumindest diskutabel. Auch wenn hier nicht der Staat selbst Äußerungen und Geistesinhalte vor ihrer Veröffentlichung einer inhaltlichen Prüfung unterzieht, so zwingt der Gesetzgeber die Anbieter solcher Plattformen – sofern sie ihr Geschäftsmodell nicht aufgeben wollen – faktisch dennoch dazu, eine Infrastruktur für eine inhaltliche Vorkontrolle aller Inhalte zu etablieren. Damit verpflichtet der Staat den Provider zu einer zensurähnlichen Maßnahme. Es galt daher bisher als Konsens, dass Dienstanbietern keine proaktiven Prüf- und Überwachungspflichten auferlegt werden dürfen. Diesen in der fast 20 Jahre alten E-Commerce-Richtlinie normierten Konsens will die neue Richtlinie aufkündigen. Ein enormer lobbyistischer Erfolg, der unausgewogen und für die Allgemeinheit nachteilig ist.

These 4: Das betrifft doch ohnehin nur YouTube bzw. Google, die sollen ruhig mehr zahlen

Der Richtlinienentwurf hat einen neuen Providertypus erfunden, der Online Content Sharing Provider genannt wird. Der ist legaldefiniert als

provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes.

Das umfasst zunächst alle kommerziellen Dienste, die es Nutzern gestatten, Inhalte hochzuladen. Das Korrektiv besteht nun darin, dass einer der Hauptzwecke darin bestehen muss, urheberrechtlich oder anderweitig geschützte Inhalte öffentlich zugänglich zu machen. Wie weit oder einschränkend dieses Merkmal auszulegen ist, bleibt zunächst unklar.

Umfasst sind neben Plattformen wie YouTube auch soziale Medien, deren Schwerpunkt auf Bildveröffentlichungen liegen. Also Plattformen wie Instagram, Pinterest, aber auch Dating-Services wie Tinder. Denn Fotos genießen immer urheberrechtlichen Schutz. Auch alle anderen sozialen Netzwerke wie Facebook oder Twitter dürften darunter fallen. Letztlich wird man auch ernsthaft darüber diskutieren müssen, ob Meinungs- und Diskussionsforen ebenfalls erfasst sind. Denn von Usern verfasste Texte werden zumindest in nennenswertem Umfang als urheberrechtlich schutzfähig anzusehen sein.

Letztlich sollte sich keine Plattform, die den Upload von Inhalten durch ihre Nutzer ermöglicht, zu sicher sein, dass sie der Regelung nicht unterfällt.

These 5: Die Neuregelung verlagert die Haftung von den Nutzern auf die Plattformbetreiber

Nein, diese Aussage ist falsch. Im Grundsatz bleibt es dabei, dass derjenige Nutzer, der urheberrechtswidrige Inhalte auf einer Plattform einstellt, in vollem Umfang selbst haftet. Neben ihm haftet nunmehr auch der Plattformbetreiber. Wenn der Anbieter allerdings eine Lizenz erworben hat, dann soll diese Lizenz auch Uploads durch nicht kommerziell handelnde Nutzer abdecken. Das ergibt sich aus Art. 13 Nr. 2. Wobei man die Frage diskutieren muss, ob das nicht bereits nach aktueller Rechtslage so ist. Denn die Handlung, die dem Plattformbetreiber derzeit vorgeworfen wird, ist ja auch nur die des Nutzers und nicht seine eigene. Im Ergebnis ist es also so, dass neben die Haftung des Nutzers noch die des Plattformbetreibers tritt. Für die Rechteinhaber ist das günstig, weil sie künftig beide in Anspruch nehmen können.

These 6: Art. 13 Nr. 7 schließt Uploadfilter aus

Die Vorschrift des Art. 13 Nr. 7 betont, dass aus der Regelung des Art. 13 keine allgemeine Überwachungspflicht im Sinne von Art. 15 der E-Commerce-Richtline folgt. Diese Vorschrift steht allerdings in einem erkennbaren Spannungsverhältnis zu Art. 13 Nr. 4, der den Ausschluss der Haftungsprivilegierung für den Content Sharing Provider postuliert und ihm gleichzeitig die Pflicht auferlegt, hohe Anstrengungen zu unternehmen, um zu gewährleisten, dass urheberrechtswidriger Content über seine Plattform nicht verfügbar ist. Das ist widersprüchlich und klingt ein bisschen nach wasch mir den Pelz, aber mach mich nicht nass. Denn die Nichtverfügbarkeit von urheberrechtswidrigen Inhalten kann man, selbst man sich bemüht, Lizenzverträge zu schließen, nur gewährleisten, wenn man jeden Upload einer Vorprüfung unterzieht. Offenbar hat der Gesetzgeber bemerkt, dass die Schaffung einer proaktiven Überwachungspflicht bedenklich nah an die Vorzensur heranrückt, weshalb er sich beeilt hat zu betonen, dass eine solche Pflicht natürlich nicht besteht. Das ändert allerdings nichts daran, dass sich Art. 13 Nr. 4 und Nr. 7 widersprechen und nicht sinnvoll in Übereinstimmung zu bringen sind. Das wiederum führt zu erheblicher Rechtsunsicherheit und wird viele kleinere Anbieter vermutlich zur Aufgabe zwingen. Denn klar ist, dass der Anbieter erhebliche Anstrengungen unternehmen muss, um den Upload von urheberrechtswidrigen Inhalten zu verhindern. Wie hoch insoweit die Anforderungen sind, kann derzeit niemand zuverlässig sagen. Das werden am Ende die Gerichte festlegen, in einem Rechtsprechungsprozess, der Jahre dauern wird.

posted by Thomas Stadler at 22:27  

14.11.18

Recht auf Vergessenwerden gegenüber Suchmaschinen?

Das OLG Frankfurt hat entschieden, dass sich das in der Datenschutzgrund-Verordnung (DSGVO) normierte Recht auf Vergessenwerden auch gegen den Betreiber einer Suchmaschine richten kann und die Entfernung von Links aus der Trefferliste einer Suchmaschine grundsätzlich nach Art. 17 DSGVO geltend gemacht werden kann (Urteil vom 06.09.2018, Az.: 16 U 193/17).

Das Gericht hält aber im Suchmaschinenkontext dann stets eine Abwägung zwischen dem Recht auf Meinungs- und Informationsfreiheit einerseits und dem Recht des Betroffenen auf informationelle Selbstbestimmung andererseits für notwendig, die der Senat an Art. 17 Abs. 3 Nr. 1 DSGVO festmacht. Das OLG Frankfurt bezweifelt sodann, dass die Grundsätze des Google-Spain-Urteils des EuGH auf Presseartikel übertragbar sind. Außerdem hält es das Gericht für denkbar, dass der „Regel-Ausnahme-Mechanismus“, wie ihn der EuGH in seinem google-spain-Urteil statuiert hat, im Rahmen der Abwägung nach Art. 17 Abs. 3, Art. 6 Abs. 1 S. 1 lit. f) DSGVO keine Anwendung mehr findet. Das lässt das OLG letztlich aber offen und nimmt aufgrund einer Einzelfallabwägung ein überwiegendes öffentliches Interesse an.

Die Leitsätze des OLG Frankfurt lauten:

1.  Das Begehren auf Unterlassung, beanstandete Inhalte auf bestimmte Internetseiten durch Anzeige in den Suchergebnissen einer Suchmaschine mit entsprechender Verlinkung auffindbar zu machen, wird von der Rechtsfolge des Art. 17 DS-GVO erfasst.

2. Über die Rechtmäßigkeit der Verlinkung von Inhalten mit Gesundheitsdaten im Sinne des Art. 9 Abs. 1 DS-GVO ist nach Art. 17 Abs. 1 lit. d) DS-GVO in Verbindung mit Art. 17 Abs. 3 lit. a) DS-GVO im Wege einer Abwägung der widerstreitenden Interessen zu entscheiden, wobei sich die Abwägung an Art. 6 Abs. 1 S. 1 lit. f) DS-GVO orientieren kann.

3.  Die von dem EuGH in seinem Urteil vom 13.05.2014, C-131/12, zu einem „Recht auf Vergessen“ festgelegten Abwägungskriterien sind im Rahmen des Art. 17 Abs. 1 lit. a) lit. d) in Verbindung mit Art. 17 Abs. 3 lit. a), Art. 6 Abs. 1 S. 1 lit. f) DS-GVO nicht schematisch anzuwenden, sondern es ist den jeweiligen Besonderheiten des Einzelfalls Rechnung zu tragen.

posted by Stadler at 17:33  

24.9.18

BGH legt Frage der Haftung von Sharehostern an EuGH vor

Mit Beschluss vom 20.09.2018 (Az.: I ZR 53/17 – Uploaded) hat der BGH dem EuGH verschiedene Fragen zur Haftung eines Sharehosters auf Schadensersatz wegen des Hostings von urheberrechtsverletzenden Inhalten vorgelegt.

Der BGH möchte u.a. wissen, ob ein Sharehoster eine eigene urheberrechtliche Nutzung im Sinne einer Wiedergabe nach Art. 3 Abs. 1 der Richtlinie 2001/29/EG vornimmt, weil er das unkontrollierte Einstellen urheberrechtsverletzender Files ermöglicht und sein Geschäftsmodell solche Rechtsverletzungen auch gezielt fördert.

Außerdem fragt der BGH, ob der Sharehoster unter die Haftungsprivilegierung der E-Commerce-Richtlinie (ECRL) für Host-Provider fällt und ob sich die in Art. 14 ECRL genannte tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information und das Bewusstsein der Tatsachen oder Umstände, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, auf konkrete rechtswidrige Tätigkeiten oder Informationen beziehen muss.

posted by Stadler at 20:08  

10.1.18

Die Debatte um das NetzDG ist unsachlich

Die aktuelle Debatte um das Für und Wider des Netzwerkdurchsetzungsgesetzes (NetzDG) ist hysterisch, eine ruhige und sachliche Auseinandersetzung ist selten erkennbar, auch nicht bei den zahlreich diskutierenden Juristen. Dies passt zum Zeitgeist und ist Ausdruck einer Debattenkultur, die nahezu zwanghaft auf Polarisierung setzt, nur noch schwarz und weiß kennt und in der die differenzierte Betrachtung nicht mehr viel gilt.

Das Gesetz geht zunächst ein tatsächlich vorhandenes Problem an. Soziale Netzwerke wie Facebook oder Twitter löschen nur einen Bruchteil derjenigen Inhalte, die strafbar oder rechtswidrig sind. Gleichzeitig, und das geht in der aktuellen Debatte stark unter, entfernen soziale Netzwerke häufiger Postings und Inhalte, die erkennbar rechtmäßig sind. Die Kriterien, nach denen Facebook & Co. ihre Löschentscheidungen treffen, waren bislang weder transparent noch nachvollziehbar. Zum Teil sind falsche Löschentscheidungen einfach auch dem Umstand geschuldet, dass die Anbieter nicht genügend und vor allem kein ausreichend geschultes Personal vorhalten. Wenn wir also wollen, dass rechtswidrige Inhalte in größerem Umfang als bislang gelöscht werden, dann ist es unumgänglich den Betreibern sozialer Netze entsprechende Pflichten aufzuerlegen und Verstöße auch zu sanktionieren.

Man kann das NetzDG mit guten Gründen wegen Verstoß gegen das Herkunftslandprinzip und die Haftungsprivilegierungstatbestände der E-Commerce-Richtlinie für europarechtswidrig halten. Wer die Rechtsprechung des EuGH zur Provider- und Linkhaftung verfolgt, weiß aber auch, dass wir es allzu oft mit einer Wundertüte zu tun haben. Man sollte also nicht darauf wetten, dass der EuGH das deutsche Gesetz tatsächlich am Ende auch für europarechtswidrig halten wird, sollte es ihm vorgelegt werden. In diesem Zusammenhang muss man auch berücksichtigen, dass die Kommission bereits Überlegungen anstellt, die in eine ganz ähnliche Richtung gehen und eher noch weiter reichen werden. Es spricht also einiges dafür, dass die künftige europäische Marschroute ähnlich verlaufen wird.

Ein ebenfalls oft gehörtes Argument ist das von der Privatisierung der Rechtsdurchsetzung, das mir allerdings wenig stichhaltig erscheint. Facebook und Twitter werden ja nicht dazu angehalten, Aufgaben der Strafverfolgung zu übernehmen, sondern nur dazu, strafbare Inhalte zu löschen. Wer sich das Gesetz genau ansieht, wird außerdem erkennen, dass das NetzDG gar keine neuen Löschpflichten begründet, sondern wie schon bisher das TMG von bereits bestehenden Löschpflichten ausgeht. Was manche offenbar zu irritieren scheint, ist der Umstand, dass Facebook & Co. in zunehmendem Maße wie Medienanbieter betrachtet werden und nicht mehr so sehr wie Provider. Würde man einem Fernsehsender oder einer Zeitung gestatten, rechtswidrige Inhalte zu verbreiten? Und wer anders als der Plattformbetreiber sollte rechtswidrige/strafbare Inhalte denn löschen? Der Vorwurf der Privatisierung der Rechtsdurchsetzung greift letztlich nicht. Die Strafjustiz wird außerdem niemals in der Lage sein, Millionen strafbarer Einzelinhalte zu verfolgen und schon gar nicht zeitnah. Wer also rechtswidrige Inhalte aus dem Netz bekommen will, muss den Plattformbetreibern entsprechende Pflichten auferlegen. Hierzu gibt es keine praktikable Alternative.

Auch der immer wieder erhobene Zensurvorwurf ist nicht durchgreifend. Abgesehen davon, dass die Zensur im Sinne des Grundgesetzes jedenfalls nach überwiegender Ansicht nur die Vorzensur meint, ist nicht wirklich erkennbar, warum die Ausgestaltung eines Verfahrens zur Löschung strafbarer Inhalte in sozialen Netzen als Zensur zu betrachten sein sollte. Dieser Logik folgend wäre der Straftatbestand, der die Verbreitung bestimmter Inhalte untersagt oder eine richterliche Unterlassungsentscheidung ebenfalls Zensur.

In sachlicher Hinsicht macht das NetzDG nichts anderes, als den Betreibern sozialer Netzwerke Verfahrensregeln aufzuerlegen, die sicherstellen sollen, dass bestimmte strafbare Inhalte kurzfristig entfernt werden. Zumindest die gesetzgeberische Intention kann man m.E. im Grundsatz nicht ernsthaft kritisieren.

Das bedeutet freilich noch nicht, dass dem Gesetzgeber eine sinnvolle Umsetzung gelungen ist. Denn das Gesetz schafft einen einseitigen Löschanreiz. Vor diesem Hintergrund hätte das NetzDG von vornherein Maßnahmen gegen die Gefahr des Overblockings ergreifen müssen. Denn der Gesetzgeber darf nicht allzu leichtfertig die fälschliche Löschung von rechtmäßigen Inhalten in Kauf nehmen, weil dies in der Tat sowohl die Meinungs- als auch die Informationsfreiheit beeinträchtigt. Vor diesem Hintergrund wäre zumindest eine Art Rechtsbehelf des von der Löschung Betroffenen in das Verfahren zu implementieren gewesen. Möglicherweise müsste man an dieser Stelle sogar noch einen Schritt weiter gehen und hätte dem Betroffenen unmittelbar ein effektives behördliches oder gerichtliches Verfahren an die Hand geben müssen, das es ihm gestattet, vor einem inländischen Gericht oder einer Behörde gegen die Löschentscheidung des Netzwerkbetreibers vorzugehen, wenn der Betreiber auf die Beschwerde des Nutzers hin nicht abhilft.

Um die Gefahr des Verstoßes gegen europarechtliche Vorgaben zu reduzieren, wäre es zudem sinnvoll, den Wortlaut von § 3 Abs. 2 an den von § 10 TMG bzw. Art. 14 ECRL anzupassen. Zumal die jetzige Differenzierung zwischen rechtswidrigen und offensichtlich rechtswidrigen Inhalten wenig sinnvoll erscheint und den Betreiber nur vor ein zusätzliches Abgrenzungsproblem stellt.

posted by Stadler at 21:35  
Nächste Seite »