14.08.2017

Gesetz gegen Hass und Hetze in sozialen Netzwerken

Bundestag hat NetzDG beschlossen

Gesetz gegen Hass und Hetze in sozialen Netzwerken

Bundestag hat NetzDG beschlossen

Auf der Waagschale: Das Netzwerkdurchsetzungsgesetz. | © vege - Fotolia
Auf der Waagschale: Das Netzwerkdurchsetzungsgesetz. | © vege - Fotolia

Hasskommentare und Hetze überfluten seit Langem insbesondere soziale Medien. Doch die Netzwerke löschen ist weiterhin völlig unzureichend. Um Facebook & Co. zu einer zügigeren und umfassenderen Bearbeitung von Beschwerden über Hasskriminalität anzuhalten, hatte Justizminister Heiko Maas einen Gesetzentwurf vorgestellt – und ihn mehrfach abgeändert. Nun ist das Gesetz im Bundestag verabschiedet worden. Der Bundesrat ließ das sogenannte Netzwerkdurchsetzungsgesetz am 7.  Juli  2017 ebenfalls passieren. In Kraft treten wird es wohl am 1.  Oktober  2017.

– ANZEIGE –

Zuvor hatte die Koalition sich nach langem Hin und Her auf eine finale Version des Entwurfes geeinigt. Trotz einiger Entschärfungen bestehen Kritiker weiterhin auf ihren Bedenken, das Netzwerk werde zukünftig voreilig löschen und die Meinungsfreiheit werde beschnitten. Viele Juristen bezweifeln daher die Vereinbarkeit mit dem deutschen Grundgesetz und dem Europarecht. In eine Anhörung Mitte Juni waren 8 von 10  Experten gegen das Gesetz. Insoweit ist es nicht auszuschließen, dass das Gesetz noch die Gerichte beschäftigen wird. Die Frage bleibt außerdem: Werden die geplanten Regelungen den Anforderungen der Realität gerecht?

 

Welche Schwächen weiterhin bestehen und welche Änderungen die nun finale Version vorsieht

In der Sache ist ein solches Gesetz sicher sinnvoll. Denn Facebook und Co. tun sich selbst mit dem Löschen von klar illegalen Inhalten schwer. Darüber hinaus fehlt es bislang oft schon an einem inländischen Ansprechpartner, sodass Prozesse gegen die Sozialen Netze mühsam und teuer sind. Das soll sich mit dem neuen Gesetz ändern. Die Gefahr einer Zensur oder des sogenannten Overblockings ist im Übrigen nicht zu befürchten. Die Vergangenheit hat gezeigt, dass die großen Internetkonzerne nur sehr zurückhaltend löschen. Auch nach dem EuGH-Urteil gegen Google, mit dem ein »Recht auf Vergessenwerden« geschaffen worden ist, haben viele eine vorbeugende Zensur durch den Internetriesen befürchtet. Es kam jedoch anders. Google löscht nach unseren Beobachtungen nicht einmal jede zweite Meldung und lässt sich oft lieber auf teure Prozesse ein, als im Einzelfall nachzugeben. Ein solcher Gesetzentwurf war dennoch längst überfällig und ist absolut notwendig, um die mangelnde Rechtsdurchsetzung gegenüber ausländischen Plattformen zu verbessern. Jedoch hat es der Gesetzgeber an einigen Stellen trotz bereits erfolgter Nachbesserungen versäumt, wichtige Punkte klarer zu formulieren.


Das größte Manko: Bis auf den neu geschaffenen Auskunftsanspruch enthält das Gesetz keine neuen Möglichkeiten für die Nutzer sozialer Netze, bei Straftaten oder anderen rechtswidrigen Inhalten auf den Plattformen gegen diese vorzugehen. Etwaige Anspruchsgrundlagen auf Löschung sucht man in den sechs neuen Normen vergeblich. Vielmehr soll mit dem Gesetz erreicht werden, dass bereits jetzt bestehendes Recht besser umgesetzt werden kann. Hält sich also beispielsweise Facebook nicht an die neuen Regelungen, kann nicht etwa der Nutzer klagen. Vielmehr müsste der Nutzer das nicht erfolgte Handeln an die zuständige Aufsichtsbehörde (Bundesamt für Justiz) melden, die sich dann selbst überlegen kann, ob sie tätig wird oder nicht. Das Bundesamt für Justiz hat rund 40  neue Stellen eingeplant, die die Beschwerden über untätige soziale Netze abarbeiten sollen. Ein hoffnungsloses Unterfangen, welches angesichts von 500.000 an Facebook gemeldeten (und oft eben nicht gelöschten) Hasspostings, in Chaos und Untätigkeit seitens der Behörden enden wird.

Immerhin gibt das Gesetz nun betroffenen Bürgern in Ausnahmefällen eigene Auskunftsansprüche gegenüber den Plattformen über Hetzer. Diese Änderung des §  14 Abs.  2 Telemediengesetz wurde erst später eingefügt und in der finalen Version noch einmal eingeschränkt. Wenn Persönlichkeitsrechte auf der Plattform schwerwiegend verletzt werden, können Betroffene die Anbieter zwingen, ihnen die Nutzerdaten der Person herauszugeben, die ihn etwa beleidigt hat. Inzwischen steht dieses Auskunftsersuchen allerdings unter einem Richtervorbehalt. Und dieser muss sich auch mit dem Kontext der Äußerung und eventuellen Rechtfertigungsgründen auseinandersetzen. Schließlich bleiben Zweifel, ob die Auskunft dem Betroffenen viel nützt: Denn Facebook muss nur etwa das Pseudonym herausgeben – nicht aber die IP-Adresse, um den Internetanschluss desjenigen identifizieren zu können.

 

Was ist überhaupt ein »soziales Netzwerk«?

Nimmt man sich die einzelnen Normen des neuen Gesetzes zur Brust, so gehen die Probleme bereits beim ersten der sechs geplanten Paragraphen los. Unklar ist schon die Definition des »sozialen Netzwerks«. Danach sind mit Gewinnerzielungsabsicht betriebene Telemediendienstanbieter erfasst, die Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu machen (vgl. §  1 Abs.  1 NetzDG). Anbieter mit weniger als zwei Millionen registrierten Nutzern in Deutschland sollen ausgeschlossen sein. Die Tatsache, dass die Nutzer, die zählen, registriert sein müssen, ist nun wieder in der finalen Version vorhanden.

Nicht unter die Regelung fallen nun ausdrücklich Dienste für »Individualkommunikation« und »spezifische« Kommunikation. Darunter fallen etwa Messenger-Dienste wie Skype und WhatsApp. Diese Änderung war erst in der finalen Version hinzugekommen.

Unklar ist, wie die Plattformen künftig die inländischen Nutzer ermitteln wollen. Denn die Registrierung erfolgt in der Regel anonym, ein Wohnsitz muss nicht zwingend angegeben werden. Die Gesetzesbegründung schlägt vor, den Inlandsbezug über die IP-Adresse bei der Registrierung zu ermitteln, im eigentlichen Gesetzestext findet sich dazu jedoch nichts.

 

Gesetz gilt nicht für alle Straftaten

Auffällig ist auch die Definition des Begriffs »rechtswidrig« in §  1 Abs.  3 NetzDG. Denn das neue Gesetz gilt keineswegs für die Meldung von Straftaten aller Art. Vielmehr sind es nur sehr ausgewählte Straftaten wie Volksverhetzung, Beschimpfung von Religionsgemeinschaften, Beleidigungen und üble Nachrede, bei denen Facebook & Co. Bericht erstatten und unverzüglich handeln müssen. Seit einer neueren Version sind nun zusätzlich Straftaten im Zusammenhang mit kriminellen und terroristischen Vereinigungen erfasst sowie Vorbereitungen schwerer staatsgefährdender Straftaten, landesverräterischer Fälschung oder verschiedene Straftaten betreffend die Kinderpornografie und Gewaltdarstellung. In der finalen Version entfernt wurden Straftaten wie die »verfassungsfeindliche Verunglimpfung von Verfassungsorganen«. Und das Zugänglichmachen von Pornografie wird nur noch im Zusammenhang mit Kinderpornografie erfasst. Hinzugekommen ist in der finalen Version noch der §  201 a StGB – die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen.

Die Auswahl erscheint willkürlich, könnte jedoch tatsächlich dazu führen, dass hetzerische Beiträge künftig schneller gelöscht werden. Der positive Nebeneffekt wird darüber hinaus sein, dass die Nutzer den künftig noch prominenter zu platzierenden Facebook-Melde-Button dann auch für das Melden sämtlicher illegaler Inhalte nutzen werden.

 

Umsetzung der Löschfrist unklar

In §  2 NetzDG wird eine Berichtspflicht etabliert, wie mit Beschwerden über rechtswidrige Inhalte umgegangen wird. In §  3 NetzDG werden dann bestimmte Pflichten im Umgang mit Beschwerden über Inhalte definiert. Vor allem müssen soziale Netzwerke ein »wirksames und transparentes Verfahren« für den Umgang mit Beschwerden über rechtswidrige Inhalte vorhalten.

Schon jetzt ist es übrigens so, dass soziale Netzwerke sämtliche rechtsverletzende Inhalte unverzüglich nach Kenntnis löschen müssen. Ein konkreter zeitlicher Rahmen für die Löschung war rechtlich bislang nicht festgesetzt.

Nach §  3 des Gesetzentwurfs würden Anbieter wie Facebook jedoch künftig verpflichtet, offensichtlich illegale Inhalte innerhalb von 24  Stunden nach Erhalt einer Beschwerde zu löschen. Diese kurze Frist war vielfach kritisiert worden – doch bis zuletzt wurde daran festgehalten. Im Einzelnen soll aber noch konkretisiert werden, welche Straftatbestände unter diese sehr kurze Frist fallen sollen. Bislang wurde nur bekannt, dass dies z.B. für Inhalte wie klare Volksverhetzungen oder die Leugnung des Holocausts gelten soll.

Bei Inhalten, die eine intensivere Abwägung oder auch inhaltliche Aufklärung benötigen, räumt man Unternehmen grundsätzlich 7  Tage für eine Löschung ein. Gegen diese Frist war vorgebracht worden, dass es insbesondere bei Beleidigungen oder übler Nachrede schwierig ist, in dieser Zeit den kompletten Sachverhalt aufzuklären. Hier muss in der Regel immer der Verfasser eines Postings zum konkreten Kontext seiner Äußerung befragt werden. Dieser Kritik ist die Koalition nun gefolgt und hat zwei Ausnahmen in dieser Frist vorgesehen: Die erste sieht vor, dass sie überschritten werden kann, wenn die Entscheidung von zu ermittelnden Tatsachen abhängt. Die zweite Ausnahme betrifft ein völlig neu eingeführtes Verfahren: die sog. regulierte Selbstregulierung.

 

Neu: Regulierte Selbstregulierung – Plattformen können delegieren

Zusätzlich führt die finale Version nun auch eine »regulierte Selbstregulierung« in das NetzDG ein. So sollen Plattformbetreiber in rechtlich schwierigen Fällen nicht immer selbst über Löschungen entscheiden müssen. Für die Entscheidung über die Delegation hat Facebook 7  Tage Zeit. Dann können Beschwerden auch an neue anerkannte, gemeinsame Einrichtungen abgeben werden. Diese unterliegen dann nicht der 7- Tage- Frist.

Es muss sich um eine Einrichtung mit anderen Plattformen handeln, die sich an Vorgaben halten und Informationen über ihre Arbeit veröffentlichen muss. Dabei orientiert man sich an dem Vorbild des Jugendmedienschutzes. Die Einrichtungen müssen hohen Anforderungen genügen: Es muss u.a. eine Verfahrensordnung und eine Beschwerdestelle existieren. Das Bundesamt für Justiz soll die Arbeit der Stellen schließlich überprüfen und Vorgaben machen sowie Sanktionen verhängen können. Externe, private Dienstleister wie die, derer sich Facebook derzeit bedient, kommen damit nicht mehr in Betracht.

 

Unternehmen müssen doch nicht selbst aktiv nach Kopien suchen

Eine wichtige Änderung im Vergleich zu den Vorgängerversionen findet sich in §  3 des NetzDG: So war ursprünglich vorgesehen, dass Anbieter des sozialen Netzwerks künftig verpflichtet werden sollten, sämtliche auf den Plattformen befindliche Kopien des illegalen Inhalts ebenfalls unverzüglich zu entfernen oder zu sperren. dieser Passus wurde in der finalen Version nun aber gestrichen.

Laut eigenen Angaben hätte sich die Situation für Facebook damit dramatisch geändert und vor technische wie personelle Herausforderungen gestellt. Auch hinsichtlich der praktischen Umsetzbarkeit gab es Zweifel: Was gilt überhaupt als »Kopie« des Beitrags? Wie sieht es aus, wenn der rechtswidrige Beitrag in einem neuen Kontext verwendet wird? Muss man die Beitragskopien nur in einem Land oder weltweit löschen?

Nun aber bleibt es bei der jetzigen Rechtslage: Unternehmen müssen nicht selbst aktiv nach Kopien von verbreiteten rechtswidrigen Inhalten suchen. Stattdessen mussten Betroffene das selbst vornehmen und alle betreffenden Inhalte einzeln dem Unternehmen mitteilen.

 

Kein »Upload-Filter«

Seit einer Änderung des Entwurfs, die bis zur finalen Version beibehalten wurde, werden die sozialen Netzwerke auch nicht mehr verpflichtet, zusätzlich »wirksame Maßnahmen gegen die erneute Speicherung des rechtswidrigen Inhalts« zu treffen. Facebook & Co. müssen also keine Vorab-Filter mehr installieren, um alle Inhalte zu finden und zu löschen, die schon einmal aus rechtlichen Gründen gelöscht wurden. Dies hätte zu technischen Schwierigkeiten geführt –  außerdem hatten manche den Vorwurf einer Vorab-Zensur erhoben. Facebook muss weiterhin nur die bereits verbreiteten Kopien eines gemeldeten rechtswidrigen Eintrags löschen oder blockieren.

 

Hoher organisatorischer Aufwand für Bußgeld notwendig

Die neuen Pflichten werden dann in §  4 Abs.  1 NetzDG durch einen Katalog von Bußgeld-Tatbeständen ergänzt. Diese erklären aber lediglich einen Teil der Verstöße gegen die Anforderungen an das Beschwerdemanagement zu Ordnungswidrigkeiten – und dies auch noch unter Einschränkungen.

Nach §  4 Abs.  1 Nr.  2 NetzDG kann nur systemisches Versagen eines Sozialen Netzwerks verfolgt werden. Ordnungswidrig handelt danach, wer das Verfahren für den Umgang mit Beschwerden nach §  3 nicht, nicht richtig oder nicht vollständig vorhält.

Darüber hinaus sieht §  4 Abs.  5 NetzDG vor, dass die Behörden ihre Entscheidungen über einen Bußgeldbescheid nur dann auf nicht rechtzeitig entfernte oder gesperrte rechtswidrige Inhalte stützen dürfen, wenn sie vorab eine gerichtliche Entscheidung über die Rechtswidrigkeit dieser Inhalte herbeiführen. Zuvor müssen sie dem betreffenden sozialen Netzwerk Gelegenheit zur Stellungnahme geben. In der Praxis bedeutet das, dass ein Bußgeldbescheid mehrere gerichtliche Entscheidungen voraussetzt, die feststellen, dass das Unternehmen rechtswidrige Inhalte nicht gelöscht hat. Hieraus muss die Behörde begründen, dass also ein systemisches Versagen vorliegt. Erst dann kann tatsächlich ein Bußgeldbescheid ergehen.

In dem aktuellsten Entwurf, den das Kabinett beschlossen hat, wird auch noch deutlicher klargestellt, dass es nicht um die Verfolgung von Einzelfällen gehen soll, sondern darum, ob Facebook & Co. insgesamt funktionierende Löschsysteme aufbauen. So ist der Tatbestand für Bußgelder »in der Regel nicht bereits durch einen einmaligen Verstoß« gegen die Löschpflicht erfüllt, heißt es in der aktuellsten Version des Textes – die Vorgängerversion hatte zumindest diese Möglichkeit noch vorgesehen. Denn aus einem einmaligen Verstoß könne man noch nicht darauf schließen, dass das gesamte System nicht funktioniert. Zum Schutz der Meinungsfreiheit sei ein behutsames Vorgehen der Bußgeldbehörde angezeigt, wenn das Soziale Netzwerk einen illegalen Inhalt als nicht rechtswidrig einschätzt. Auch soll kein Bußgeldverfahren eingeleitet werden, wenn die Plattform den Wahrheitsgehalt einer Äußerung nicht innerhalb der Frist klären konnte.

 

Inländischer Zustellungsbevollmächtige muss öffentlich benannt sein

Sehr begrüßenswert ist hingegen, dass nunmehr seitens Facebook & Co. in §  5 NetzDG ein inländischer Zustellungsbevollmächtigter genannt werden muss. Ursprünglich war vorgesehen, dass die Nennung dieser Person in Zivilprozessen nur erfolgen sollte, wenn das zuständige Gericht anfragt. Bereits nach dem ersten Entwurf habe ich die Ansicht vertreten, dass es besser gewesen wäre, wenn die sozialen Netzwerke den Bevollmächtigten schon auf ihrer Webseite nennen müssten. Der finale Gesetzentwurf enthält nun genau eine solche Regelung. Soziale Netzwerke müssen auf ihrer Plattform in leicht erkennbarer und unmittelbar erreichbarer Weise auf ihn aufmerksam zu machen.

Zweck dieser Regelung ist es primär, den Betroffenen leichter zu ermöglichen, direkt gegen die Urheber rechtsverletzender Aussagen vorgehen zu können. Neben zivilrechtlichen Unterlassungsklagen sollen auch Auskunftsersuchen der Strafverfolgungsbehörden leichter zustellbar sein.

Neu ist im finalen Entwurf auch eine Frist, die besagt, dass der Zustellungsbevollmächtigte binnen 48  Stunden Auskunft erteilen muss, wenn sich Behörden wegen illegaler Inhalte auf der Plattform bei ihm melden.

Betroffene müssten dank der Änderungen im letzten Entwurf nicht mehr langwierige Verfahren in Kauf nehmen, um überhaupt die Zustellung der Klage zu erreichen.

 

Fazit

Insgesamt lässt sich sagen, dass ein Gesetzentwurf ohne Frage überfällig war und absolut wünschenswert ist, um die mangelnde Rechtsdurchsetzung gegenüber ausländischen Plattformen zu verbessern. Jedoch hat es der Gesetzgeber an einigen Stellen versäumt, wichtige Punkte klarer zu formulieren.

 

Christian Solmecke

LL.M, Rechtsanwalt und Partner, Medienkanzlei WILDE BEUGER SOLMECKE, Köln
n/a