"Hate Speech" und "Fake News" sind die Geister unserer digitalen Welt. Der Fall Anas M., dessen Selfie mit der Bundeskanzlerin von unbekannten, mutmaßlich rechtsextremen Personen auf Facebook missbraucht wurde, um dem Syrer eine Täterschaft oder eine Beteiligung an Terroranschlägen zu unterstellen, hat dabei wieder einmal die Probleme im Umgang mit Hasskommentaren in sozialen Netzwerken gezeigt. Hosting Provider wie Facebook haften nach deutschem Recht nicht präventiv, sondern nur ab Kenntnis von dem rechtswidrigen Post (§ 10 Telemediengesetz) und auch dann werden Inhalte nach Ansicht der Betroffenen nur zögerlich gelöscht.
Das Bundesjustizministerium (BMJV) hat nun den Entwurf eines Gesetzes mit dem bürokratischen Namen Netzwerkdurchsetzungsgesetz (NetzDG) vorgelegt. Damit sollen soziale Netzwerke zu einer zügigeren und umfassenderen Bearbeitung von Beschwerden, insbesondere über Hasskriminalität, angehalten werden.
Wen betrifft das Gesetz?
Betroffen sind "Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu machen". Journalistisch-redaktionell gestaltete Plattformen sollen nicht hierunter fallen ebenso wenig wie Anbieter mit weniger als zwei Millionen registrierten Nutzern im Inland. Das Gesetz gilt danach insbesondere für soziale Netzwerke wie Facebook, Twitter oder Instagram.
Welche Pflichten haben die Plattformanbieter?
Der Entwurf verlangt vom Anbieter die vierteljährliche Erstellung und Veröffentlichung eines deutschsprachigen Berichts über den Umgang mit Beschwerden von Nutzern über rechtswidrige Inhalte auf den Plattformen. Er muss insbesondere Angaben darüber enthalten, welche Anstrengungen der Anbieter des sozialen Netzwerks unternimmt, um strafbare Handlungen auf seinen Plattformen zu unterbinden.
Ferner muss der Anbieter ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden der Nutzer vorhalten. Dabei muss das Netzwerk im Wesentlichen drei Schritte beachten:
- Es muss zunächst unverzüglich von der Beschwerde Kenntnis nehmen und prüfen, ob der Inhalt rechtswidrig und zu entfernen ist.
- Offensichtlich rechtswidrige Inhalte muss die Plattform innerhalb von 24 Stunden nach Eingang der Beschwerde löschen.
- Bei sonstigen Inhalten, die nicht offensichtlich rechtswidrig sind, hat eine Löschung innerhalb von sieben Tagen zu erfolgen. Ein Inhalt ist offensichtlich rechtswidrig, wenn zur Feststellung der Strafbarkeit keine vertiefte Prüfung erforderlich ist.
Die entfernten Inhalte sind zu Beweiszwecken zu sichern und im Inland zu speichern. Zudem muss der Anbieter sowohl den Betroffenen als auch den Nutzer, dessen Inhalte gelöscht wurden, über die Entscheidung informieren und sie ihnen gegenüber begründen.
Interessant in diesem Zusammenhang sind auch die proaktiven Überwachungspflichten, die das soziale Netzwerk trifft: So müssen sämtliche auf den Plattformen befindliche Kopien des rechtswidrigen Inhalts ebenfalls unverzüglich entfernt oder gesperrt und wirksame Maßnahmen gegen die erneute Speicherung des rechtswidrigen Inhalts getroffen werden. Dies steht im Konflikt mit dem Telemediengesetz und der E-Commerce-Richtlinie, wonach Überwachungspflichten allgemeiner Art für Hosting Provider nicht bestehen.