Dies ist der dritte Teil einer vierteiligen Blogserie über das weltweite Vermittlerhaftungsrecht.  Weitere Beiträge können Sie hier lesen:

Die folgenden Beispiele beruhen in erster Linie auf Recherchen, die im Sommer 2021 abgeschlossen wurden. Aktualisierungen und Änderungen an den in diesem Beitrag erwähnten Rechtsvorschriften, die nach diesem Zeitpunkt vorgenommen wurden, sind im Folgenden möglicherweise nicht immer berücksichtigt.

Bislang haben wir uns mit der Geschichte der Plattformregulierung befasst und damit, wie die Elemente der Regulierung von Vermittlern von den politischen Entscheidungsträgern angepasst werden können. Werfen wir nun einen genaueren Blick auf einige Beispiele für kürzlich verabschiedete Gesetze und bevorstehende Regulierungsinitiativen aus der ganzen Welt, die einen Wandel in der Regulierung widerspiegeln. Diese Beispiele sollen keinen umfassenden Überblick über die Regulierung von Finanzintermediären geben, sondern einen Einblick in die Art und Weise geben, wie einige Kernprinzipien der Regulierung von Finanzintermediären durch unterschiedliche politische Agenden umgestaltet werden. Wir konzentrieren uns dabei hauptsächlich auf horizontale Haftungsregelungen und nicht auf sektorspezifische Vorschriften wie die im Bereich des Urheberrechts.

Aktuelle Entwicklungen aus aller Welt

Australien

Als Reaktion auf den Anschlag auf zwei Moscheen in Christchurch (Neuseeland) im Jahr 2019 hat Australien im März desselben Jahres Änderungen am Strafgesetzbuch vorgenommen. Das Gesetz erklärt das Teilen von „abscheulichem Videomaterial“ zu einer Straftat. Nach dem neuen Gesetz drohen Internetvermittlern bei jedem Verstoß Strafen von bis zu 10 % ihres Jahresumsatzes, wenn sie wissen, dass ihr Dienst für den Zugang zu solchem Material oder dessen Weitergabe genutzt werden kann, wenn sie solche Inhalte nicht „unverzüglich“ entfernen oder wenn sie den Strafverfolgungsbehörden die Einzelheiten solcher Inhalte nicht mitteilen. Das Gesetz definiert „abscheuliches gewalttätiges Material“ als Terrorismus, Mord, versuchter Mord, Folter, Vergewaltigung und Entführung. Die neue Gesetzgebung hat ein vergleichsweise strenges Regelwerk geschaffen, das Unternehmen dazu anhält, nutzergenerierte Inhalte aktiv zu überwachen.

Österreich

Nach dem NetzDG in Deutschland und dem Avia-Gesetz in Frankreich hat auch Österreich im September 2020 ein ähnliches Gesetz zum „Schutz der Nutzer von Kommunikationsplattformen” vorgeschlagen. Das Gesetz, das im Januar 2021 in Kraft trat, verpflichtet alle Online-Plattformen, die entweder einen Jahresumsatz von 500.000 Euro oder mehr oder mindestens 100.000 Nutzenden haben, „Inhalte, deren Rechtswidrigkeit bereits für einen juristischen Laien offensichtlich ist”, innerhalb von 24 Stunden und andere Arten von illegalen Inhalten innerhalb von sieben Tagen zu entfernen, nachdem die Plattform über deren Existenz informiert wurde, einschließlich Meldungen von Nutzenden. Erfolgt eine solche Entfernung nicht, können hohe Geldstrafen von bis zu einer, in schweren Fällen von bis zu 10 Millionen Euro verhängt werden. Geldstrafen können auch bei Nichteinhaltung zusätzlicher Verpflichtungen wie Meldesysteme, Kontaktstellen und Transparenzberichte verhängt werden. Sowohl der Anmelder als auch der Anzeiger haben die Möglichkeit, Rechtsmittel bei der zuständigen Medienaufsichtsbehörde (KommAustria) einzulegen. Die Transparenzberichte sind von der Plattform jährlich, bei Plattformen mit mehr als einer Million Nutzenden vierteljährlich, zu veröffentlichen. Die Nichteinhaltung der gesetzlichen Bestimmungen kann zur Beschlagnahme von Werbeeinnahmen und anderen Gewinnen von österreichischen Geschäftspartner*innen führen.

Brasilien

Im Mai 2020 brachte der brasilianische Senat einen neuen Gesetzentwurf zur Bekämpfung von Desinformation im Internet ein, nachdem Bedenken hinsichtlich der Rolle von „Fake News“ bei der Wahl von Präsident Jair Bolsonaro bei den Parlamentswahlen 2018 aufgekommen waren. Der Gesetzentwurf enthält Transparenzverpflichtungen, sowohl für Anzeigen als auch für die Moderation von Inhalten, sowie Anforderungen an ein ordnungsgemäßes Verfahren bei der Beschränkung von Inhalten und Konten. Die EFF hat gemeinsam mit Gruppen für digitale Rechte und Aktivist*innen gegen das Rückverfolgbarkeitsmandat für private Nachrichtendienste gearbeitet, das im aktuellen Text gestrichen wurde. Dennoch bleiben gefährliche Bestimmungen bestehen, zum Beispiel die Ausweitung der Verpflichtungen zur Vorratsdatenspeicherung, die die Identifizierung der Nutzenden einer IP-Adresse ermöglichen soll. Der Gesetzentwurf ändert nicht direkt den im brasilianischen Internetgesetz Marco Civil da Internet verankerten Safe Harbor, wonach Plattformen in der Regel (mit Ausnahmen für Urheberrechte und die unerlaubte Veröffentlichung privater Bilder, die Nacktheit und/oder sexuelle Handlungen enthalten) nur dann für Inhalte Dritter haftbar gemacht werden, wenn sie einer gerichtlichen Entscheidung zur Entfernung rechtsverletzender Inhalte nicht nachkommen. Dem Gesetzentwurf zufolge sind die Plattformen jedoch für Schäden, die durch bezahlte Inhalte verursacht werden, mitverantwortlich, wenn sie nicht bestätigen können, wer für das Konto, das die Anzeige bezahlt, verantwortlich ist. Das Gesetz gilt für soziale Netzwerke, Suchmaschinen und Instant-Messaging-Anwendungen mit wirtschaftlichem Zweck und mehr als zehn Millionen in Brasilien registrierten Nutzenden. Zu den Sanktionen bei Nichteinhaltung der Vorschriften gehört die vorübergehende Aussetzung oder das Verbot der Aktivitäten der Plattformen. Diese Sanktionen müssen durch einen Gerichtsbeschluss mit der absoluten Mehrheit der Mitglieder des Gerichts festgelegt werden. 

Kanada

Der vorgeschlagene kanadische Rechtsrahmen für schädliche Online-Inhalte sieht vor, dass Online-Plattformen Maßnahmen zur Erkennung schädlicher Inhalte ergreifen und auf von Nutzenden gemeldete Inhalte innerhalb von 24 Stunden reagieren müssen. Die Kategorie „schädliche Inhalte“ umfasst ausdrücklich auch Äußerungen, die zwar legal sind, aber möglicherweise verärgern oder verletzen können. Obwohl die Regierung in der Praxis keine obligatorischen Upload-Filter vorsieht, wird die Einhaltung der sehr kurzen Frist für die Beantwortung von Löschanträgen den Plattformen keine andere Wahl lassen, als auf eine wirksame Filterung von Nutzerinhalten zurückzugreifen. Darüber hinaus würde eine Kommission für digitale Sicherheit sicherstellen, dass die Plattformen ihren Verpflichtungen gemäß dem Vorschlag nachkommen. Plattformen, die die Vorschriften der Kommission nicht einhalten, müssten mit Strafen von bis zu drei Prozent der Bruttoeinnahmen des Anbieters oder bis zu 10 Millionen Dollar rechnen, je nachdem, welcher Betrag höher ist. Darüber hinaus wäre die Kommission befugt, jederzeit Inspektionen von OCSPs durchzuführen, „aufgrund von Beschwerden, Beweisen für die Nichteinhaltung von Vorschriften oder nach eigenem Ermessen der Kommission, um die Einhaltung des Gesetzes, der Vorschriften, Beschlüsse und Anordnungen im Zusammenhang mit einem regulierten OCS durch den OCSP zu überprüfen“.      

Europäische Union

Der neue EU-Gesetzentwurf für das Internet - der Digital Services Act (DSA) – versucht, klare Verantwortlichkeiten für Online-Plattformen mit starken Durchsetzungsmechanismen zu formulieren und gleichzeitig die Grundrechte der Nutzer*innen zu schützen. Der DSA fördert die Moderation von Inhalten nach dem Prinzip des guten Samariters und legt typ- und größenabhängige Sorgfaltspflichten fest, zu denen auch Verpflichtungen in Bezug auf die Transparenz der Moderationspraktiken, die algorithmische Kuratierung und die Melde- und Aktionsverfahren gehören. Durch die Fokussierung auf Prozesse und nicht auf Sprache bewahrt der DSA-Entwurf weitgehend die Hauptpfeiler der E-Commerce-Richtlinie, wie z. B. das Verbot der obligatorischen allgemeinen Überwachung dessen, was Nutzende online veröffentlichen und teilen, und die Beibehaltung des äußerst wichtigen Grundsatzes, dass in der Regel die sprechende Person für Äußerungen haftbar gemacht werden sollte und nicht die Plattformen, die das, was Nutzer*innen online veröffentlichen oder teilen, hosten.

Der ursprüngliche Vorschlag sah jedoch einen „Hinweis-gleich-Wissen“-Ansatz vor, nach dem ordnungsgemäß begründete Hinweise automatisch zu tatsächlicher Kenntnis des gemeldeten Inhalts führen. Da Host-Provider nur dann in den Genuss einer begrenzten Haftung für Inhalte Dritter kommen, wenn sie Inhalte, von denen sie „wissen“, dass sie illegal sind, zügig entfernen, werden die Plattformen keine andere Wahl haben, als Inhalte zu sperren, um der Haftungsgefahr zu entgehen. Der Standpunkt des Rates der EU geht auf die Gefahr des Overblocking ein, indem er klarstellt, dass nur Hinweise, anhand derer ein sorgfältiger Anbieter von Hosting-Diensten die Rechtswidrigkeit des Inhalts erkennen kann, die Folgen der Haftungsbestimmungen auslösen können. Das EU-Parlament zeigte zunächst Sympathie für kurze und strenge Entfernungsverpflichtungen und dafür, jede „aktive Plattform“ potenziell für die Kommunikation ihrer Nutzer*innen haftbar zu machen. Der federführende Ausschuss für Binnenmarktangelegenheiten (IMCO) billigte jedoch Regeln, die die traditionellen Haftungsausnahmen für Online-Vermittler beibehalten würden, und verzichtete auf die Einführung kurzer Fristen für die Entfernung von Inhalten. Diese Position wurde durch eine Plenarabstimmung im Januar 2022 bestätigt, bei der das Plenum des EU-Parlaments kurze Fristen für die Entfernung potenziell illegaler Inhalte ablehnte und sicherstellte, dass Plattformen nicht allein für die Überprüfung von Inhalten haftbar gemacht werden können. In der endgültigen Kompromissvereinbarung wurden die Grundsätze der Richtlinie über den elektronischen Geschäftsverkehr weitgehend beibehalten. Die Verhandlungsführenden billigten den Ansatz des Rates und stimmten zu, dass es relevant sein sollte, wenn sorgfältige Anbieter*innen genügend Informationen erhalten, um die Rechtswidrigkeit von Inhalten ohne eine „detaillierte rechtliche Prüfung“ zu erkennen. 

Frankreich

Im Juni 2020 trat in Frankreich das umstrittene Avia-Gesetz in Kraft. Das neue Gesetz verpflichtet die Vermittler sozialer Medien, offensichtlich illegale Inhalte innerhalb von 24 Stunden und Inhalte, die sich auf Terrorismus und Kindesmissbrauch beziehen, innerhalb einer Stunde zu entfernen. Das Gesetz zielt zwar auf die Bekämpfung von Hassreden ab, sein erweiterter Anwendungsbereich umfasst jedoch eine Reihe von Straftaten, von Inhalten, die terroristische Handlungen entschuldigen, bis hin zu Kriegsverbrechen und Verbrechen gegen die Menschlichkeit, um nur einige zu nennen. Als die französischen Senator*innen eine Klage beim Obersten Gerichtshof Frankreichs einreichten, tat sich die EFF mit französischen Verbündeten zusammen, um einen Amicus-Brief einzureichen. Wir argumentierten, dass das Avia-Gesetz aus mehreren Gründen gegen das EU-Recht verstößt. Die Intervention der EFF erwies sich letztlich als erfolgreich, da der Oberste Gerichtshof die Anforderungen des Gesetzes zur Entfernung rechtsverletzender Inhalte innerhalb von 24 Stunden aufhob, da er erkannte, dass sie Plattformen dazu ermutigen würden, völlig legale Inhalte zu entfernen.

Im Juli 2021 verabschiedete die Nationalversammlung neue Vorschriften zur Regulierung von Plattformen und zur vorzeitigen Umsetzung einiger Bestimmungen des vorgeschlagenen EU-Gesetzes über digitale Dienste. Das „Gesetz über die Grundsätze der Republik, das Ergebnis eines umstrittenen Vorschlags, der auf den politischen Islam abzielte, enthält Bestimmungen zur Bekämpfung von Hassreden und illegalen Online-Inhalten. Es enthält Verpflichtungen für Plattformen in Bezug auf Transparenz, Inhaltsmoderation und Zusammenarbeit mit den Behörden. Die Nichteinhaltung kann zu hohen Sanktionen führen, die von der ARCOM, der Regulierungsbehörde für audiovisuelle und digitale Kommunikation, verhängt werden.

Deutschland

Im Oktober 2017 ist in Deutschland das Netzwerkdurchsetzungsgesetz (kurz: NetzDG) in Kraft getreten. Seitdem wurde es zweimal geändert. Ähnlich wie das französische Avia-Gesetz, dem es vorausging, zielt das Gesetz darauf ab, „Hassreden“ und illegale Inhalte in sozialen Netzwerken zu bekämpfen. Das Gesetz führt eine Reihe von Sorgfaltspflichten für soziale Medienplattformen mit mehr als 2 Millionen registrierten Nutzenden ein. Diese Plattformen sind verpflichtet, ein Melde- und Aktionssystem einzuführen, das den Nutzer*innen „einfach zu bedienende“ Mechanismen bietet, um potenziell illegale Inhalte zu melden. Die Plattformen müssen auch Rechtsbehelfsmöglichkeiten für Fälle anbieten, in denen Nutzende glauben, dass ihre Inhalte zu Unrecht entfernt wurden, einschließlich eines freiwilligen außergerichtlichen Streitbeilegungssystems. Schließlich wurde mit dem Gesetz eine umfassende Verpflichtung zur transparenten Berichterstattung über die Entfernung von Inhalten eingeführt.

Vor allem verpflichtet das NetzDG die Plattformen, offenkundig rechtswidrige Inhalte innerhalb von 24 Stunden, nachdem sie darüber informiert wurden, zu entfernen oder den Zugang zu ihnen zu sperren. Ist der Inhalt nicht offensichtlich rechtswidrig, müssen die Anbieter sozialer Medien den betreffenden Beitrag innerhalb von sieben Tagen entfernen. Die Nichteinhaltung kann zu erheblichen Bußgeldern führen.

Während der überstürzten Gesetzgebungsdebatte, die das ursprüngliche NetzDG begleitete, wurde das Gesetz in Deutschland und im Ausland heftig kritisiert. Die meisten Kritiker argumentierten, dass die strengen Fristen, innerhalb derer die Plattformen Inhalte entfernen müssen, keine ausgewogene rechtliche Analyse zulassen und daher zu unrechtmäßigen Sperrungen führen können. Zwar meldeten die Social-Media-Unternehmen weniger Meldungen von Inhalten nach dem NetzDG als erwartet (obwohl ihre Methodik zur Bewertung und Zählung der Meldungen unterschiedlich ist), doch gibt es Hinweise darauf, dass das Gesetz tatsächlich zu einer Übersperrung führt. Darüber hinaus gibt es erhebliche Fragen hinsichtlich der Vereinbarkeit des Gesetzes (oder des Fehlens einer solchen) mit europäischem Recht. Es gibt auch Bedenken, dass die Meldung von Inhalten für nicht deutschsprachige Personen besonders schwierig ist, obwohl das NetzDG rechtlich vorschreibt, dass die Beschwerdeverfahren „leicht zu handhaben“ sein müssen. Über seine Auswirkungen in der EU hinaus hat das NetzDG Nachahmergesetze in Ländern rund um den Globus inspiriert. Einer aktuellen Studie zufolge haben mindestens dreizehn Länder, darunter Venezuela, Australien, Russland, Indien, Kenia und Malaysia, seit Inkrafttreten des Gesetzes Gesetze vorgeschlagen, die dem NetzDG ähnlich sind.

Seit seiner Verabschiedung ist das NetzDG zweimal geändert worden. Im Juni 2020 verabschiedete der Deutsche Bundestag ein Maßnahmenpaket zur Bekämpfung von „Hasskriminalität“ und Hassreden. Nach den neuen Rechtsvorschriften müssen Plattformen Inhalte, die nach deutschem Strafrecht illegal sein könnten, an das Bundeskriminalamt weiterleiten, wo eine neue Datenbank/Behörde eingerichtet wird. Die Nutzer*innen werden vor der Weiterleitung ihrer Inhalte nicht um ihre Zustimmung gebeten, und es gibt auch keine Meldefristen. Das Paket umfasst auch Änderungen am deutschen Strafgesetzbuch. Nachdem erhebliche Bedenken hinsichtlich der Verfassungsmäßigkeit der vorgeschlagenen Vorschriften aufgekommen waren, wurde das Gesetz im April 2021 verspätet verabschiedet, so dass die neuen Verpflichtungen ab Februar 2022 gelten. Im Mai 2021 verabschiedete der Deutsche Bundestag außerdem ein Gesetz zur offiziellen Änderung des NetzDG, mit dem unter anderem bessere Rechtsbehelfsmöglichkeiten für Nutzer*innen und Verpflichtungen für Plattformen, Forscher*innen Zugang zu Daten zu gewähren, eingeführt wurden. Das Gesetz ist im Juni 2021 in Kraft getreten.

Indien

Im Februar 2021 führte die indische Regierung die Richtlinien für Intermediäre und die Regeln für den Ethikkodex für digitale Medien ein (untergeordnete Gesetzgebung im Rahmen des Information Technology Act, 2000), die die vorherigen Intermediärsregeln von 2011 ersetzen. In den Regeln von 2021 werden Vermittelnde in zwei Kategorien eingeteilt – Vermittelnde sozialer Medien und bedeutende Vermittelnde sozialer Medien (solche mit 5 Millionen oder mehr registrierten Nutzenden in Indien). Alle Vermittelnden sozialer Medien unterliegen erweiterten Sorgfaltspflichten, deren Nichteinhaltung den Verlust des datenschutzbezogener Vorteile („Safe Harbor Abkommen“) und potenzielle strafrechtliche Maßnahmen zur Folge hat. Bedeutende Social-Media-Vermittelnde unterliegen zusätzlichen Sorgfaltspflichten, die proaktive Überwachungspflichten, erweiterte Anforderungen an das Personal vor Ort und eine Rückverfolgbarkeitsanforderung für verschlüsselte private Nachrichtenplattformen umfassen. Jüngste Berichte in den indischen Medien beschreiben, dass Twitter den Vermittlerstatus verloren hat, weil es den Verpflichtungen der neuen Regeln nicht nachgekommen ist. Offiziellen Angaben zufolge ist Twitter damit potenziellen strafrechtlichen Maßnahmen für Nutzerinhalte ausgesetzt. 

Indonesien

Am 24. November 2020 erließ Indonesien die Ministerialverordnung Nr. 5, die darauf abzielt, den Zugriff der Regierung auf digitale Inhalte und Nutzerdaten zu verschärfen, die sich im Besitz von „Betreibern elektronischer Systeme“ (ESOs) befinden, sofern sie von Indonesien aus zugänglich sind. Zu den ESOs gehören soziale Medien und andere Plattformen zum Austausch von Inhalten, digitale Marktplätze, Suchmaschinen, Finanzdienstleistungen, Anbieter von Datenverarbeitungs- und Kommunikationsdiensten, Videoanrufe und Online-Spiele. Um in Indonesien tätig sein zu können, müssen sich ESOs gemäß MR5, das rückwirkend bis November 2020 in Kraft tritt, beim indonesischen Ministerium für Kommunikation und Informationstechnologie (Kominfo) registrieren lassen und ein ID-Zertifikat erhalten. Diejenigen, die sich nicht bis zum 24. Mai 2021 registrieren lassen, werden in Indonesien gesperrt. Diese Registrierungsfrist wurde um weitere sechs Monate verlängert. ESOs sind gezwungen, verbotene Inhalte zu löschen – darunter vage Kategorien wie alles, was „öffentliche Unruhe“ verursacht. MR5 gibt Kominfo außerdem die uneingeschränkte Befugnis, diese Begriffe zu definieren. ESOs müssen sicherstellen, dass ihre Plattform keine verbotenen Inhalte enthält oder erleichtert – eine allgemeine Verpflichtung zur Überwachung von Inhalten. Die Nichteinhaltung der MR5-Verpflichtungen kann von der vorübergehenden bis zur vollständigen Sperrung des Dienstes und dem Entzug der Registrierung reichen.

Neuseeland

Ebenfalls als Reaktion auf die Schießerei in der Moschee von Christchurch hat Neuseeland einen Gesetzentwurf zur Änderung des Gesetzes zur Klassifizierung von Filmen, Videos und Veröffentlichungen von 1993 vorgelegt. Der Gesetzentwurf sieht vor, dass das Livestreaming von gewalttätigen Inhalten für Einzelpersonen, die solche Inhalte streamen, eine Straftat darstellt (nicht für Vermittelnde, die diese Inhalte hosten), sieht aber auch vor, dass ein*e Inspektor*in für Veröffentlichungen in der Lage wäre, Benachrichtigungen über die Entfernung von anstößigen Inhalten auszustellen. Die Aufforderungen zur Entfernung von Inhalten würden an Vermittelnde gerichtet, die die betreffenden Inhalte nicht freiwillig entfernen, und die Nichtentfernung von Inhalten gemäß einer Aufforderung zur Entfernung von Inhalten könnte zu Geldstrafen für die betreffenden Vermittelnden führen. Der Gesetzentwurf ermöglicht es dem Hauptzensor (”Chief Censor“) außerdem, in Situationen, in denen die plötzliche virale Verbreitung von Inhalten, die möglicherweise anstößig sind oder Schaden anrichten können, eine schnelle, zeitlich begrenzte vorläufige Einstufung jeder Veröffentlichung vorzunehmen. Der Gesetzentwurf, der es den neuseeländischen Justizbehörden ermöglicht, Geldstrafen gegen nicht konforme Plattformen zu verhängen, wurde im November 2021 verabschiedet.

Pakistan

Im Jahr 2020 führte Pakistan die „Citizen Protection (Against Online Harm) Rules“ ein, die den Unternehmen der sozialen Medien Verpflichtungen auferlegten. Die ursprüngliche Fassung der Vorschriften übertrug eine*m*r „Nationalen Koordinator*in“ weitreichende Befugnisse zur Sperrung und Entfernung von Inhalten und verpflichtete Vermittelnde, Inhalte innerhalb von 24 Stunden zu entfernen, sobald sie über die fraglichen Inhalte informiert wurden. Diese Frist konnte im Falle eines „Notfalls“, der nicht definiert wurde, auf sechs Stunden verkürzt werden. Diese Version der Regeln wurde nach einem Aufschrei der Zivilgesellschaft, die sich über das Fehlen eines Konsultationsprozesses bei der Ausarbeitung der ersten Version der Regeln beklagte und argumentierte, dass sie einigen in der Verfassung garantierten Rechten widersprechen, zur erneuten Prüfung ausgesetzt. In einer später im selben Jahr veröffentlichten Fassung der Regeln wurde das Gremium des Nationalen Koordinators abgeschafft und die Befugnisse stattdessen auf die pakistanische Telekommunikationsbehörde (PTA) übertragen, aber das kurze Zeitfenster, in dem Vermittelnde die gemeldeten Inhalte löschen müssen, wurde beibehalten. Das Gesetz enthält auch Bestimmungen, die Vermittelnde dazu verpflichten, „proaktive Mechanismen“ einzusetzen, um das Livestreaming von Material zu verhindern, das als ungesetzlich angesehen wird – insbesondere „Inhalte im Zusammenhang mit Terrorismus, Extremismus, Hassreden, Verleumdung, Fake News, Aufstachelung zur Gewalt und nationaler Sicherheit“. Darüber hinaus ist vorgesehen, entschlüsselte Nutzerdaten ohne richterliche Aufsicht an Behörden weiterzugeben. Bei Nichteinhaltung drohen den Vermittelnden hohe Geldstrafen, und ganze Plattformen können gesperrt werden. Die pakistanische Regierung hat die Regeln im November 2021 erneut überarbeitet, wobei die jüngste Fassung den Plattformen 48 Stunden Zeit gibt, um einer Entfernung oder Sperrung durch die PTA nachzukommen, und nur 12 Stunden, wenn es sich um dringende Anfragen handelt.

Polen

Im Januar 2021 schlug das polnische Justizministerium die Einführung eines „Anti-Zensur“-Gesetzes vor, um soziale Medienplattformen daran zu hindern, von polnischen Nutzenden eingestellte Inhalte zu löschen oder die Nutzenden zu sperren, wenn ihre Inhalte nicht gegen polnische Gesetze verstoßen. Der Entwurf des polnischen Gesetzes sieht vor, dass Inhalte durch ein Berufungsverfahren unter der Leitung eines Rates für Meinungsfreiheit wieder zugelassen werden. Der Rat, der wahrscheinlich politisch beeinflusst sein wird, ist für den Schutz der Meinungsäußerung in sozialen Medien zuständig und wird bei Nichteinhaltung hohe Geldstrafen verhängen. Die Plattformen müssen innerhalb von 48 Stunden auf Beschwerden von Nutzer*innen über Sperrungen oder die Löschung von Inhalten reagieren. Die Nutzenden können gegen Entscheidungen der Plattformen beim Rat für Meinungsfreiheit Einspruch erheben, der die Wiedereinsetzung anordnen kann. Anordnungen zur Wiedereinsetzung müssen innerhalb von 24 Stunden befolgt werden; andernfalls können hohe Geldstrafen verhängt werden. Angesichts des laufenden Reformprozesses der E-Commerce-Richtlinie auf EU-Ebene hat das zuständige Ministerium seine Bemühungen darauf gerichtet, Einfluss auf die Gestaltung des vorgeschlagenen Gesetzes über digitale Dienste zu nehmen.

Russland

Im Dezember 2020 wurde das russische Bundesgesetz über Information, Informationstechnologien und Informationsschutz dahingehend geändert, dass soziale Medienplattformen verpflichtet sind, verbotene Inhalte proaktiv zu finden und zu entfernen. In der Zwischenzeit sieht das russische Verwaltungsgesetz in Artikel 13 Geldstrafen für Internetdienste vor, die sich nicht an die Gesetze zur Entfernung von Inhalten halten. Das Gesetz über Informationen, Informationstechnologien und Informationsschutz gilt für alle Internetressourcen mit mehr als 500.000 Nutzende pro Tag, die über eine persönliche Seite mit der Möglichkeit zur Verbreitung von Informationen verfügen. Die Liste der verbotenen Materialien umfasst: pornografische Bilder von Minderjährigen; Informationen, die Kinder zu lebensgefährlichen und illegalen Handlungen auffordern; Informationen über die Herstellung und den Konsum von Drogen; Informationen über Selbstmordmethoden und Aufrufe dazu; Werbung für den Fernverkauf von Alkohol und Online-Casinos; Informationen, die eine klare Missachtung der Gesellschaft, des Staates und der Verfassung der Russischen Föderation zum Ausdruck bringen, sowie alle Inhalte, die als Aufrufe zu Unruhen, Extremismus und zur Teilnahme an unkoordinierten öffentlichen Veranstaltungen gelten. Im März 2021 nutzte die russische Behörde, die für die Einhaltung der Medien- und Telekommunikationsgesetze zuständig ist, das Gesetz, um die Drosselung von Twitter auf „100 Prozent der mobilen Dienste und 50 Prozent der Desktop-Dienste“ zu rechtfertigen, weil das Social-Media-Unternehmen Inhalte, die die Behörden als rechtswidrig erachteten, nicht gelöscht hatte.

Türkei

Als weiteres Beispiel für die Ausstrahlungseffekte des NetzDG hat die Türkei im August 2020 ein Gesetz verabschiedet, das die Struktur des NetzDG widerspiegelt, aber deutlich weiter in Richtung Zensur geht. Das Gesetz schreibt vor, dass Social-Media-Plattformen mit mehr als einer Million täglichen Nutzer*innen eine lokale Vertretung in der Türkei benennen müssen. Aktivist*innen befürchten, dass dieser Schritt es der Regierung ermöglicht, noch mehr Zensur und Überwachung zu betreiben. Wird keine lokale Vertretung ernannt, kann dies zu Werbeverboten, hohen Strafen und – was am beunruhigendsten ist – zu einer Verringerung der Bandbreite führen. Die Gesetzgebung führt neue Befugnisse für Gerichte ein, um Internetprovider anzuweisen, die Bandbreite von Social-Media-Plattformen um bis zu 90% zu drosseln und den Zugang zu diesen Seiten praktisch zu blockieren. Lokale Vertretungen werden damit beauftragt, auf staatliche Aufforderungen zur Sperrung oder Abschaltung von Inhalten zu reagieren. Das Gesetz sieht vor, dass Unternehmen verpflichtet sind, Inhalte, die angeblich die „Persönlichkeitsrechte“ und die „Privatsphäre des persönlichen Lebens“ verletzen, innerhalb von 48 Stunden nach Erhalt eines Gerichtsbeschlusses zu entfernen, andernfalls drohen hohe Geldstrafen. Es enthält auch Bestimmungen, die soziale Medienplattformen verpflichten würden, die Daten der Nutzer lokal zu speichern, was die Befürchtung aufkommen lässt, dass die Anbietenden gezwungen wären, diese Daten an die Behörden zu übermitteln, was nach Ansicht von Expert*innen die ohnehin schon weit verbreitete Selbstzensur der türkischen Nutzenden sozialer Medien noch verschärfen würde.

Vereinigtes Königreich

Im Mai 2021 veröffentlichte die britische Regierung einen Entwurf ihres Gesetzes zur Online-Sicherheit, mit dem illegale und anderweitig schädliche Online-Inhalte bekämpft werden sollen, indem Online-Plattformen eine Sorgfaltspflicht auferlegt wird, ihre Nutzer*innen vor solchen Inhalten zu schützen. Das neue Gesetz zur Online-Sicherheit baut auf früheren Vorschlägen der Regierung zur Einführung einer Sorgfaltspflicht für Online-Anbieter auf, die in ihrem Weißbuch vom April 2019 und ihrer Antwort auf eine Konsultation vom Dezember 2020 dargelegt wurden.

Der Gesetzentwurf ist weit gefasst und gilt nicht nur für „User-to-User-Dienste“ (Unternehmen, die es Nutzenden ermöglichen, Inhalte zu erstellen, hochzuladen und mit anderen Nutzenden zu teilen), sondern auch für Suchmaschinenanbieter. Die neue gesetzliche Sorgfaltspflicht wird vom britischen Amt für Kommunikation (BAKOM) überwacht, das befugt ist, hohe Geldstrafen zu verhängen und den Zugang zu Websites zu sperren. Zu den zentralen Fragen, die die Auswirkungen des Gesetzes auf die Meinungsfreiheit bestimmen werden, gehört das Konzept des „schädlichen Inhalts“. Im Gesetzesentwurf wird ein weit gefasster und vager Begriff für schädliche Inhalte gewählt: Äußerungen, die aus der Sicht des Anbieters „erhebliche nachteilige physische oder psychische Auswirkungen“ auf die Nutzer*innen haben könnten. Die große Subjektivität, die mit der Einhaltung der Sorgfaltspflicht verbunden ist, wird unweigerlich zu einer übermäßigen Entfernung von Äußerungen und einer uneinheitlichen Moderation von Inhalten führen.

In Bezug auf illegale Inhalte umfassen die „Pflichten für illegale Inhalte“ die Verpflichtung der Plattformbetreiber, das Vorhandensein so genannter "prioritärer illegaler Inhalte" zu minimieren, die durch eine künftige Verordnung definiert werden sollen, sowie die Verpflichtung, illegale Inhalte zu entfernen, sobald sie bekannt werden. Der Gesetzentwurf weicht damit von der EU-Richtlinie über den elektronischen Geschäftsverkehr (und dem vorgeschlagenen Gesetz über digitale Dienste) ab, die den Plattformen keine Verpflichtung zur Entfernung von Inhalten auferlegt. Bei der Frage, was einen illegalen Inhalt darstellt, werden die Plattformen als erste in die Pflicht genommen: Ein Inhalt gilt als illegal, wenn der Dienstanbieter „vernünftige Gründe“ für die Annahme hat, dass der betreffende Inhalt eine relevante Straftat darstellt.

Vereinigte Staaten

Nach US-Recht wird das Ausmaß der Haftung von Online-Vermittlern für die Veröffentlichung von Nutzeräußerungen im Wesentlichen durch einen dreifachen Ansatz bestimmt. Erstens haften die Vermittelnden in vollem Umfang für Verstöße ihrer Nutzer*innen gegen das Bundesstrafrecht. Zweitens unterliegen Ansprüche wegen Verletzung von Bundesgesetzen zum Schutz des geistigen Eigentums dem Notice-and-Takedown-System des Digital Millennium Copyright Act, insbesondere 17 U.S.C. § 512(c). Gemäß dieser Regelung muss ein Vermittelnder, die*der eine Mitteilung über rechtsverletzendes Material erhält, „unverzüglich handeln, um das Material zu entfernen oder den Zugang dazu zu sperren“. Drittens sind Vermittelnde für alle anderen Haftungsfälle, die sich aus der Veröffentlichung von Nutzeräußerungen ergeben, gemäß Abschnitt 230 immunisiert – dem Gesetz, auf das in rechtsvergleichenden Analysen am häufigsten Bezug genommen wird. Abschnitt 230 immunisiert alle Arten traditioneller Veröffentlichungsaktivitäten, einschließlich der Auswahl, welche Nutzeräußerungen aufgenommen werden sollen und welche nicht, der Bearbeitung (solange die Bearbeitung selbst die Äußerung nicht einklagbar macht) und der Ausrichtung auf die wahrscheinlich empfänglichsten Zielgruppen. Abschnitt 230 sieht auch eine gesetzliche Immunität für jegliche Haftung vor, die sich aus der Verweigerung der Bereitstellung eines Kontos oder der Veröffentlichung von Nutzerinhalten ergibt. Auch der erste Zusatzartikel der US-Verfassung schützt solche redaktionellen Entscheidungen.

 In den letzten Jahren wurde im US-Kongress viel über eine Änderung von Abschnitt 230 diskutiert. Diese Bemühungen verfolgen im Großen und Ganzen einen der folgenden Ansätze: (1) Ausarbeitung zusätzlicher Ausnahmen für bestimmte Rechtsansprüche – ein früherer Versuch, FOSTA/SESTA, der die Immunität von Vermittlern gegen bestimmte straf- und zivilrechtliche Ansprüche im Zusammenhang mit der Bereitstellung von Online-Inhalten, die den Sexhandel oder die Prostitution widerspiegeln, aufhob, ist Gegenstand einer laufenden rechtlichen Anfechtung; (2) Ersetzung der Immunität durch eine Sorgfaltspflicht, die der Vermittler erfüllen muss, um von der Haftung freigestellt zu werden; oder (3) Konditionierung der Immunität von der Annahme bestimmter Richtlinien und Verfahren.

Im nächsten und letzten Teil dieser Blogserie werden wir unsere Schlussfolgerungen darlegen und Empfehlungen für die künftige Regelung der Plattformhaftung aussprechen.  Die anderen Blogs in dieser Reihe finden Sie hier:

Teil 1: Von sicheren Häfen zu erhöhter Haftung

Teil 2: Taxonomie, Tools und eine Zeitleiste der Trends

 

Related Issues