Der Digital Services Act – das neue europäische Plattform-Grundgesetz?

Ein Walkthrough mit Einordnungen – Teil I

Die Europäische Kommission hat im Dezember 2020 mit ihrem Vorschlag des Digital Services Acts (DSA) ein ambitioniertes Gesetzespaket vorgelegt, das – in Verbindung mit dem Digital Markets Act (DMA) – die Regulierung digitaler Dienste und Märkte in der Europäischen Union grundsätzlich neu organisieren soll. Obwohl in den letzten Jahren mehrere Vorhaben zur Regulierung des digitalen Binnenmarkts umgesetzt wurden – wie etwa die Platform-to-Business-Verordnung, die umstrittene Urheberrecht-Richtlinie oder die Richtlinie zu Audiovisuellen Medien – galt bis jetzt die über 20 Jahre alte E-Commerce-Richtlinie als das Herzstück der europäischen Internetregulierung.

Der DSA soll jetzt die grundlegenden Regeln für Anbieter:innen digitaler Dienste modernisieren und in diesem Zuge eine Reihe neuer Sorgfaltspflichten für bestimmte Dienste einführen. Der DSA lässt sich demnach grob in drei Kategorien unterteilen: 1) allgemeine Regeln für alle “Anbieter von Vermittlungsdiensten”, seien es Content Delivery Networks, Webhoster oder soziale Netzwerke, 2) zusätzliche Sorgfaltspflichten für Online-Plattformen, und 3) weitere zusätzliche Sorgfaltspflichten für sehr große Online-Plattformen (VLOPS, “very large online platforms”). Unsere Stellungnahme zum DSA wird dieser Unterteilung folgen, dementsprechend nehmen wir in diesem ersten Beitrag das Grundgerüst des DSA, die allgemeinen Regeln für alle “Vermittlungsdienste”, genauer unter die Lupe.

Bei Vermittlungsdiensten wird unterschieden zwischen reiner Durchleitung, Caching und Hosting. Reine Durchleitung erfolgt beispielsweise durch Telekommunikationsprovider, die Inhalte nur weiterleiten, ohne sie zu speichern. Caching-Dienstleister wie Content-Delivery-Networks speichern den Inhalt temporär, um die Übermittlung an die empfangende Person effektiver zu gestalten. Hosting liegt vor, wenn Inhalte dauerhaft für eine andere Person gespeichert werden, also bspw. bei sozialen Netzwerken oder Cloud-Anbieterinnen. Die genauen rechtlichen Definitionen findest du in Artikel 2 f) des Entwurfs für einen Digital Service Act.

Grundsätzlich begrüßt D64 – Zentrum für digitalen Fortschritt den Vorschlag der Europäischen Kommission ausdrücklich. In den vergangenen Jahren haben einige Mitgliedstaaten der EU nationale Gesetzgebung auf den Weg gebracht, um den digitalen öffentlichen Raum zu regulieren. Viele dieser Gesetze, wie etwa das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) oder das französische Avia-Gesetz, schießen dabei jedoch über ihr Ziel – die Verbreitung illegaler Inhalte im Netz einzudämmen – hinaus. Durch knappe Fristen für die Prüfung und Entfernung potenziell illegaler Inhalte schaffen diese Gesetze einseitige Anreize für soziale Netzwerken, Inhalte so schnell wie möglich zu entfernen, und können dadurch Grundrechte wie die Meinungsfreiheit unterminieren. Zudem macht das Internet nicht an nationalen Grenzen halt. Die Initiativen einzelner Mitgliedstaaten zur Regulierung des Netzes tragen zu einem wachsenden Flickenteppich an Gesetzgebung bei, die im Internet gelten soll. Das hilft weder Nutzer:innen, sich in dem Dschungel von Regeln zurechtzufinden, noch trägt es zu einer flächendeckenden Durchsetzung der Regeln gegenüber den betroffenen Unternehmen bei. Deshalb unterstützen wir den Ansatz der Europäischen Kommission, einheitliche Regeln in Europa für die digitale Öffentlichkeit zu schaffen. Nichtsdestotrotz enthält der DSA auch einige Aspekte, die derzeit noch unklar formuliert oder unserer Meinung nach kritikwürdig sind. Diese stellen wir im Folgenden vor:

Für wen soll der DSA gelten?

In der derzeitigen Debatte dreht sich vieles um die “klassischen” sozialen Netzwerke. Im Detail bleibt aber leider unklar, welche Dienste von dem Gesetzgebungsvorhaben alles erfasst werden sollen. Während es zum Beispiel in Erwägungsgrund 14 explizit heißt, dass Dienste im Sinne des European Electronic Communications Code (EECC), wie E-Mail- oder Instant-Messaging-Anbieterinnen, nicht erfasst sind, findet sich eine entsprechende Regelung nicht im eigentlichen Gesetzestext. Auch in den Mitgliedsstaaten scheint dies derzeit noch unklar zu sein. So geht das Bundesjustizministerium bspw. davon aus, dass auch Messenger wie Telegram durch den DSA reguliert werden.

Praktisch ist das von entscheidender Bedeutung: Gerade die Corona-Pandemie hat gezeigt, wie sich der digitale öffentliche Austausch von Twitter und Facebook zu halböffentlichen Foren wie Whatsapp-Gruppen oder Telegram-Channels mit teilweise Tausenden von Mitgliedern verschiebt. Diese Orte sind entscheidend für die Verbreitung von Desinformation, Verschwörungserzählungen und Hass gegen Politiker:innen oder Wissenschaftler:innen und müssen deshalb bei einer umfassenden Regelung des digitalen öffentlichen Raumes, wie sie der DSA sein soll, beachtet werden. Hier ist es Aufgabe des europäischen Gesetzgebers, klar zu definieren, was Teil des digitalen öffentlichen Raumes und was zur privaten Kommunikation gehört.

Welche Anbieter:innen sind wann für welche Inhalte haftbar?

Bei der Frage nach der Haftung verschiedener Anbieter:innen übernimmt der DSA in den Artikeln 3 bis 5 das gestufte System der E-Commerce-Richtlinie. Demnach sind Dienste, die auf der reinen Durchleitung, bzw. dem Caching von Inhalten basieren, in weiten Teilen von der Haftung für illegale Inhalte, die von ihren Nutzer:innen über sie verbreitet werden, ausgeschlossen. Auch bei Diensten, die auf der Speicherung der von Nutzer:innen bereitgestellten Informationen basieren, haften Anbieter:innen erst nachdem sie “tatsächliche Kenntnis” von einem illegalen Inhalt haben. Wir begrüßen die Beibehaltung der etablierten Haftungsregeln, auch wenn einige Probleme, die auch schon im Kontext der E-Commerce-Richtlinie aufgetreten sind und auf die wir im Folgenden eingehen, bestehen bleiben.

Und was ist mit Upload-Filtern?

Mit dem neu eingeführten Artikel 6 schlägt die Kommission grundsätzlich weitere Sicherheiten für Anbieter:innen vor, die freiwillig gegen illegale Inhalte auf ihren Diensten vorgehen wollen. Diese können nicht alleine deswegen für die Inhalte auf ihren Plattformen haftbar gemacht werden, weil sie Monitoring-Maßnahmen betreiben. Man spricht deshalb von einer “Good Samaritan Clause”, weil Anbieter:innen, die selbstständig nach illegalen Inhalten suchen (“Good Samaritans”), vor einer Haftung aufgrund dieser Maßnahmen geschützt werden. Sie schafft daher einen Anreiz für Anbieter:innen, illegale Inhalte eigeninitiativ zu ermitteln und den Zugang zu ihnen zu erschweren bzw. zu verhindern. Umstritten ist jedoch, wie weit der Haftungsausschluss geht. Zwar muss kein Dienst aufgrund der Maßnahmen selbst haften, erhält er aber durch die Maßnahmen Kenntnis von rechtswidrigen Inhalten, muss er wohl unverzüglich den Zugriff auf die Inhalte sperren, um sich auf die Haftungsprivilegierung der Artikel 3 bis (insbesondere) 5 berufen zu können. Tut er das nicht, haftet der Dienst also – mittelbar – doch aufgrund seines eigentlich geschützten Verhaltens.

Zudem steht Artikel 6 in einer spannenden – und spannungsgeladenen – Beziehung mit Artikel 7, in dem der DSA einen weiteren Grundpfeiler der E-Commerce-Richtlinie übernimmt: Das Verbot, Anbieter:innen zu einer generellen Überwachung der Inhalte ihrer Nutzer:innen zu verpflichten, also Uploadfilter gesetzlich vorzuschreiben. Während Artikel 7 also eine – staatlich angeordnete – (automatisierte) Überwachung von Inhalten, die Nutzer:innen hochladen, verbietet, ermuntert Artikel 6 durch seine Haftungsprivilegierung die Dienste dazu, solche Mechanismen auf freiwilliger Basis einzusetzen. Automatische Filtermechanismen bergen jedoch stets die Gefahr, dass sie die faktische Meinungsfreiheit übermäßig einschränken, weil sie bspw. die zulässige künstlerische Verwertung von urheberrechtlich geschützten Material, Satire oder den Kontext von Meinungsäußerungen nicht richtig erkennen.

Löschaufforderungen nationaler Behörden

Artikel 8 und 9 legen fest, wie Anbieter:innen von Vermittlungsdiensten auf staatliche Anordnungen zum Umgang mit illegalen Inhalten und Auskunftsverlangen reagieren müssen. Insbesondere werden sie verpflichtet, auf Anordnung von Justiz- und Verwaltungsbehörden gegen Inhalte vorzugehen, die nach nationalem oder Unionsrecht illegal sind. Ebenso müssen sie der anordnenden Behörde umgehend mitteilen, welche Maßnahmen in diesem Zusammenhang ergriffen wurden. Die staatlichen Anordnungen müssen dabei eine Reihe verschiedener Anforderungen erfüllen. Insbesondere müssen sie enthalten, aus welchem Grund die betroffenen Inhalte illegal sind sowie Informationen zum räumlichen Geltungsbereich der Anordnung. Eine ähnliche Regelung gilt für Auskunftsanordnungen, mittels derer Behörden Informationen zu einzelnen oder mehreren Nutzer:innen anfordern. Komplementiert werden diese Regelungen durch ein Melde- und Abhilfeverfahren für andere Nutzer:innen und Einrichtungen (Artikel 14 und 15).

Eine solche Regelung ist grundsätzlich zu begrüßen, da sie die Interaktion staatlicher Stellen und der Anbieter:innen klarer regelt und auf eine europaweit einheitliche Grundlage stellt. Eindeutig illegale Inhalte – wie etwa terroristische Inhalte oder Darstellungen sexualisierter Gewalt gegen Kinder – werden so leichter gelöscht. Allerdings eröffnen sich hierdurch auch einige Probleme. Zum einen birgt die Möglichkeit für Verwaltungsbehörden, solche Anordnungen zu erlassen, ein erhebliches Potenzial für Willkür und Missbrauch. Im Gegensatz zu richterlichen Anordnungen verfügen etwa Polizei- und Sicherheitsbehörden (und spezifisch für diesen Zweck eingerichtete “Internet Referral Units”) keine rechtliche Deutungshoheit darüber, welche Inhalte illegal sind und welche nicht. Zwar mag eine solche Feststellung in einigen Fällen gänzlich unstrittig sein, kann in anderen Fällen aber zum Beispiel zu einer Beschränkung der Meinungsfreiheit führen.

Beispielsweise sperrte Twitter in Indien im Februar auf ministerielle Anordnung eine Reihe von Accounts, unter anderem von regierungskritischen Journalist:innen, Politiker:innen, Aktivist:innen und Prominenten – und nahm einige dieser Sperrungen kurz darauf zurück. Die Begründung: Twitter halte die Anordnung nicht für vereinbar mit indischem Recht. Auch in Europa ist ein solcher Missbrauch der entsprechenden im DSA vorgeschlagenen Regelungen vorstellbar – etwa durch EU-Mitgliedstaaten, in denen gezielt die Rechtsstaatlichkeit und die Rechte von Minderheiten untergraben werde. Gegen illegale Inhalte gerichtete Anordnungen sollten deshalb grundsätzlich Gerichten vorbehalten sein. Wenn überhaupt sollten Anordnungen durch Verwaltungsbehörden nur in wenigen, eindeutigen Ausnahmefällen möglich sein.

Darüber hinaus bleiben Artikel 8 und 9 in vielerlei Hinsicht sehr vage. Zum einen wird zum räumlichen Geltungsbereich von Anordnungen in Artikel 8 lediglich vorgeschrieben, dass dieser “nicht über das zur Erreichung ihres Ziels unbedingt erforderliche Maß hinausgehen” darf. Dies kann jedoch sehr weit ausgelegt werden. Zum anderen bleiben beide Artikel unkonkret in der Frage, wie mit grenzübergreifenden Anordnungen umgegangen werden soll.

Transparenzverpflichtungen

Artikel 13 verpflichtet Anbieter:innen von Vermittlungsdiensten einmal im Jahr klare, leicht verständliche und ausführliche Berichte über die Moderation von Inhalten zu veröffentlichen. Diese müssen, sofern zutreffend, die Anzahl der von Behörden gemachten Anordnungen, die nach Artikel 14 (notice and take down) vorgenommenen Meldungen, die auf Eigeninitiative der Anbieter:innen durchgeführte Moderation von Inhalten und die über das in Artikel 17 interne Beschwerdemanagementsystem eingegangenen Beschwerden aufführen. Zudem müssen die Moderationsmaßnahmen nach Art des illegalen Inhalts aufgeschlüsselt werden.

Auch mit Blick auf die Santa Clara Principles, die als Leitlinien für Transparenz und Verantwortlichkeit bei der Moderation von Inhalten gelten, begrüßt D64 die Transparenzpflichten des Artikel 13. Positiv zu bewerten ist insbesondere die Pflicht zur Offenlegung der konkreten Anzahl an Beschwerden und Löschungen, dass Klein- und Kleinstunternehmen von den Transparenzpflichten ausgenommen sind, dass die Dauer bis zur Ergreifung von Maßnahmen in die Berichte aufgenommen wird und dass zwischen Maßnahmen auf gesetzlicher Grundlage und aufgrund der Hausregeln unterschieden wird. Hierbei muss sich in der Praxis aber noch zeigen, wie Maßnahmen gegen Inhalte dargestellt werden, die sowohl einen Verstoß gegen Nutzungsbedingungen wie auch gegen Gesetze darstellen.

Meldeverfahren

Zu begrüßen ist aus unserer Sicht auch, dass der DSA das Melde- und Abhilfeverfahren (notice and take down) europaweit harmonisiert. Auf dieser Grundlage haben Nutzer:innen das Recht, (vermeintlich) illegale Inhalte den Plattformen zu melden. Diese erhalten durch die Meldung Kenntnis im Sinne von Artikel 5 DSA, können sich also nicht auf ihre Haftungsprivilegierung berufen, sofern sie in Reaktion auf die Meldung nicht aktiv werden. Entscheidet ein Dienst nach einer Meldung, den entsprechenden Inhalt zu sperren oder zu löschen, ist er der betroffenen Person, um deren Inhalt es sich handelt, gegenüber zur Begründung, insbesondere auch mit dem Verweis auf mögliche Rechtsbehelfe, verpflichtet.

Wie geht es weiter?

Der DSA macht vieles richtig, trotz allem stellen die allgemeinen Regeln, die wir in diesem Blogpost behandelt haben, mit Sicherheit noch nicht den “großen Wurf” dar, sondern sind gegenüber der existierenden Rechtslage primär auf Vereinheitlichung und Klarstellung ausgerichtet. Dennoch ist die Bedeutung des DSA für die Gestaltung der digitalen Öffentlichkeit – beziehungsweise der großen Plattformen, die für so viele Nutzer:innen synonym mit dem Internet geworden sind – nicht zu unterschätzen. Um seinen Spitznamen des “Grundgesetzes” des Internet gerecht zu werden, muss der DSA an den Grundprinzipien der E-Commerce-Richtlinie festhalten, Nutzer:innenrechte priorisieren und Plattformen sinnvolle Sorgfaltspflichten auferlegen.

Letztendlich wird sich der Erfolg des DSA daran messen lassen müssen, ob es diesem Grundsatz-Regelwerk gelingt, ein diverseres, nutzer:innenfreundlicheres, offeneres Netz zu fördern. Ausschlaggebend dafür werden die neuen spezifischen Vorschriften für (sehr große) Online-Plattformen sein, die wir im nächsten Blogpost behandeln werden.

Stay tuned!

Hier geht es zum Walkthrough – Teil II