Der Digital Services Act – wie geht es weiter?

Ein Walkthrough mit Einordnungen – Teil II

In diesem zweiten Blogpost zum Digital Services Act (DSA) setzen wir uns mit einem der Kernstücke des DSA auseinander: den neuen Sorgfaltspflichten, die insbesondere Online- Plattformen auferlegt werden sollen. Was ist das Problem, dem damit begegnet werden soll? In der “Offline-Öffentlichkeit”, haben staatliche Akteure, wie z.B. die Polizei, einfachen Zugang zu öffentlichen Räumen haben, um Gesetze durchzusetzen. Anders im Internet: Hier sind Staaten oft auf die Mitarbeit von Online-Plattformen angewiesen, um gegen illegale Inhalte und Handlungen im Netz vorzugehen

Bevor wir weitermachen, ein kurzer Einschub – was genau sind Online-Plattformen laut dem DSA, und was unterscheidet sie von Hosting-Diensteanbietern? Hosting-Diensteanbieter sind Unternehmen, die Inhalte dauerhaft im Auftrag einer Person speichern, wie zum Beispiel Cloudspeicher. Im Vergleich dazu definiert der DSA Online-Plattformen als Hosting-Diensteanbieter, die im Auftrag ihrer Nutzer:innen Informationen nicht nur speichern, sondern auch öffentlich verbreiten (Artikel 2(h) DSA). Online-Plattformen sind also eine besondere Form von Hosting-Anbietern. Soziale Netzwerke sind demnach sowohl Hosting-Anbieter als auch Online-Plattform und müssten, nach dem Regelungsmodell des DSA, deshalb mehr Verantwortung übernehmen, da sie Inhalte auch für die Öffentlichkeit zugänglich machen.

Diese Mitarbeit von Plattformen, wie zum Beispiel sozialen Netzwerken, beim Umgang mit illegalen Inhalten führt dazu, dass Plattformen zunehmend hoheitliche Aufgaben übernehmen, indem sie Inhalte auf ihre Rechtswidrigkeit überprüfen und dementsprechend sanktionieren. Da Plattformen für nicht entfernte illegale Inhalte haftbar gemacht werden können, ist der Anreiz für sie grundsätzlich größer, Inhalte im Zweifel zu löschen und nicht online zu lassen. Diese Moderation von Inhalten (content moderation) birgt grundlegende Risiken für die Meinungsfreiheit und für den öffentlichen, demokratischen Diskurs, der teilweise der Kontrolle durch private Plattformanbieter unterliegt.

Um die Grundrechte von Nutzer:innen gegenüber Plattformen zu schützen, schlägt der DSA deshalb ein System von Sorgfaltspflichten vor, von denen viele darauf abzielen die Rechte von Nutzer:innen gegenüber Plattformen zu stärken.

Nutzer:innenrechte

In unserem letzten Blogpost haben wir das Meldesystem vorgestellt (notice and action), ein Herzstück des DSA, durch das geregelt werden soll wann Plattformen Inhalte entfernen müssen. Ein Aspekt, der die Nutzer:innenrechte in diesem Kontext stärken soll, sind neue Verpflichtungen, nach denen Plattformen Nutzer:innen darüber informieren müssen, wie sie mit Meldungen über potenzielle illegale Inhalte umgegangen sind.

Für Fälle in denen Nutzer:innen denken, dass ihre Inhalte zu Unrecht entfernt worden sind (oder eine Plattform fälschlicherweise nicht gehandelt hat), verpflichtet Artikel 17 des DSA Plattformen Beschwerdemanagementsysteme anzubieten. Demnach müssen Plattformen die Inhalte, auf die sich eine Beschwerde bezieht, überprüfen. Wenn die Plattform bei ihrer Überprüfung ihre ursprüngliche Einschätzung revidiert, muss die Plattform den beanstandeten Inhalt wieder herstellen.

Außergerichtliche Streitbeilegung

Das in Artikel 17 beschriebene interne Beschwerdemanagementsystem spiegelt in den meisten Fällen wohl die bereits gängige Praxis der Plattformen wider. Eine wichtige Neuerung, die der aktuelle Entwurf zum DSA enthält, ist allerdings das in Artikel 18 beschriebene Recht von Nutzer:innen auf außergerichtliche Streitbeilegung.

Dies ermöglicht Nutzer:innen den Zugang zu einer außergerichtlichen Streitbelegungsstelle in Fällen, in denen diese von Entscheidungen seitens der Plattformen betroffen sind (beispielsweise durch das Löschen eines Beitrags oder die Sperrung eines Accounts) und in denen die Entscheidung der jeweiligen Plattform zu Streitigkeiten geführt hat, die nicht durch das interne Beschwerdemanagementsystem gelöst werden können. Artikel 18 zielt somit darauf ab, zu verhindern, dass Plattformen durch einen unbegrenzten Ermessensspielraum hinsichtlich der Löschung von Inhalten und der Sperrung von Accounts, Nutzer:innenrechte übermäßig beschränken.

Es ist in der Tat wichtig, dass Nutzer:innen die Möglichkeit haben, die Entscheidungen von Plattformen überprüfen zu lassen, damit diese nicht die letztinstanzliche (sowie intransparente) Deutungshoheit darüber haben, was online gesagt, geschrieben oder geteilt werden darf.

Nichtsdestotrotz haben wir hinsichtlich Artikel 18 einige Bedenken: Zum einen klammert diese Ermöglichung außergerichtlicher Streitbeilegung die ordentlichen Gerichte aus. Dies ist aus zweierlei Gründen problematisch. Erstens stellt es eine Verschiebung der Deutungshoheit über die Legalität von Inhalten weg von staatlichen Gerichten hin zu nicht-staatlichen Institutionen dar. Zwar müssen die jeweiligen Streitbeilegungsstellen laut Artikel 18 unparteiisch und unabhängig sein, es ist jedoch nicht geregelt, wie diese zusammengesetzt sein sollen. Die Möglichkeit, dass sie auf eigenen Antrag hin zugelassen werden können, wirft darüber hinaus die Frage auf, wie unabhängig die Streitbeilegungsstellen wirklich sein werden. Zweitens finden Verfahren außergerichtlicher Streitbeilegung, im Gegensatz zu Verfahren vor ordentlichen Gerichten, in der Regel nicht öffentlich statt. Dies hat zur Folge, dass sich Nutzer:innen in der Durchsetzung ihrer Rechte gegenüber Plattformen nicht durch Kenntnis bereits gelöster, ähnlicher Streitigkeiten positiv unterstützen können. Außerdem werden dadurch die Art, der Inhalt sowie die Lösung von Konflikten zwischen Nutzer:innen und Plattformen dem öffentlichen Auge entzogen. Dies ist jedoch wichtig, um sicherzustellen, dass Plattformen ihre gesellschaftliche Rolle in einer Weise wahrnehmen, die dem Allgemeinwohl dient und an rechtsstaatliche Grundsätze geknüpft ist.

Ein weiterer Aspekt ist, dass Plattformen durch ihre Rolle als „Repeat Player“ einen strategischen Vorteil in der Prozessführung bzw. Streitbeilegung haben, was es Nutzer:innen erschwert, ihre Rechte durchzusetzen. Zwar spielt dies bei Formen außergerichtlicher Streitbeilegung genauso eine Rolle wie bei gerichtlichen Verfahren, da jedoch eine Streitbeilegung nach Artikel18 keinen Rechtsbeistand für Nutzer:innen vorsieht, ist dieser Aspekt hier besonders relevant.

Schutz vor Missbrauch

Ein weiterer nennenswerter Aspekt des DSA stellt der Artikel 20 dar. Er gibt Plattformen das Werkzeug an die Hand, um gegen potentiell missbräuchliches Verhalten von Nutzer:innen vorzugehen. Im Kern ist die Formulierung des Artikels zu begrüßen. Durch ihn werden zum ersten Mal Regeln für einen Prozess formuliert, welche Plattformen regelmäßig nutzen können, um Nutzer:innen-Konten zu sperren oder zu entfernen. Dass Plattformen von ihrem Hausrecht Gebrauch machen, um Akteure, die wiederholt illegale Inhalte verbreiten – zum Beispiel Scammer, oder Nutzer:innen die Hass und Hetze verbreiten – von der Plattform zu verweisen, ist nachvollziehbar und in vielen Fällen sinnvoll.

Trotzdem bleibt in der Betrachtung des ersten Entwurfs der Kommission die Frage offen, inwieweit den von solchen Sperrungen betroffenen Nutzer:innen eine Möglichkeit eingeräumt wird, gegen Sanktionen seitens der Plattformen Beschwerde einzulegen. Hier bestehen noch Potenziale, Regelungen für Plattformbetreiber in Gesetzesform zu gießen, die Nutzer:innen die Möglichkeit der Überprüfung der Maßnahmen bieten.

Strafverfolgung

Ganz ähnlich wie die aktuellste Version des NetzDG verpflichtet Artikel 21 Plattformen dazu, in bestimmten Fällen Nutzer:innendaten an Strafverfolgungsbehörden weiterzugeben. Verglichen mit dem NetzDG geht der DSA-Vorschlag allerdings deutlich weniger weit: Plattformen sollen Nutzer:innendaten teilen, wenn ein begründeter Verdacht auf eine schwere Straftat (die eine ernstzunehmende Gefahr für Leib und Leben darstellt) vorliegt. Gleichwohl ist zu erwarten, dass sich Mitgliedstaaten – und insbesondere Deutschland – nicht mit dieser abgeschwächten Version des §3a NetzDG zufrieden geben und auf eine Verschärfung drängen werden.

Transparenz

Artikel 23 regelt zusätzlich zu Artikel 13 die Transparenzverpflichtungen von Plattformbetreiber:innen. Unter anderem sollen die Transparenzberichte der Plattformen weitere Informationen (a) über die Anzahl und den Verlauf der außergerichtlichen Streitbeilegungsfälle (Artikel 18), (b) über Kontensperrungen nach Missbrauch der Plattform durch Nutzer:innen (Artikel 20) und (c) über die Nutzung von automatisierten Mitteln – read: Filtermechanismen – in der Moderation von Inhalten bereitstellen.

Besonders auffällig ist dabei, dass die Kommission sich vorbehält, nachträglich Muster für Form, Inhalt und sonstige Einzelheiten der Berichte festzulegen. Diese Entscheidung gründet möglicherweise in den Erkenntnissen aus dem NetzDG, das zwar auch Transparenzberichte fordert, aber kein bestimmtes Format festlegt. Die Aussagekraft der Berichte war dementsprechend limitiert, weil zwischen den Plattformen aufgrund unterschiedlicher Formate kaum Vergleiche möglich waren und interessante Informationen geschickt versteckt werden konnten.

In ihren Berichten über die automatisierten Mittel sollen Plattformen die “genauen Zwecke, mit Indikatoren für die Genauigkeit der automatisierten Mittel bei der Erfüllung dieser Zwecke und mit angewandten Schutzvorkehrungen” angeben. Das klingt vielversprechend und so, als ob die Kommission sowohl die Fehleranfälligkeit der automatisierter Mittel wie auch Gegenmaßnahmen ins Visier nehmen möchte. Gleichzeitig ist dieser Absatz – und der Artikel allgemein – jedoch ziemlich unspezifisch, wenn man den Einfluss der automatisierter Filtermechanismen bedenkt. Es fehlen wichtige Datenpunkte, wie zum Beispiel welcher proportionale Anteil der Moderationsentscheidungen von automatisierten Mitteln getroffen werden und wie Inhalte überhaupt erst zu diesen Mechanismen gelangen. Wenn man besonders ambitioniert wäre, könnten hier auch Daten zum Training dieser automatisierten Mittel angefragt werden. In diesem Kontext erscheint es schon jetzt wünschenswert, dass die Kommission weitere, granulare Daten anfordert.

Und wie geht es weiter?

Der Kommissions-Entwurf zum DSA führt einerseits ein paar grundlegend neue Ideen in die europäische Plattformregulierung ein und legitimiert andererseits bestehende Praktiken von Plattformen zum ersten Mal in demokratischer Art und Weise. Das ist erst einmal sehr positiv zu bewerten. Wie der DSA sich weiterentwickeln wird steht momentan allerdings in den Sternen – denn inzwischen wurde diese Blogreihe von den legislativen Prozessen im Europa Parlament und dem Rat der Europäischen Union (in dem die Mitgliedstaaten zusammenkommen) überholt. Sowohl Mitgliedstaaten als auch Parlamentarier:innen ringen momentan darum, ihre Positionierung zu dem Vorschlag der Kommission zu finden. Dabei besinnt sich Deutschland auf das eigene Gesetz zur Regulierung von Online-Plattformen, das äußerst umstrittene Netzwerkdurchsetzungsgesetz. Welche Vision sich in der Europäische Union letztendlich durchsetzen wird – ein Regulierungsansatz der Grundrechte schützt und Nutzer:innenrechte stärkt oder ein Ansatz der Plattformen noch mehr hoheitliche Aufgaben überträgt und damit ihre Dominanz zementiert – liegt darum jetzt in den Händen unserer Abgeordneten und der Mitgliedstaaten.

Hier geht es zum Walkthrough – Teil I