Alle Artikel in Urheberrecht

Der Digital Services Act – das neue europäische Plattform-Grundgesetz?

Ein Walkthrough mit Einordnungen – Teil I

Die Europäische Kommission hat im Dezember 2020 mit ihrem Vorschlag des Digital Services Acts (DSA) ein ambitioniertes Gesetzespaket vorgelegt, das – in Verbindung mit dem Digital Markets Act (DMA) – die Regulierung digitaler Dienste und Märkte in der Europäischen Union grundsätzlich neu organisieren soll. Obwohl in den letzten Jahren mehrere Vorhaben zur Regulierung des digitalen Binnenmarkts umgesetzt wurden – wie etwa die Platform-to-Business-Verordnung, die umstrittene Urheberrecht-Richtlinie oder die Richtlinie zu Audiovisuellen Medien – galt bis jetzt die über 20 Jahre alte E-Commerce-Richtlinie als das Herzstück der europäischen Internetregulierung.

Der DSA soll jetzt die grundlegenden Regeln für Anbieter:innen digitaler Dienste modernisieren und in diesem Zuge eine Reihe neuer Sorgfaltspflichten für bestimmte Dienste einführen. Der DSA lässt sich demnach grob in drei Kategorien unterteilen: 1) allgemeine Regeln für alle “Anbieter von Vermittlungsdiensten”, seien es Content Delivery Networks, Webhoster oder soziale Netzwerke, 2) zusätzliche Sorgfaltspflichten für Online-Plattformen, und 3) weitere zusätzliche Sorgfaltspflichten für sehr große Online-Plattformen (VLOPS, “very large online platforms”). Unsere Stellungnahme zum DSA wird dieser Unterteilung folgen, dementsprechend nehmen wir in diesem ersten Beitrag das Grundgerüst des DSA, die allgemeinen Regeln für alle “Vermittlungsdienste”, genauer unter die Lupe.

Bei Vermittlungsdiensten wird unterschieden zwischen reiner Durchleitung, Caching und Hosting. Reine Durchleitung erfolgt beispielsweise durch Telekommunikationsprovider, die Inhalte nur weiterleiten, ohne sie zu speichern. Caching-Dienstleister wie Content-Delivery-Networks speichern den Inhalt temporär, um die Übermittlung an die empfangende Person effektiver zu gestalten. Hosting liegt vor, wenn Inhalte dauerhaft für eine andere Person gespeichert werden, also bspw. bei sozialen Netzwerken oder Cloud-Anbieterinnen. Die genauen rechtlichen Definitionen findest du in Artikel 2 f) des Entwurfs für einen Digital Service Act.

Grundsätzlich begrüßt D64 – Zentrum für digitalen Fortschritt den Vorschlag der Europäischen Kommission ausdrücklich. In den vergangenen Jahren haben einige Mitgliedstaaten der EU nationale Gesetzgebung auf den Weg gebracht, um den digitalen öffentlichen Raum zu regulieren. Viele dieser Gesetze, wie etwa das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) oder das französische Avia-Gesetz, schießen dabei jedoch über ihr Ziel – die Verbreitung illegaler Inhalte im Netz einzudämmen – hinaus. Durch knappe Fristen für die Prüfung und Entfernung potenziell illegaler Inhalte schaffen diese Gesetze einseitige Anreize für soziale Netzwerken, Inhalte so schnell wie möglich zu entfernen, und können dadurch Grundrechte wie die Meinungsfreiheit unterminieren. Zudem macht das Internet nicht an nationalen Grenzen halt. Die Initiativen einzelner Mitgliedstaaten zur Regulierung des Netzes tragen zu einem wachsenden Flickenteppich an Gesetzgebung bei, die im Internet gelten soll. Das hilft weder Nutzer:innen, sich in dem Dschungel von Regeln zurechtzufinden, noch trägt es zu einer flächendeckenden Durchsetzung der Regeln gegenüber den betroffenen Unternehmen bei. Deshalb unterstützen wir den Ansatz der Europäischen Kommission, einheitliche Regeln in Europa für die digitale Öffentlichkeit zu schaffen. Nichtsdestotrotz enthält der DSA auch einige Aspekte, die derzeit noch unklar formuliert oder unserer Meinung nach kritikwürdig sind. Diese stellen wir im Folgenden vor:

Für wen soll der DSA gelten?

In der derzeitigen Debatte dreht sich vieles um die “klassischen” sozialen Netzwerke. Im Detail bleibt aber leider unklar, welche Dienste von dem Gesetzgebungsvorhaben alles erfasst werden sollen. Während es zum Beispiel in Erwägungsgrund 14 explizit heißt, dass Dienste im Sinne des European Electronic Communications Code (EECC), wie E-Mail- oder Instant-Messaging-Anbieterinnen, nicht erfasst sind, findet sich eine entsprechende Regelung nicht im eigentlichen Gesetzestext. Auch in den Mitgliedsstaaten scheint dies derzeit noch unklar zu sein. So geht das Bundesjustizministerium bspw. davon aus, dass auch Messenger wie Telegram durch den DSA reguliert werden.

Praktisch ist das von entscheidender Bedeutung: Gerade die Corona-Pandemie hat gezeigt, wie sich der digitale öffentliche Austausch von Twitter und Facebook zu halböffentlichen Foren wie Whatsapp-Gruppen oder Telegram-Channels mit teilweise Tausenden von Mitgliedern verschiebt. Diese Orte sind entscheidend für die Verbreitung von Desinformation, Verschwörungserzählungen und Hass gegen Politiker:innen oder Wissenschaftler:innen und müssen deshalb bei einer umfassenden Regelung des digitalen öffentlichen Raumes, wie sie der DSA sein soll, beachtet werden. Hier ist es Aufgabe des europäischen Gesetzgebers, klar zu definieren, was Teil des digitalen öffentlichen Raumes und was zur privaten Kommunikation gehört.

Welche Anbieter:innen sind wann für welche Inhalte haftbar?

Bei der Frage nach der Haftung verschiedener Anbieter:innen übernimmt der DSA in den Artikeln 3 bis 5 das gestufte System der E-Commerce-Richtlinie. Demnach sind Dienste, die auf der reinen Durchleitung, bzw. dem Caching von Inhalten basieren, in weiten Teilen von der Haftung für illegale Inhalte, die von ihren Nutzer:innen über sie verbreitet werden, ausgeschlossen. Auch bei Diensten, die auf der Speicherung der von Nutzer:innen bereitgestellten Informationen basieren, haften Anbieter:innen erst nachdem sie “tatsächliche Kenntnis” von einem illegalen Inhalt haben. Wir begrüßen die Beibehaltung der etablierten Haftungsregeln, auch wenn einige Probleme, die auch schon im Kontext der E-Commerce-Richtlinie aufgetreten sind und auf die wir im Folgenden eingehen, bestehen bleiben.

Und was ist mit Upload-Filtern?

Mit dem neu eingeführten Artikel 6 schlägt die Kommission grundsätzlich weitere Sicherheiten für Anbieter:innen vor, die freiwillig gegen illegale Inhalte auf ihren Diensten vorgehen wollen. Diese können nicht alleine deswegen für die Inhalte auf ihren Plattformen haftbar gemacht werden, weil sie Monitoring-Maßnahmen betreiben. Man spricht deshalb von einer “Good Samaritan Clause”, weil Anbieter:innen, die selbstständig nach illegalen Inhalten suchen (“Good Samaritans”), vor einer Haftung aufgrund dieser Maßnahmen geschützt werden. Sie schafft daher einen Anreiz für Anbieter:innen, illegale Inhalte eigeninitiativ zu ermitteln und den Zugang zu ihnen zu erschweren bzw. zu verhindern. Umstritten ist jedoch, wie weit der Haftungsausschluss geht. Zwar muss kein Dienst aufgrund der Maßnahmen selbst haften, erhält er aber durch die Maßnahmen Kenntnis von rechtswidrigen Inhalten, muss er wohl unverzüglich den Zugriff auf die Inhalte sperren, um sich auf die Haftungsprivilegierung der Artikel 3 bis (insbesondere) 5 berufen zu können. Tut er das nicht, haftet der Dienst also – mittelbar – doch aufgrund seines eigentlich geschützten Verhaltens.

Zudem steht Artikel 6 in einer spannenden – und spannungsgeladenen – Beziehung mit Artikel 7, in dem der DSA einen weiteren Grundpfeiler der E-Commerce-Richtlinie übernimmt: Das Verbot, Anbieter:innen zu einer generellen Überwachung der Inhalte ihrer Nutzer:innen zu verpflichten, also Uploadfilter gesetzlich vorzuschreiben. Während Artikel 7 also eine – staatlich angeordnete – (automatisierte) Überwachung von Inhalten, die Nutzer:innen hochladen, verbietet, ermuntert Artikel 6 durch seine Haftungsprivilegierung die Dienste dazu, solche Mechanismen auf freiwilliger Basis einzusetzen. Automatische Filtermechanismen bergen jedoch stets die Gefahr, dass sie die faktische Meinungsfreiheit übermäßig einschränken, weil sie bspw. die zulässige künstlerische Verwertung von urheberrechtlich geschützten Material, Satire oder den Kontext von Meinungsäußerungen nicht richtig erkennen.

Löschaufforderungen nationaler Behörden

Artikel 8 und 9 legen fest, wie Anbieter:innen von Vermittlungsdiensten auf staatliche Anordnungen zum Umgang mit illegalen Inhalten und Auskunftsverlangen reagieren müssen. Insbesondere werden sie verpflichtet, auf Anordnung von Justiz- und Verwaltungsbehörden gegen Inhalte vorzugehen, die nach nationalem oder Unionsrecht illegal sind. Ebenso müssen sie der anordnenden Behörde umgehend mitteilen, welche Maßnahmen in diesem Zusammenhang ergriffen wurden. Die staatlichen Anordnungen müssen dabei eine Reihe verschiedener Anforderungen erfüllen. Insbesondere müssen sie enthalten, aus welchem Grund die betroffenen Inhalte illegal sind sowie Informationen zum räumlichen Geltungsbereich der Anordnung. Eine ähnliche Regelung gilt für Auskunftsanordnungen, mittels derer Behörden Informationen zu einzelnen oder mehreren Nutzer:innen anfordern. Komplementiert werden diese Regelungen durch ein Melde- und Abhilfeverfahren für andere Nutzer:innen und Einrichtungen (Artikel 14 und 15).

Eine solche Regelung ist grundsätzlich zu begrüßen, da sie die Interaktion staatlicher Stellen und der Anbieter:innen klarer regelt und auf eine europaweit einheitliche Grundlage stellt. Eindeutig illegale Inhalte – wie etwa terroristische Inhalte oder Darstellungen sexualisierter Gewalt gegen Kinder – werden so leichter gelöscht. Allerdings eröffnen sich hierdurch auch einige Probleme. Zum einen birgt die Möglichkeit für Verwaltungsbehörden, solche Anordnungen zu erlassen, ein erhebliches Potenzial für Willkür und Missbrauch. Im Gegensatz zu richterlichen Anordnungen verfügen etwa Polizei- und Sicherheitsbehörden (und spezifisch für diesen Zweck eingerichtete “Internet Referral Units”) keine rechtliche Deutungshoheit darüber, welche Inhalte illegal sind und welche nicht. Zwar mag eine solche Feststellung in einigen Fällen gänzlich unstrittig sein, kann in anderen Fällen aber zum Beispiel zu einer Beschränkung der Meinungsfreiheit führen.

Beispielsweise sperrte Twitter in Indien im Februar auf ministerielle Anordnung eine Reihe von Accounts, unter anderem von regierungskritischen Journalist:innen, Politiker:innen, Aktivist:innen und Prominenten – und nahm einige dieser Sperrungen kurz darauf zurück. Die Begründung: Twitter halte die Anordnung nicht für vereinbar mit indischem Recht. Auch in Europa ist ein solcher Missbrauch der entsprechenden im DSA vorgeschlagenen Regelungen vorstellbar – etwa durch EU-Mitgliedstaaten, in denen gezielt die Rechtsstaatlichkeit und die Rechte von Minderheiten untergraben werde. Gegen illegale Inhalte gerichtete Anordnungen sollten deshalb grundsätzlich Gerichten vorbehalten sein. Wenn überhaupt sollten Anordnungen durch Verwaltungsbehörden nur in wenigen, eindeutigen Ausnahmefällen möglich sein.

Darüber hinaus bleiben Artikel 8 und 9 in vielerlei Hinsicht sehr vage. Zum einen wird zum räumlichen Geltungsbereich von Anordnungen in Artikel 8 lediglich vorgeschrieben, dass dieser “nicht über das zur Erreichung ihres Ziels unbedingt erforderliche Maß hinausgehen” darf. Dies kann jedoch sehr weit ausgelegt werden. Zum anderen bleiben beide Artikel unkonkret in der Frage, wie mit grenzübergreifenden Anordnungen umgegangen werden soll.

Transparenzverpflichtungen

Artikel 13 verpflichtet Anbieter:innen von Vermittlungsdiensten einmal im Jahr klare, leicht verständliche und ausführliche Berichte über die Moderation von Inhalten zu veröffentlichen. Diese müssen, sofern zutreffend, die Anzahl der von Behörden gemachten Anordnungen, die nach Artikel 14 (notice and take down) vorgenommenen Meldungen, die auf Eigeninitiative der Anbieter:innen durchgeführte Moderation von Inhalten und die über das in Artikel 17 interne Beschwerdemanagementsystem eingegangenen Beschwerden aufführen. Zudem müssen die Moderationsmaßnahmen nach Art des illegalen Inhalts aufgeschlüsselt werden.

Auch mit Blick auf die Santa Clara Principles, die als Leitlinien für Transparenz und Verantwortlichkeit bei der Moderation von Inhalten gelten, begrüßt D64 die Transparenzpflichten des Artikel 13. Positiv zu bewerten ist insbesondere die Pflicht zur Offenlegung der konkreten Anzahl an Beschwerden und Löschungen, dass Klein- und Kleinstunternehmen von den Transparenzpflichten ausgenommen sind, dass die Dauer bis zur Ergreifung von Maßnahmen in die Berichte aufgenommen wird und dass zwischen Maßnahmen auf gesetzlicher Grundlage und aufgrund der Hausregeln unterschieden wird. Hierbei muss sich in der Praxis aber noch zeigen, wie Maßnahmen gegen Inhalte dargestellt werden, die sowohl einen Verstoß gegen Nutzungsbedingungen wie auch gegen Gesetze darstellen.

Meldeverfahren

Zu begrüßen ist aus unserer Sicht auch, dass der DSA das Melde- und Abhilfeverfahren (notice and take down) europaweit harmonisiert. Auf dieser Grundlage haben Nutzer:innen das Recht, (vermeintlich) illegale Inhalte den Plattformen zu melden. Diese erhalten durch die Meldung Kenntnis im Sinne von Artikel 5 DSA, können sich also nicht auf ihre Haftungsprivilegierung berufen, sofern sie in Reaktion auf die Meldung nicht aktiv werden. Entscheidet ein Dienst nach einer Meldung, den entsprechenden Inhalt zu sperren oder zu löschen, ist er der betroffenen Person, um deren Inhalt es sich handelt, gegenüber zur Begründung, insbesondere auch mit dem Verweis auf mögliche Rechtsbehelfe, verpflichtet.

Wie geht es weiter?

Der DSA macht vieles richtig, trotz allem stellen die allgemeinen Regeln, die wir in diesem Blogpost behandelt haben, mit Sicherheit noch nicht den “großen Wurf” dar, sondern sind gegenüber der existierenden Rechtslage primär auf Vereinheitlichung und Klarstellung ausgerichtet. Dennoch ist die Bedeutung des DSA für die Gestaltung der digitalen Öffentlichkeit – beziehungsweise der großen Plattformen, die für so viele Nutzer:innen synonym mit dem Internet geworden sind – nicht zu unterschätzen. Um seinen Spitznamen des “Grundgesetzes” des Internet gerecht zu werden, muss der DSA an den Grundprinzipien der E-Commerce-Richtlinie festhalten, Nutzer:innenrechte priorisieren und Plattformen sinnvolle Sorgfaltspflichten auferlegen.

Letztendlich wird sich der Erfolg des DSA daran messen lassen müssen, ob es diesem Grundsatz-Regelwerk gelingt, ein diverseres, nutzer:innenfreundlicheres, offeneres Netz zu fördern. Ausschlaggebend dafür werden die neuen spezifischen Vorschriften für (sehr große) Online-Plattformen sein, die wir im nächsten Blogpost behandeln werden.

Stay tuned!

Stellungnahme zum BMJV-Diskussionsentwurf eines Zweiten Gesetzes zur Anpassung des Urheberrechts

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) hat einen Diskussionsentwurf für ein Zweites Gesetz zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts veröffentlicht. Dieser regelt die Verantwortlichkeit von Plattformen und setzt damit Artikel 17 (ehemals Artikel 13) der Richtlinie (EU) 2019/790 über das Urheberrecht im digitalen Binnenmarkt (DSM-RL) um. Im Rahmen des Gesetzgebungsverfahren hat das BMJV um Stellungnahme gebeten.

D64 – Zentrum für digitalen Fortschritt hat hierzu folgende Stellungnahme an das BMJV versandt:

Im Juni legte das Bundesministerium der Justiz und für Verbraucherschutz einen Diskussionsentwurf zur Umsetzung der DSM-RL, insbesondere des Artikels 17, vor. Wir möchten die Gelegenheit nutzen, wesentliche Punkte zu nennen, die uns mit Bezug auf die Meinungsfreiheit im Internet, sowie der Anwenderfreundlichkeit als Nutzerinnen und Nutzer und von Kreativschaffenden besonders relevant erscheinen. Wir begrüßen zunächst, dass der Diskussionsentwurf gerade bei den Regelungen zur Plattformhaftung nötige Konkretisierungen vorsieht, bei der die Richtlinie Lücken lässt. Nichtsdestotrotz möchten wir unsere Bedenken bzgl. der automatisierten Überprüfung und Selbstprüfung von Inhalten äußern. Die Bundesregierung hat sich in einem Zusatzprotokoll zur DSM-RL verpflichtet, automatisierte Uploadfilter soweit wie möglich zu verhindern. Auch wenn wir begrüßen, dass eine Ausnahmeregelung für Karikaturen, Parodien und Pastiche erarbeitet wurde, sowie eine erfreuliche Veränderung im Urheberrecht durch die Erlaubnis von Bagatellnutzungen gemacht werden könnte, sind wir kritisch was die aktuell definierten Größen angeht.

Im Einzelnen möchten wir zu bedenken geben:

1. UrhDaG: An den positiven Ansätzen sollte festgehalten werden

Kein Gesetz zum Schutz von Urheberrechten darf dazu führen, dass öffentliche Räume in Gefahr geraten. Zu diesen öffentlichen Räumen zählen heute unstreitig auch kommerzielle Upload-Plattformen. Hier findet Auseinandersetzung mit Politik, Kultur und Gesellschaft statt. Dabei werden regelmäßig urheberrechtlich geschützte Inhalte geteilt – oftmals legal, weil über die Zitierfreiheit oder andere urheberrechtliche Erlaubnisse abgedeckt, oftmals jedenfalls mit geringer Auswirkung für Rechteinhaber. Wir haben den Einsatz von Uploadfiltern stets abgelehnt; diese Debatte wurde bereits geführt. Der Entwurf – und schon Art. 17 der DSM-RL – wird dieser Forderung und auch der eigenen Absichtserklärung in der Protokollerklärung 2019 nicht gerecht. Wir erinnern die Bundesregierung daran, das gesetzte Ziel, Upload-Filter in Deutschland nicht einzusetzen, nicht aus dem Blick zu verlieren. Der vorgelegte Entwurf beinhaltet jedoch unzweifelhaft Upload-Filter. Es ist uns deshalb besonders wichtig, dass erlaubte Nutzungen nicht durch einseitige Regeln zu Gunsten der Rechteverwerter unterbunden werden. Wir unterstützen daher den Vorschlag des Diskussionsentwurfs, dass Nutzerinnen und Nutzer Inhalte flaggen können, damit diese Inhalte im Regelfall zunächst einmal „durchgelassen werden“. Wir unterstreichen, dass automatisierte Techniken solche Nutzungen nicht zuverlässig erkennen können und deshalb an dieser Stelle ein Sicherungsmechanismus für „nicht maschinell erkennbare“ erlaubte Nutzungen unbedingt erforderlich ist, um Overblocking zu verhindern. Sprich: Eine Sperrung des Inhalts, insbesondere ein Inhalt mit Pre-Flagging, muss durch einen Menschen vorgenommen werden. Nutzerinnen und Nutzer dürfen nicht in die Beweislast für ihre Nutzungsfreiheiten gedrängt werden. Darüber hinaus muss außerdem sichergestellt werden, dass alle Formate davon umfasst sind (bspw. auch Live-Streams).

Wir begrüßen hingegen den Vorschlag, „Bagatellnutzungen” zu erlauben. Es ist nicht immer klar, wann die Zitierfreiheit greift oder was juristisch gesehen eine Parodie ist. Ein modernes Urheberrecht muss auf einen breiten Interessenausgleich für die gesamte Informationsgesellschaft angelegt sein. Dazu gehört auch, dass vor allem dort Freiheiten geschaffen werden, die für die Allgemeinheit von großem Wert sind und bei denen mögliche Einbußen für Rechteverwerter tendenziell gering bis nicht messbar sind. Daher unterstützen wir, dass bis zu einer gewissen Schwelle solche Nutzungen pauschal zulässig gemacht werden sollen. Wir geben aber zu bedenken, dass diese Möglichkeit auch für kommerzielle, semiprofessionelle Zwecke geöffnet werden sollte. Jedenfalls halten wir die Bagatellnutzung fachjuristisch für umsetzbar, zumal erst zuletzt der Generalanwalt am Europäischen Gerichtshof mit seinen Schlussanträgen zur Haftung von YouTube in diese Richtung weist. Wir fordern die Bundesregierung daher dazu auf, europarechtliche Initiativen zu ergreifen, um eine weitergehende allgemeingültige Bagatellnutzung zu ermöglichen. Meme-Kultur und das Verwenden von weiteren Inhalten, die zwar urheberrechtlich geschützt sind, aber keinen Schaden entstehen lassen, gehören zur Internetkultur und müssen daher aus der rechtlichen Grauzone geholt werden.

Ebenfalls begrüßen wir, dass missbräuchliche Inanspruchnahme von Urheberrechten die Upload-Plattformen berechtigt, die vermeintlichen Rechteinhaber vom Sperrungs- und Entfernungsverfahren auszuschließen. Wir finden es richtig, dass bei den Vergütungen, die die Upload-Plattformen zahlen müssen, die Urheberinnen und Urheber selbst unmittelbar berücksichtigt werden. Schließlich war dies ja auch das zentrale politische Argument der Befürworterinnen und Befürworter von Art. 17. Unbedingt beibehalten werden sollte die Ausnahmevorschrift, die besagt, dass Dienste wie Online-Enzyklopädien oder Wissenschaftsrepositorien nicht in den Anwendungsbereich fallen, entwicklungsoffen sind („insbesondere“).

2. Karikatur, Parodie und Pastiche: Alltagspraxis muss endlich frei sein

Der Gesetzentwurf enthält mit der neuen Schranke für Parodie, Karikatur und Pastiche eine wichtige Vorschrift. Das Ziel muss sein, insbesondere die Remix-Alltagskultur im Netz endlich zu legalisieren und die urheberrechtlichen Freiheiten so an die gesellschaftliche Realität anzupassen. Im weiteren Gesetzgebungsprozess sollte schließlich genau geprüft werden, ob tatsächlich alle Formen der „transformativen Alltagsnutzung“ im Netz abgedeckt sind – Memes, Remixe etc., wie es der Entwurf besagt. Wir unterstützen dieses Ziel ebenso wie die Regelung für Upload-Plattformen, die diese Nutzungsfreiheiten unter besonderen Schutz vor Overblocking stellt. Viele Auseinandersetzungen im Urheberrecht der letzten Jahrzehnte haben außerdem gezeigt, dass auch professionelle Urheberinnen und Urheber selbst auf Nutzungsfreiheiten angewiesen sind – auch sie können durch zu strikte Urheberrechte beschränkt sein. Auch in ihrem Interesse liegen also breite Schrankenregelungen.

3. Pre-Flagging muss menschliche Entscheidung bedeuten

Trotz Pre-Flagging können Inhalte gesperrt werden, wenn sie 90 Prozent oder mehr geschützten Inhalt enthalten. Die quantitative Festlegung auf einen automatisierten Schwellwert wird zweifelsohne zu einem Overblocking von Inhalten führen. Dies muss korrigiert werden. Beispiel: Ein Video, das zum größten Teil aus einem geschützten Teil besteht (z. B. 18 Sekunden), kann durch einen eigenen Schluss (z. B. 2 Sekunden) zu einer Parodie werden. Der Inhalt würde fälschlicherweise gesperrt werden – automatisiert. Das gleiche Problem ergibt sich bei einer unklaren Lage zu den Urheberrechten.

4. 250 Kilobyte Größenbeschränkung untauglich

Die Größenbeschränkung von 250 Kilobyte für eine private Nutzung von urheberrechtlich geschützten Werken wird sich in der Praxis kaum als nützlich erweisen. Insbesondere dann nicht, wenn das Werk in einem Remix (Collage, etc.) verwendet wird. Enthält eine Datei ein Foto, die geschützt ist, lässt sich aus der Dateigröße kaum ermitteln, ob die 250kb-Marke für den Teil des geschützten Werkes nicht überschritten wird. Beispiel: Wird ein Foto mit einem Text versehen, so wie es bei Memes üblich ist, und die Datei dadurch 251kb groß ist, ist dies algorithmisch kaum zu bewerten. Wären in diesem Fall 1kb für den Text reserviert? Dies lässt sich technisch nicht aufschlüsseln.

Hinzu kommt, dass versierte Nutzerinnen und Nutzer in der Lage sind, Grafiken durch den Einsatz professioneller Software in der Dateigröße so zu verkleinern, dass sie zwar hochauflösend sind, aber eine geringe Dateigröße aufweisen. Hier werden die Nutzerinnen und Nutzer benachteiligt, die nicht im Besitz dieser Software sind oder entsprechendes Fachwissen fehlt. Die Barrierefreiheit der digitalen Kommunikation wird dadurch erheblich eingeschränkt.

5. Zugang zu Kultur im Netz: Bestehendes erschließen, Gemeinfreiheit stärken

Viele Bereiche aus unserer Gesellschaft, die in Büchern, Flyern, Plakaten etc. kulturell festgehalten sind, liegen verschlossen in Archiven. Viele dieser Werke sind nur deshalb nicht frei zugänglich, weil die Urheberrechte nicht geklärt werden können oder die Klärung zu aufwendig ist. Für die Wissensgesellschaft ist das ein unhaltbarer Zustand. Gerade der Online-Zugang zum kulturellen Erbe vergangener Zeiten ist zentral für gesellschaftliche Teilhabe und unser Geschichtsbild.

Daher ist es wichtig, den Spielraum der Richtlinie auszuschöpfen und hier moderne Lizenzierungsregelungen einzuführen. Sie ermöglichen es z.B. Museen und Archiven, Werke, die nie im Umlauf waren, der Öffentlichkeit im Netz zur Verfügung zu stellen. Wichtig ist es jetzt, die Hürden gerade für Digitalisierungsprojekte kleiner Archive (etwa aus politischen Bewegungen etc.) so niedrig wie möglich zu halten. Daher sehen wir es kritisch, wenn derartige Nutzungen dort vergütet werden müssen, wo keine „repräsentative Verwertungsgesellschaft“ existiert und eine urheberrechtliche Schranke greift. Europarechtlich ist dies ebenfalls nicht vorgesehen. In der Vergangenheit ist außerdem die Verbreitung von Abbildungen gemeinfreier Werke immer wieder geschwächt worden. Die Richtlinie stellt hierfür die Weichen neu und setzt sich zum Ziel, den Zugang der Allgemeinheit – also auch der Wissenschaft – zur Kultur und zum kulturellen Erbe zu fördern. Dies tut sie, indem sie Reproduktionen gemeinfreier „visueller Werke“ für zwingend gemeinfrei erklärt, also bspw. Fotos von einem Gemälde aus einem Museum. Solche Inhalte können künftig frei im Netz, etwa über Wikipedia, geteilt werden. Ziel muss es dabei sein, Reproduktionen so weit wie möglich gleich zu behandeln:

Daher sind nach unserer Auffassung nicht nur Reproduktionen von Werken umfasst, die einmal geschützt waren, sondern auch solche Artefakte, die nie unter Urheberrechtsschutz gefallen sind. Die Gesetzesbegründung sollte diesen Punkt klarstellen.

 

Die Zukunft des Internets: Mehr als Facebook, Google und Co

Dieser Text unseres Co-Vorsitzenden Henning Tillmann erschien als Gastartikel in der Zeitschrift „Politik und Kultur“ (06/2019) des Deutschen Kulturrats. Die Ausgabe kann hier als PDF-Fassung heruntergeladen werden. Die Zeitschrift verzichtet leider vollständig auf eine gegenderte Sprache.

Die technische Grundlage des World Wide Webs ist beispielgebend für Heterogenität und Gleichberechtigung: Jeder Inhalt ist über eine einzigartige URL ansprechbar. Diese URL mag zwar in manchen Fällen lang und kryptisch sein, aber ist die Adresse einmal abgespeichert, kann der Inhalt beliebig oft abgerufen werden – bis der Anbieter des Inhalts diesen vom Netz nimmt. Eben jene Dezentralität war der Grundpfeiler des Web der ersten 20 Jahre. Tim Berners-Lee, der 1989 das World Wide Web erfand, sagte zum 30-jährigen Geburtstag dem britischen Guardian: „Der entscheidende Faktor ist die URL. Das Entscheidende ist, dass man zu allem verlinken kann.“
Weiterlesen

#BotBrief: Dein Brief an die Europaabegordneten mit dem Nein zum Uploadfilter!

In ganz Europa entstehen momentan Bewegungen gegen die EU-Urheberrechtsreform, die sich unter #Uploadfilter #Merkelfilter #Artikel13 oder #savetheinternet organisieren und den Kampf David gegen Goliath aufnehmen. Bislang werden diese Gegenbewegungen jedoch nicht ernstgenommen, sondern von Verbänden und PolitikerInnen als botgesteuerter Protest oder aus den USA gesteuert verharmlost. Dabei zeigen einige PolitikerInnen auch ein erschreckendes Unwissen über die Inhalte und Konsequenzen der Reform.

Wir wollen den EntscheiderInnen über die neue Urheberrechts-Richtlinie zeigen, dass wir keine Bots sind. Deshalb müssen wir protestieren und sicherstellen, dass unsere Stimmen auch von den Europaabgeordneten gehört werden. Bis zur Abstimmung Ende März oder Anfang April im Europäischen Parlament gilt es, die Abgeordneten davon zu überzeugen, gegen Artikel 11 und 13 zu stimmen. Denn Artikel 11 und 13 werden das Internet maßgeblich verändern – vermutlich zum Schlechteren für alle NutzerInnen, alle Kreativen und Kreativschaffenden, alle UrheberInnen sowie viele europäische Start-Ups, die digitale Geschäftsmodelle auf die Beine stellen.

Da vielen Abgeordneten das Internet noch immer recht fremd ist, sollen die Abgeordneten an ihren analogen Postfächern erkennen können, wie viele BürgerInnen diese Reform ablehnen. Deshalb möchten wir so viele Menschen wie möglich dazu animieren, ihren Abgeordneten einen altmodischen Brief zu schreiben!

Um diejenigen bei diesem Brief zu unterstützen, die zwar gegen Artikel 11 und 13 sind, aber nicht genau wissen, wie sie ihren Unmut zum Ausdruck bringen sollen, haben wir ein kleines Tool entwickelt: Auf BotBrief.eu haben wir den ultimativen Briefgenerator gebaut, mit dem jede/r die Europaabgeordneten seiner oder ihrer Wahl anschreiben kann.

Damit können wir zeigen, dass wir viele und dass wir echt sind. Wir wollen nicht, dass diese Urheberrechtsreform in der vorliegenden Form in Kraft tritt!

Der #Merkelfilter und der Bruch des Koalitionsvertrags

Wikipedia hat als Beschreibung für den Begriff Koalitionsvertrag parat: „Von den beteiligten Parteien werden darin personelle und sachliche Bedingungen vertraglich vereinbart, unter denen sie bereit sind, gemeinsam eine Koalition zu formen.“ Doch was passiert, wenn die Bundesregierung, mit Angela Merkel an der Spitze, genau das Gegenteil von dem tut, was im Koalitionsvertrag niedergeschrieben wurde?

Aber eins nach dem anderen: Wir, Laura-Kristine Krause und Henning Tillmann, Co-Vorsitzende von D64 waren für die SPD Mitglieder der Delegation zur Verhandlung des Digitalkapitels im Koalitionsvertrag. Wir haben über viele Dinge mit der Union gestritten und diskutiert, aber letztendlich sehr kollegial zusammengearbeitet und ein – wie wir finden – guten Gesamtkompromiss gefunden.

Ein wichtiger Bestandteil des Vertrags (PDF) war die folgende, absolut unmissverständliche Formulierung:

„Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu „filtern“, lehnen wir als unverhältnismäßig ab“ (Seite 49).

Dieser Satz war Bestandteil des Gesamtpakets, mit dem wir am Abend des 31. Januars 2018 die Gespräche über das Digitalkapitel abgeschlossen haben. Auch in den höheren Runden, die u. a. auf der Ebene der Parteivorsitzenden geführt wurde, blieb dieser Satz bestehen.

Szenenwechsel:
In den letzten Monaten wird auf europäischer Ebene über eine Reform des europäischen Urheberrechts diskutiert. Ein äußerst kritischer Punkt sind hierbei die sogenannten Upload-Filter. In der Theorie sollen diese dafür sorgen, dass Inhalte, die auf Internet-Plattformen hochgeladen werden, automatisch auf Urheberrechtsverletzungen geprüft werden. Die Praxis zeigt: Sie funktionieren nicht richtig, Fehlerkennungen sind der Standard, nicht die Ausnahme und im Zweifel werden durch die Hintertür Zensurmaßnahmen eingeschleust.
Um dies etwas plakativier zu machen, ist daher zu vermuten, dass folgende Inhalte nicht oder nur eingeschränkt in Zukunft gepostet werden können:

  • Ein Video (z. B. eine Instagram-Story), die im Hintergrund durch Zufall Radiomusik enthält, die urheberrechtlich geschütztes Material enthält.
  • Ein Foto, auf dem der/die Fotografierte ein Shirt mit einem urheberrechtlich geschütztem Motiv zu sehen ist.
  • Ein Statusbeitrag, der ein Zitat aus einem urheberrechtlich geschütztem Songtext enthält.

Anders als man möglicherweise annehmen könnte, sind nicht nur die großen Anbieter (Facebook, Google, …) betroffen, sondern quasi alle Anbieter, die nicht gleichzeitig jünger als drei Jahre sind, weniger als 10 Millionen Euro Umsatz pro Jahr machen UND weniger als 5 Millionen NutzerInnen pro Monat haben. Während eben jene große Anbieter diese Filter verhältnismäßig leicht einbinden können, betrifft der von dem Bundeskanzleramt unterstütze Vorschlag vor allem kleine und mittlere Internetunternehmen.

Einige Abgeordnete der SPD und der CDU/CSU haben im Europaparlament im Sommer des letzten Jahres für die Reform gestimmt, in der auch die Upload-Filter implizit vorhanden sind. Während diese Abgeordnete nicht an den Koalitionsvertrag gebunden sind, ist dies bei der Bundesregierung ausdrücklich der Fall.

Wie aus Hintergrundgesprächen zu hören war, soll Angela Merkel in den letzten Wochen persönlich das Zepter des Handelns in die Hand genommen haben. So soll in enger Absprache mit dem französischen Staatspräsidenten Emmanuel Macron ein Deal entstanden sein, der auch die Zusage zu den Upload-Filtern enthält. In den Trilog-Gesprächen wird sich also Deutschland explizit für Filter einsetzen, die in einem neuen „Kompromiss“-Papier (PDF) verankert sind. Angela Merkel trägt nun die Verantwortung für diese Filter. Wir fordern sie und die Bundesregierung auf, den Koalitionsvertrag zu beachten und nicht vertragsbrüchig zu werden. 

Wir sind entsetzt und enttäuscht. Wenn der Koalitionsvertrag gut ein Jahr nach der Unterzeichnung durch die Bundeskanzlerin nach Belieben um 180 Grad geändert wird, was für einen Sinn macht es dann noch, Positionen schriftlich festzuhalten?

Laura-Kristine Krause und Henning Tillmann
Co-Vorsitzende von D64