Alle Artikel in Allgemein

Digital wählen – wie es (ausnahmsweise) funktionieren kann

Eine gekürzte Fassung dieses Beitrags wurde in der Süddeutschen Zeitung veröffentlicht. Ein Lösungsvorschlag von Marina Weisband, Erik Tuchtfeld und Henning Tillmann. 

Seit Beginn der Covid-19-Pandemie ist das klassische Vereins- und Parteileben nicht mehr möglich. Nichtsdestotrotz müssen Beschlüsse gefällt und Vorstände gewählt zu werden. Aufgrund von Abstandsregeln und Kontaktbegrenzungen können aber Mitgliederversammlungen oder Parteitage nicht durchgeführt werden. Das prominenteste Beispiel ist die CDU, die seit über einem halben Jahr auf die Wahl des neuen Vorsitzenden wartet. Aktuell bemühen sich nun die im Bundestag vertretenen Parteien eine Lösung zu finden – insbesondere auch durch die Ermöglichung von digitalen Wahlen. Mit dieser Herkules-Aufgabe beschäftigen sich seit rund 20 Jahren verschiedene Institutionen, eine akzeptable Lösung lag bisher noch nicht auf dem Tisch. Dies ist ein neuer Versuch.

Unsere Wahlgrundsätze

In Art. 38 Abs. 1 Satz 1 unseres Grundgesetzes heißt es: „Die Abgeordneten des Deutschen Bundestages werden in allgemeiner, unmittelbarer, freier, gleicher und geheimer Wahl gewählt.“ Damit sind fünf der sechs Wahlgrundsätze genannt: Die Allgemeinheit, die gebietet, dass jede Bürgerin und jeder Bürger wählen darf; die Unmittelbarkeit, die uns vor einem „Electoral College“ wie in den USA schützt; die Freiheit, welche die Androhung oder Ausübung von Zwang verbietet; die Gleichheit, die – anders als bspw. im 19. Jahrhundert in Preußen – garantiert, dass jede Stimme den gleichen Wert hat und einen möglichst gleichen Einfluss auf die Zusammensetzung des Parlaments haben soll; und die Geheimheit, die gegeben ist, wenn die Stimmabgabe niemand anderem offenbart wird. Sie stellt – so formuliert es das Bundesverfassungsgericht – den wichtigsten Schutz für die Wahlfreiheit dar. Diese Wahlgrundsätze gelten nicht absolut: So nehmen wir bspw. bei der Briefwahl in Kauf, dass unter anderem die Geheimheit der Wahl nicht durch den Staat sichergestellt werden kann, um eine möglichst hohe Wahlbeteiligung und damit eine möglichst allgemeine Wahl zu erreichen.
Einen weiteren Wahlgrundsatz hat das Bundesverfassungsgericht zudem aus der Gesamtschau von Rechtsstaats- und Demokratieprinzip (Art. 20 Grundgesetz) sowie den anderen fünf Grundsätzen entwickelt: Der Wahlgrundsatz der Öffentlichkeit der Wahl. Dieser steht, anders als der Name vielleicht zunächst vermuten lässt, nicht im Gegensatz zur Geheimheit, sondern schreibt vielmehr vor, dass alle wesentlichen Schritte der Wahl, von der Abgabe bis zur Auszählung, für den Laien verständlich und nachvollziehbar sein müssen. Dieser Wahlgrundsatz ist es, der jede Form von digitalen Wahlen am Grundgesetz scheitern lässt: Selbst wenn es tatsächlich möglich wäre, ein digitales Wahlverfahren absolut sicher zu gestalten – was IT-Sicherheitsexperten für nicht möglich halten –, so wäre es doch niemals für Laien nachvollziehbar. Sie müssten vielmehr auf die Expertise anderer vertrauen und Zweifel – egal ob begründet oder unbegründet – könnten nicht für jeden und jede nachvollziehbar widerlegt werden. Wie wichtig dies ist, eine nachvollziehbare, überprüfbare Wahl, haben uns nicht zuletzt die Geschehnisse der vergangenen Wochen in den USA gezeigt.

Was jetzt schon geht (und was eher nicht)

Nichtsdestotrotz stehen wir nun alle vor einem Dilemma: Wichtige Entscheidungen müssen getroffen, Wahlen in Parteien durchgeführt werden, ein physisches Zusammenkommen zur Abgabe von Stimmzetteln ist aber nicht möglich. Der Ruf nach digitalen Wahlen und Abstimmungen wird deshalb wieder lauter und er ist auch nicht ganz unberechtigt: Die Demokratie muss auch in diesen Zeiten handlungsfähig bleiben. Demokratie ist mehr als staatliche Wahlen, sondern zeichnet sich auch durch das gemeinsame Entscheiden in Vereinen, Verbänden und Parteien aus. Was sich in digitaler Form unproblematisch durchführen lässt, sind Abstimmungen über Sachthemen. Diese werden offen durchgeführt, die korrekte Stimmabgabe und Zählung für das Gesamtergebnis ist damit für alle nachvollziehbar. Eine Manipulation ist natürlich möglich – kein System ist unhackbar – sie würde aber sofort auffallen.
Schwieriger ist es bei den geheimen Wahlen. Unsere Überzeugung ist, dass an der Nachvollziehbarkeit von Stimmabgabe bis Ergebnis nicht gerüttelt werden darf. Es gibt keine absolut sicheren informationstechnischen Systeme und neben der tatsächlichen Manipulation der Ergebnisse genügt schon ein Vertrauensverlust in ihre Integrität, um einen Legitimitätsverlust der Gewählten herbeizuführen, der Gift für jede Organisation ist. Dazu kommt, dass jeder Fehler in einem solchen digitalen System, sei es ein Problem in der Verarbeitung der Stimmen oder eine Sicherheitslücke, die dazu führt, dass Dritte das System übernehmen, immer solche Ausmaße annimmt, dass die Wahl als Ganzes korrumpiert ist. Das Vertrauen in einen „Blackbox“ darf deshalb nicht Grundvoraussetzung für Wahlen werden.
Für staatliche Wahlen gibt es keine Alternative. „Remote-Wahlen“ müssen hierbei immer Briefwahlen sein. Anders sieht es bei Vereinen aus: Sie sind in ihrer Organisation (weitgehend) frei und können damit auch ihr Wahlverfahren selbst bestimmen. Auch ein Verzicht auf einzelne Wahlgrundsätze, wie bspw. die Geheimheit, ist grundsätzlich möglich. Etwas schwieriger ist es bei Parteien: Sie sind „Organe des Verfassungslebens“, die vom Grundgesetz beauftragt werden, an der „politischen Willensbildung des Volkes“ mitzuwirken. Daraus ergibt sich eine engere (mittelbare) Bindung an die grundgesetzlichen Wahlgrundsätze als es beim lokalen Kaninchenzüchterverein der Fall ist. Grundsätzlich gilt: je näher eine Wahl in einer Partei einer staatlichen Wahl kommt, bspw. die innerparteilichen Listenwahlen, die unmittelbar die Bundestagswahl vorbereiten, desto strenger gelten die Wahlgrundsätze des Grundgesetzes; je eher die Wahl jedoch nur parteiintern ist, bspw. die Vorstandswahlen des lokalen Ortsverbands, desto näher ist auch die Partei an der Organisationsfreiheit, die der Kaninchenzüchterverein für sich in Anspruch nehmen kann.
Die Anwendung dieser Grundsätze macht für uns klar, dass parteiinterne Wahlen, die staatliche vorbereiten, nicht digital durchgeführt werden dürfen. Die Wahlgrundsätze des Grundgesetzes, in solchen Fällen nahezu unmittelbar anwendbar, verbieten dies. Es gibt jedoch auch viele andere parteiinterne Wahlen, die politisch sehr bedeutsam sind, ohne unmittelbar besonders staatsnah zu sein. Man denke nur an den CDU-Vorsitz.

Kein Lösungsvorschlag: die Briefwahl digitalisieren

Einige scheinen deshalb auf den Gedanken zu kommen, man müsse nur die Briefwahl digitalisieren, schon sei das Problem der digitalen Wahlen gelöst. Aus diesen Gründen kursiert derzeit der Vorschlag, den De-Mail-Dienst – der gescheiterte Versuch eines geschlossenen, sicheren, deutschen E-Mail-Netzes – für digitale Briefwahlen zu nutzen. Neben grundsätzlichen Sicherheitsbedenken gegen den Einsatz von De-Mail lebt die Geheimheit der Briefwahl jedoch davon, dass sich die Authentifizierung (der äußere Wahlumschlag) und die Stimmabgabe (der innere Wahlumschlag) physisch voneinander trennen lassen und dieser Prozess danach nicht mehr umgekehrt werden kann. Eine De-Mail, die aber gleichermaßen Authentifizierung und Stimmabgabe trägt, kann nicht physisch getrennt werden. Wer Zugriff auf die Stimme hat, weiß auch, wer sie abgegeben hat. Die (digitale) Trennung von Authentifizierung und Stimmabgabe mag in einer Software vorgelagert werden, wer aber Zugriff auf diese Software hat (rechtmäßig oder unrechtmäßig), kann die Geheimheit der Wahl aufheben und die Stimmabgabe auf eine individuelle Person zurückführen.
Im Übrigen gilt auch hier, dass die Wählenden (blind) darauf vertrauen müssten, dass ihre Stimmen richtig übertragen wurden, sie danach richtig erfasst wurden und auch bei der Berechnung des Ergebnisses keine Fehler verursacht werden. Das Vertrauen in eine solche Blackbox darf aber nicht die Voraussetzung für das Funktionieren einer Wahl sein.

Ein Lösungsvorschlag: Nachvollziehbarkeit als Priorität

Wir möchten deshalb für solche Wahlen eine andere Lösung vorschlagen, die die Nachvollziehbarkeit der Wahl, aber weitestgehend auch die Geheimheit und damit die Freiheit garantiert. Wir sind der Überzeugung, dass das Vertrauen in den demokratischen Prozess, gewährleistet durch den Wahlgrundsatz der Öffentlichkeit der Wahl, die wichtigste Grundvoraussetzung darstellt. Das Ziel ist es deshalb, dass die Ergebnisermittlung nachvollziehbar bleibt, ohne dass eine Stimme einer Person zugeordnet werden kann.
Wie das aussehen könnte, erklären wir im Folgenden am Beispiel des Bundesparteitags der CDU. Selbstverständlich kann dieses Verfahren aber auch bei anderen Parteien oder Vereinen angewendet werden. Der CDU-Parteitag setzt sich aus 1001 Delegierten zusammen. Im Vorfeld erhält jede und jeder Delegierte auf sicherem Wege mehrere Zugangscodes, um an den Wahlen teilzunehmen. Diese Codes werden von der Partei generiert, die Zuordnung von Person zu Zulassungscode bei der Partei wird unmittelbar nach dem Versand der Codes gelöscht. Jeder Code ist für einen bestimmten Wahlgang gültig.
Ein Wahlanbieter, der in keiner Verbindung zur Partei steht, erhält die Liste aller Zugangscodes, nicht aber deren Zuordnung zu den Personen. Wenn ein Wahlgang aufgerufen wird, wählt sich der oder die Delegierte mit dem entsprechenden Zugangscode bei dem Wahlanbieter ein und gibt die Stimme ab. In diesem Moment wird eine zufällige Prüfzahl generiert und dem bzw. der Delegierten angezeigt. Im System des Wahlanbieters wird nur die Prüfzahl mit der individuellen Wahlentscheidung gespeichert, nicht jedoch der Zugangscode oder eine sonstige unmittelbare Verknüpfung zur Person.
Nachdem der Wahlgang geschlossen ist, wird eine Liste der Prüfcodes mit den Stimmabgaben öffentlich angezeigt. Nun können die Delegierten, die ihre eigene Prüfzahl kennen, sicherstellen, dass ihre Stimme korrekt gezählt wurde.
Um zu verhindern, dass ein gehacktes System denselben Prüfcode an mehrere Personen vergibt, die gleich abgestimmt haben, und dann weitere fiktive Stimmen erfinden kann, könnte man neben der Prüfzahl noch einen zweiten Sicherheitswert anzeigen, der von einer unabhängigen Stelle vergeben wurde. Denkbar wären bspw. die letzten drei Ziffern der IP-Adresse oder der exakte Zeitpunkt der Stimmabgabe, die dann zusätzlich zum eigentlichen Prüfcode der Überprüfbarkeit der Stimmabgabe dienen.
Auf diese Weise kann jede und jeder Delegierte seine eigene Stimme nachvollziehen und sichergehen, dass sie korrekt im System gespeichert ist. Gleichzeitig ist es aber für keinen Dritten einsehbar, wie Einzelpersonen abgestimmt haben – die Wahl ist somit geheim. So ist das System nicht davon abhängig, dass auf die „Blackbox“ vertraut wird. Manipulationen würden unmittelbar auffallen.

Herausforderungen in diesem System

Die Geheimheit der Wahl ist, wie oben bereits beschrieben, essentiell zum Schutze der Freiheit der Wahl. Nur weil die Stimmabgabe keinem Dritten bekannt ist, kann jede und jeder in der Wahlkabine unabhängig von dem sozialen Druck, dem man sonst vielleicht ausgesetzt ist, abstimmen. Aus diesem Grund wird bei Bundestagswahlen bspw. ein Wahlzettel nicht angenommen, wenn für den Wahlvorstand erkennbar ein Foto von der Stimmabgabe aufgenommen wurde. Dieses Risiko ist aber auch in unserem System trotz individueller Nachvollziehbarkeit gering: Nach der Gesamtveröffentlichung der Prüfcodes mit der jeweiligen Wahlentscheidung kann schließlich auch ein beliebiger anderer Prüfcode als eigener ausgegeben werden, um die tatsächliche individuelle Entscheidung zu kaschieren.
Ein anderes Problem wiegt schwerer: Da jede wählende Person nur ihre eigene Stimme nachvollziehen kann, könnten Personen, der mit dem Ergebnis einer Wahl nicht einverstanden ist, behaupten, dass ihre eigene Stimme falsch gezählt wurde und die Wahl somit kompromittiert sei. Nachvollziehen könnte das niemand. In solchen Fällen müssten wohl Wahlvorstände und Parteischiedsgerichte sich damit auseinandersetzen, wie glaubwürdig das Vorbringen des oder der Einzelnen ist. Wir sehen diesen Nachteil und sind trotzdem der Überzeugung, dass der Mehrwert, der durch eine individuelle Überprüfbarkeit geleistet wird, die Nachteile deutlich überwiegt, die entstehen würden, wenn blind auf eine Blackbox vertraut werden würde.
Höchste Anforderungen sind außerdem auch den Wahlanbieter zu stellen. Das verwendete System sollte von einer öffentlichen Stelle zur Verfügung gestellt werden. Die Infrastruktur für digitale Wahlen sollte also als Teil der öffentlichen Infrastruktur gesehen werden, die ehrenamtliches Engagement, nicht nur in Parteien, sondern auch in den vielen Vereinen in Deutschland, möglich macht. Unabdingbar ist es auch, dass der Quellcode öffentlich einsehbar ist (Open Source) und das System regelmäßig von unabhängigen Stellen geprüft wird (Audits).

Keine gute Lösung, aber die bestmögliche

Auch in Pandemiezeiten sind Stift und Zettel die wichtigsten Instrumente der Demokratie. Sie bleiben die einzigen Werkzeuge, die bei staatlichen Wahlen – oder solchen, die staatliche Wahlen unmittelbar vorbereiten – verwendet werden dürfen. Doch Vereine und Parteien müssen auch funktionsfähig bleiben, wenn die Gesundheit aller durch Abstand geschützt wird. Daher sind unseres Erachtens in bestimmten Szenarien digitale Wahlen möglich. Aber wenn Wahlen digital abgehalten werden müssen und die Öffentlichkeit der Wahl, die Nachvollziehbarkeit für die Wählenden, gegen die perfekte Geheimhaltung steht, sollte die Öffentlichkeit bevorzugt werden. Eine Blackbox, bei der alle Wählenden blind auf das System vertrauen müssen, ist stets abzulehnen. Eine mögliche Wahlmanipulation – schon nur der Glauben daran – beschädigt das gesamte System und wiegt schwerer als alles andere. Das Dilemma zwischen Nachvollziehbarkeit und Geheimhaltung ist kaum gut aufzulösen. Doch von vielen schlechten Lösungen für digitale Wahlen halten wir die, die Manipulationen verhindert, noch für die beste.

Tastende Regulierung konkreter Risiken – D64 Position zum „Weißbuch – Zur Künstlichen Intelligenz“ der Europäischen Kommission

Im ersten Quartal des Jahres 2021 will die Europäische Kommission einen Vorschlag für einen Rechtsakt zur Künstlichen Intelligenz vorlegen. Zur Vorbereitung hat sie im „Weißbuch – Zur Künstlichen Intelligenz“ Vorschläge veröffentlicht, um ein „Ökosystem für Exzellenz“ (Fördermaßnahmen) und ein „Ökosystems für Vertrauen“ (Regulierung) zu schaffen. Zugleich hat sie zu einem breiten Beteiligungsprozess eingeladen. Die D64 Arbeitsgruppe KI hat eine umfangreiche Stellungnahme eingereicht in der sie den Vorstoß der Kommission befürwortet und eine „tastende“ Regulierung fordert.

D64 begrüßt ausdrücklich, die im Weißbuch zum Ausdruck gebrachten Ziele der Kommission, Künstliche Intelligenz durch ein „Ökosystem für Exzellenz“ EU-weit zu fördern sowie durch ein „Ökosystem für Vertrauen“ Rechtssicherheit und Vertrauen zu gewährleisten. Gleichwohl sieht D64 aber auch Bedarf, die vorgelegten Konzepte zu schärfen und zu optimieren.

Die Zustimmung zum Weißbuch wird von zwei Leitgedanken getragen:

  • D64 sieht sich insbesondere den europäischen Grundwerten Freiheit, Gerechtigkeit und Solidarität verpflichtet. Digitalisierung und Technologisierung sind kein Selbstzweck. Aufgabe der Politik, Wirtschaft und Zivilgesellschaft ist es, Künstliche Intelligenz (KI) und andere algorithmische Systeme – wie jede andere Technologie auch – zu einem Mittel zur Stärkung dieser Grundwerte und zur Vergrößerung des gesamtgesellschaftlichen Wohlergehens zu machen. Gemeinnützige technologische Innovationen (sog. social innovations) sind ein wichtiges Mittel um dieses Ziel zu erreichen.
  • Wir begreifen verhältnismäßige Regulierung und Innovationsförderung als Zusammenspiel: Regulierung verhindert gemeinwohlschädliche Anwendungen und schafft so Vertrauen in digitale Technologien. Sie schützt unsere Grundrechte und baut Vorbehalte gegen neue Technologien ab. Damit trägt sie zur verstärkten Nutzung und somit letztlich zur Wohlstandssicherung bei und gewährleistet die europäische Wettbewerbsfähigkeit.

D64 hat weitere Verbesserungsvorschläge zu den Vorschlägen der Kommission:

  • Orientierung am gesellschaftlich Erwünschten anstelle einer Orientierung des Normativen am Faktischen
    Wir sind der Auffassung, dass sich Regulierung nicht auf „eindeutig festgestellte Probleme […] für die es praktikable Lösungen gibt“ (Weißbuch, S. 12), beschränken sollte. Im Unterschied zu physischen Produkten (wie z.B. Chemikalien) besteht beim Einsatz von Algorithmischen Systemen und in besonderer Weise beim Einsatz von Künstlicher Intelligenz die Schwierigkeit, Probleme und Gefahren aufzudecken und nachzuweisen. Insbesondere gesamtgesellschaftliche Auswirkungen lassen sich kaum individuell beziffern. Ungewissheiten bezüglich der Auswirkungen neuer Technologien sind seit jeher kein pauschaler Ausschlussgrund für vorbeugende Risikominimierung (vgl. anstelle vieler: die risikominimierende Regulierung der Gentechnik durch das Gentechnikgesetz von 1990). Zudem dürfen technische Gegebenheiten nicht den normativ geprägten Gesetzgebungsprozess bestimmen: Der Gesetzgeber gibt vor, was Technik darf, nicht umgekehrt.
    Im Zentrum der Regulierung neuer Technologien sollte stets zuerst die Betrachtung des Risikos* ihrer Anwendungen für die Gesellschaft und individuell Betroffene stehen und dann die Definition der gesellschaftlich erwünschten Anforderungen folgen – unabhängig von der Frage wie schwer oder einfach diese technisch zu erreichen sind.
  • Orientierung am konkreten Risiko anstelle einzelner Technologien und Sektoren
    Wir raten dringend davon ab, den Regulierungsrahmen auf den Einsatz von KI in ausgewählten Sektoren zu begrenzen (Weißbuch, S. 19 ff.).
    Ein auf KI beschränkter Ansatz ist bereits im Ausgangspunkt zu eng. Zum einen gibt es zurzeit keine allgemein anerkannte und erschöpfende Definition von KI. Definiert man KI z.B. als Maschinelles Lernen, können algorithmische Entscheidungssysteme auch ohne eine solche KI-Komponente in bestimmten Anwendungsszenarien zu exakt denselben Risiken führen.
    Ein algorithmisches Entscheidungssystem kann in mehreren Sektoren zum Einsatz kommen. Zwar lassen sich unter Umständen Sektoren ausmachen, in denen der Einsatz typischerweise besonders risikogeneigt ist. Diese typisierte Betrachtung darf aber nicht den Blick darauf verstellen, dass algorithmische Entscheidungssysteme auch jenseits dieser Sektoren im Einzelfall zu schwerwiegenden Grundrechtseingriffen führen können. Umgekehrt existieren in jedem Sektor auch gänzlich unriskante Anwendungen.
    Der regulatorischen Anwendungsbereich sollte daher algorithmische Systeme umfassen, die aufgrund ihrer konkreten Verwendung zur Entscheidung über Menschen anhand von Daten zu hohen Risiken für grundrechtlich geschützte Güter führen.
  • „Gestufte Regulierung“ anstelle einer binären Unterteilung in Anwendungen mit hohem Risiko (einerseits) und ohne solches (andererseits)
    Die Kommission möchte in Anwendungen ohne Risiko und Anwendungen mit hohem Risiko unterteilen. Für letztere sollen stets alle Anforderungen (von menschlicher Aufsicht über Transparenz bis hin zu Qualität/Robustheit) gleichzeitig gelten (Weißbuch, S. 22 ff.).
    Wir halten diese binäre Unterteilung für zu undifferenziert.
    Erforderlich ist eine „gestufte Regulierung“, die je nach konkretem Risiko feingranularere Abstufungen vorsieht (siehe Abbildung unten). Je größer das Risiko der Anwendung ist, desto mehr Anforderungen müssen erfüllt werden. Dabei kommen je Stufe immer weitere Anforderungen hinzu. Wenn z.B. ein Algorithmus basierend auf den Ergebnissen des Online-Fragebogens auf Stufe 4 eingeordnet wird, muss dieser auch Anforderungen 2 und 3 erfüllen. Konkret dürfte diese Anwendung dann nur eingesetzt werden, wenn ein Mensch sie kontrolliert (Menschliche Aufsicht) sowie die betroffene Person darüber informiert wird, dass (Transparenz „Ob“) und in welcher Form (Transparenz „Wie“) ein Algorithmus für die Entscheidung zum Einsatz kommt. Mit „gestufter Regulierung“ wird sichergestellt, dass das Risiko einer Anwendung in einem verhältnismäßigen Maß zu ihrer Regulierung steht.
  • „Tastende Regulierung“ anstelle eines regulatorischen Schnellschusses
    „Tastend“ heißt, dass der Gesetzgeber nicht von Anfang an alle Stufen festlegt, sondern zunächst nur die erste Stufe verpflichtend macht. Das heißt, dass Akteure, die algorithmische Entscheidungssysteme** einsetzen, einen einfachen Online-Fragebogen ausfüllen. Um dieses behördliche Wissen sodann in gesamtgesellschaftliches Wissen zu transferieren, sollten die Behörden Jahresberichte sowie die gesammelten statistischen Daten zur Verwendung von algorithmischen Entscheidungssystemen und den dabei entstehenden Risiken veröffentlichen.
    Basierend auf diesen Ergebnissen sollte der Gesetzgeber dann die Anwendungen auswählen, für die weitergehende Anforderungen wie z.B. im Hinblick auf Nicht-Diskriminierung, menschliche Aufsicht, Genauigkeit und Robustheit gelten. Der Gesetzgeber lernt also kontinuierlich hinzu und erhebt Daten für die weitere Regulierung.

Ausblick:

  • Die EU-Kommission wird nun bis Anfang 2021 alle Stellungnahmen konsolidieren und anschließend ein Konzept für einen Rechtsrahmen vorlegen.
  • Da es die Arbeitsgruppe trotz Bemühungen nicht geschafft, das selbstgesetzte Ziel der Geschlechterparität innerhalb der Arbeitsgruppe zu erreichen, ist die vorliegende Stellungnahme als „lebendes Dokument“ zu verstehen und soll als Grundlage für eine weitere öffentliche und vor allem inklusive Diskussion dienen. Ziel ist es, die Positionen aus dieser Stellungnahme und ggf. weitere Positionen zum Thema Künstliche Intelligenz aus unterschiedlichen Perspektiven zu beleuchten, die unsere heterogene Gesellschaft bestmöglich widerspiegeln. Diese Diskussion wird D64 zeitnah anstoßen.

*D64 versteht unter „Risiko” allgemein die Kombination aus der Eintrittswahrscheinlichkeit eines schädigenden Ereignisses und der Schwere des möglichen Schadens. So ähnlich auch die Legaldefinition in beispielsweise § 2 Nr. 23 ProdSG. Konkret sieht D64 mögliche Risiken für den Nicht-Diskriminierungs-Grundsatz (z.B. Job-Bewerbungen, Art. 3 GG), die persönlichen Entfaltungsmöglichkeiten (z.B. Kreditanträge, Art. 2 I GG), die persönliche (z.B. Gesichts- und Gangerkennung, Art. 2 I i.V.m. Art. 1 I GG) sowie räumliche (z.B. Sprachassistenten, Art. 13 GG) Privatsphäre oder die Meinungs- und Versammlungsfreiheit (z.B. Newsfeed-Sortierung, Art. 5 und 8 GG). Ausführlich hierzu in „B.1 Problemstellung“ der Stellungnahme.
**Unter algorithmischen Entscheidungssystemen versteht D64 algorithmische Systeme, die anhand personenbezogener Daten Entscheidungen über Menschen mit potentiellen Auswirkungen auf grundrechtlich geschützte Güter treffen oder solche vorbereiten und die geschäftsmäßig (nicht z.B. lediglich im Hobby oder Studium) eingesetzt werden.

 

Enquete Kommission Künstliche Intelligenz mit D64-Beteiligung beendet

Nach mehr als zwei Jahren hat die Enquete-Kommission Künstliche Intelligenz vergangene Woche ihren Bericht an den Bundestagspräsidenten übergeben. Mit Jan Kuhlen befand sich auch ein Vertreter von D64 unter den 19 Mitgliedern der Enquete Kommission. D64 beschäftigt sich bereits seit knapp fünf Jahren mit dem Thema und hebt dabei fortlaufend die Potentiale der Technologie für unsere Gesellschaft hervor.

2018 hat D64 e.V. das Positionspapier zum Einfluss Künstlicher Intelligenz auf Freiheit, Gerechtigkeit und Solidarität (PDF) veröffentlicht. Darin finden sich einige zentrale Forderungen zur Gestaltung einer digitalen Zukunft, die den Mensch in das Zentrum ihrer Überlegungen stellt. Unter anderem plädiert D64 für klare Richtlinien sowie internationale Transparenz- und Ethikstandards beim Einsatz von KI, denn nur so kann der verantwortungsbewusste Umgang gewährleistet werden.

Heute wird der Bericht im Deutschen Bundestag beraten – ein knapp 800 Seiten dickes Kompendium (PDF) über die Chancen und Risiken Künstlicher Intelligenz. Das Papier entspricht zu großen Teilen einem Konsens aller Fraktionen. Dementsprechend stellen viele Positionierungen einen Interessenausgleich dar, dem das Leitbild menschenzentrierter Künstlicher Intelligenz zugrunde liegen soll. Einige deutlichere Positionierungen sind den Sondervoten zu entnehmen. Hierzu sagt Jan Kuhlen, Koordinator der AG Künstliche Intelligenz von D64:

 „Wir halten die Technologie in unseren Händen. Das Ziel für die Gestaltung des rechtlichen Rahmens muss eine freiere, gerechtere Gesellschaft sein, die wir auf das Wohl der Menschen ausrichten müssen. Das ist möglich und sollte im nächsten Schritt regulatorisch umgesetzt werden. Auf unsere Arbeit in der Enquete-Kommission kann dabei aufgebaut werden.“

Die Frage ist nun, inwiefern die Ergebnisse der Enquete Kommission Eingang in Gesetzgebungsprozesse finden. Dabei ist es wichtig, dass Regulierung und Innovationsförderung im Bereich Künstlicher Intelligenz nicht an den deutschen Staatsgrenzen enden dürfen, sondern auch auf europäischer Ebene gedacht und umgesetzt werden müssen. Aus diesem Grund hat die AG Künstliche Intelligenz von D64 sich auch mit einer Stellungnahme am Prozess zum Weissbuch Künstliche Intelligenz der europäischen Kommission beteiligt.

Auch Lena Stork, Mitglied des D64-Vorstands, begrüßt das Engagement von D64 auf nationaler und europäischer Ebene. Sie begleitet das Thema Künstliche Intelligenz im Verein seit Beginn und sieht die Beteiligung an der Enquete-Kommission als starkes Signal für den Verein: „Schon lange vor Einsetzung der Enquete-Kommission haben wir das Thema Künstliche Intelligenz bei D64 erkannt und in Thesenpapieren und Konferenzen in den politischen Raum gebracht. Ich freue mich, dass das Thema jetzt auch im Parlament mehr Aufmerksamkeit erhält.“

Foto: Reichstagsgebäude von Christian Lue auf Unsplash

Geheimdienste raus aus unseren Messengern! – D64 gegen Staatstrojaner

Die Bundesregierung führt – wieder einmal – die Bekämpfung des Terrorismus an, um in die Grundrechte der Bürgerinnen und Bürger einzugreifen. Mittels der Quellen-TKÜ (Telekommunikations-Überwachung) soll es Geheimdiensten wie dem Bundesnachrichtendienst (BND), dem Militärischen Abschirmdienst (MAD) und Verfassungsschutz ermöglicht werden, verschlüsselte Nachrichten mitzulesen.
D64 widerspricht diesem Vorhaben wiederholt und vehement.

Statt des sogenannten Richtervorbehalts, der die Anordnung eines Gerichts bezeichnet, ist für die Quellen-TKÜ nur die Zustimmung der G10-Kommission vorgesehen. Ob und warum überhaupt Anträge abgelehnt werden, wird nicht veröffentlicht. So kann demokratische Kontrolle nicht funktionieren!

Die zu Beginn diskutierte Beschränkung auf unmittelbar bevorstehende Anschläge, bei denen ausländische Geheimdienste zuvor Informationen geliefert haben, sucht man vergeblich. Folglich hat das Bundesamt für Verfassungsschutz freie Hand bei der Wahl seiner Spionageziele.

Die IT-Sicherheit wird lieber gar nicht erwähnt und unter den Tisch fallen gelassen. Verständlich da Sicherheitslücken in der Software des auszuspähenden Endgerätes notwendig sind, damit die Quellen-TKÜ diese nutzen kann, um in das System und an die sensiblen Daten zu gelangen. Aber nicht nur Nutzerinnen und Nutzer veralteter Software sind bedroht: Auch aktuelle Versionen können bisher nicht geschlossene oder unveröffentlichte Sicherheitslücken beinhalten. Das Bundesinnenministerium warnte jüngst sogar vor einem Anstieg. Diese versuchen die Geheimdienste auszunutzen. Anstatt unsere Sicherheit zu schützen, indem diese Sicherheitslücken an die Hersteller gemeldet werden, erweisen die Behörden einen Bärendienst und nutzen diese im Geheimen aus.

Hochproblematisch ist ebenso die Mitwirkungspflicht der Telekommunikationsanbieter und anderer Dritter. So können einerseits per “Drive-By”-Downloads Schadsoftware überspielt werden, was das Vertrauen in die IT-Infrastruktur massiv senkt und im schlimmsten Fall unbeteiligte Dritte trifft. In einer weiten Auslegung ist es sogar möglich, dass Expertinnen und Experten, die Sicherheitslücken aufspüren, diese nicht öffentlich machen dürfen.

Handlungserfahrung in diesem Bereich hat der US-Geheimdienst National Security Agency (NSA) bereits im Jahr 2017 gesammelt. Durch die Cyberattacke der Schadsoftware WannaCry wurden mindestens 200.000 Computer, darunter Systeme des britischen Gesundheitsdienstes NHS, der Deutschen Bahn und Regierungsbehörden in aller Welt, infiziert.

“Mit Vollgas am Ziel vorbei! –
Die Bundesregierung gefährdet die innere Sicherheit,
anstatt sie zu gewährleisten. Es darf kein deutsches WannaCry geben”,
mahnt Bendix Sältz, Koordinator der AG Datenschutz.

Die, im ersten Entwurf im März 2019 enthaltene, Passage der Online-Durchsuchungen wurde gestrichen, jedoch ist durch den unklaren Umfang der Informationserhebung genau dies das potenzielle Ergebnis. Außerdem kritisieren wir, dass die Bundesregierung aus CDU/CSU und SPD den Einsatzbereich dieses “Staatstrojaners” durch die 16 Geheimdienste aller Bundesländer sowie BND, MAD und Bundes-Verfassungsschutz (in Summe also 19) sogar ausweitet statt ihn einzudämmen.

D64 fordert die Abgeordneten des Deutschen Bundestages auf, diesem unverhältnismäßigen Eingriff in Grundrechte nicht zuzustimmen und sich stattdessen klar gegen staatliche Schnüffelei auf deutschen Smartphones und Computern zu positionieren.

Recap: So war #D64diskutiert zur deutschen EU-Ratspräsidentschaft!

Digitalpolitik sollte eine essentielle Rolle unter der deutschen EU-Ratspräsidentschaft spielen. Dann kam die Coronakrise. Wie haben sich die Prioritäten verschoben, was ist geblieben, von den ambitionierten Plänen und was lässt sich in so kurzer Zeit überhaupt umsetzen? In der dritten Runde #D64diskutiert widmeten wir uns am 10. September 2020 dem Thema “Verpasste Chancen? Digitalpolitik und die deutsche EU-Ratspräsidentschaft”. Dazu diskutierten Julia Reda (ehemaliges Mitglied des Europäischen Parlaments, Projektleitung control © bei der Gesellschaft für Freiheitsrechte und Mitglied des D64-Beirats), Tiemo Wölken (Mitglied des Europäischen Parlaments (SPD)) und Thomas Jarzombek (Mitglied des Bundestags (CDU) und Beauftragter des Bundeswirtschaftsministeriums für Digitale Wirtschaft und Start-Ups) mit unserer Moderation aus dem D64-Vorstand, Lena Stork und Erik Tuchtfeld.

Die gesamte Diskussion gibt es hier zum Nachschauen:

Zu Beginn der Diskussion wurden die Erwartungen an die deutsche EU-Ratspräsidentschaft aus digitalpolitischer Sicht beleuchtet. Dabei wurde schnell klar, dass die Corona-Pandemie durchaus eine inhaltliche Verschiebung der Prioritäten für die Ratspräsidentschaft mich sich bringt. Trotzdem finden auch einige relevante digitalpolitische Themen ihren Platz. Von Seiten der deutschen Regierung liegt ein Schwerpunkt auf dem Ausbau europäischer Souveränität im Digitalen Zeitalter, unter anderem mit dem europäischen Cloud-Projekt GAIA-X. Darüber hinaus geht es der Bunderegierung um die Stärkung der europäischen Plattformökonomie, etwa durch die Vorbereitung des Digital Services Acts. Aber auch die Schaffung rechtlicher Rahmenbedingungen für die digitale Gesellschaft, etwa durch die ePrivacy-Verordnung findet sich auf der Liste. Insbesondere bei letzterer zeigte sich, dass die Runde dies als eine absolute Priorität für die deutsche EU-Ratspräsidentschaft ansah. Einig war sich die Runde auch, dass es einer besseren europäischen Förderung von Open Source-Projekten bedarf.

Bezüglich des Cloud Projektes GAIA X zeigte sich Tiemo Wölken etwas skeptisch, da es sich vor allen Dingen um eine deutsch-französische Initiative handele und es kein gesamteuropäisches Projekt sei – das sei nicht unbedingt die beste Voraussetzung für durchschlagenden Erfolg auf europäischer Ebene. Anders ist dies beim Digital Services Act, welcher Klarheit über die Plattformregulierung innerhalb der EU schaffen soll. Allerdings wird der erste Entwurf der Kommission erst Ende 2020 erwartet und somit kaum mehr Thema innerhalb der deutschen Ratspräsidentschaft sein. Bezüglich der Einflussmöglichkeiten der Mitgliedsstaaten auf die Umsetzung von europäischen Verordnungen und Richtlinien stellte Julia Reda klar, dass Verordnungen – wie die Datenschutzgrundverordnung – als unmittelbar geltendes Recht den Mitgliedsstaaten keinen Umsetzungsspielraum mehr ließen. Anders bei Richtlinien: Diese werden erst durch nationale Umsetzungsgesetze verbindliches Recht, so dass die Mitgliedsstaaten einen Spielraum besitzen, was sich auch im Moment im Zusammenhang mit der Urheberrechtsrichtlinie zeige. Hier könne Deutschland mit seiner Herangehensweise ein positives Beispiel setzen, da man versucht Uploadfilter zumindest teilweise zu verhindern.

Die Diskussion zeigte, dass es in der europäischen Digitalpolitik noch einiges zu erarbeiten und zu entscheiden gibt, was im Rahmen einer sechsmonatigen europäischen Ratspräsidentschaft nicht im Gesamten zu bewältigen ist. Nichtsdestotrotz sah die Runde keinen Anlass dafür, die deutsche Ratspräsidentschaft schon jetzt als verpasste Chance für wichtige digitalpolitische Projekte zu betrachten. Damit es dabei bleibt, wünschten sich die Diskutanten insbesondere eine Einigung bezüglich der ePrivacy-Verordnung. Julia Reda und Tiemo Wölken unterstrichen in ihren Schlussstatements zudem die Notwendigkeit für ein klares Bekenntnis zur Open-Source-Förderung sowie ein größerer finanzieller Rahmen für Digitalprojekte im Allgemeinen. Es bleibt also spannend, wenn es um die digitale Zukunft Europas geht. Als D64 freuen wir uns diesem Diskurs einen Raum bieten zu können und daran mitzuwirken, Digitalisierung auch auf europäischer Ebene sozial, gerecht und inklusiv zu gestalten.

 

Aus Corona lernen: Digitale Nachhaltigkeit muss zentrales Anliegen der Politik werden

Digitalisierung und Nachhaltigkeit – passt das überhaupt zusammen? Ein Blick in die Politik zeigt, dass zu diesem Thema parteiübergreifend erschreckend wenig passiert. Und das, obwohl der Klimawandel die Medien beherrscht, tausende Menschen weltweit zum Handeln aufrufen, die Folgen der Erderwärmung bereits spürbar sind. Es scheint, als kämpfe die Politik noch mit der Digitalisierung selbst, für Nachhaltigkeit sind keine Kapazitäten verfügbar. Doch beides zusammen zu denken ist unvermeidbar, wenn wir eine lebenswerte Zukunft schaffen wollen. Wir bei D64 haben uns deshalb zum Ziel gesetzt, Nachhaltigkeit in der digitalen Gesellschaft als zentrales Thema in die Etagen der Macht zu tragen. Als gemeinsame Basis gilt hierbei diese Bestandsaufnahme.

 

Bild: E-waste workers in Agbogbloshie completing a burn for copper recovery, 2010, von Jcaravanos ; Lizenz: CC BY-SA 4.0

 

In den Medien wird seit einigen Monaten viel über den Digitalisierungsschub geschrieben, den die COVID 19-Pandemie ausgelöst hat. Im Zuge der anhaltenden Forderungen der Klimaaktivisten wird von verschiedenen Experten gefordert, die Chance nicht zu verpassen und neue Projekte und Förderungen zur Digitalisierung “in den Dienst der Nachhaltigkeit zu stellen”. Aber was soll das eigentlich bedeuten?

Der Begriff Nachhaltigkeit wird im politischen Diskurs meist im Sinne des Brundtland-Berichts von 1987 und der Nachhaltigkeitsziele der Vereinten Nationen (SDG-Ziele) verstanden – und damit dreidimensional: sozial, ökologisch, ökonomisch. Wenn in diesem Verständnisrahmen von nachhaltiger Digitalisierung oder Digitalisierung für mehr Nachhaltigkeit gesprochen wird, stellen sich zwei grundsätzliche Fragen:

    • Wie kann die Digitalisierung eine nachhaltige Entwicklung unterstützen?
    • Wie kann die Digitalisierung selbst nachhaltig gestaltet werden?

Aktuell ist die Digitalisierung leider alles andere als ein Treiber von Nachhaltigkeit. Wegen ihres erheblichen Ressourcenbedarfs – allen voran Energie – hat sie umwelt- und klimaschädliche Auswirkungen. Die schnellen, nicht geschlossenen Produktzyklen immer neuer Gadgets und besserer Geräte treiben bei der Herstellung und der abschließenden Vermüllung ökologischen und sozialen Raubbau. Effizienzgewinne im Energieverbauch wurden bisher in kürzester Zeit vom Rebound-Effekt wieder aufgefressen (oder gar durch Backfire weiter gesteigert). Zudem trägt die Digitalisierung unter bestimmten wirtschaftlichen und politischen Rahmenbedingungen zu einer Verschärfung und Zementierung der globalen und lokalen Ungleichheit (digital divide) sowie zur effizienteren Ausgrenzung und Diskriminierung von Minderheiten und zivilgesellschaftlichen Bewegungen bei (shrinking space). Auch ökonomisch wirkt sie bislang fragwürdig, denn benötigte Ressourcen wie seltene Erden und Gold wachsen im Gegensatz zu Bäumen nicht nach. 

Dennoch sind wir bei D64 sicher: die Digitalisierung ist eine enorme Chance und kann entscheidend dazu beitragen, die SDG-Ziele umzusetzen und zu einer sozial-ökologischen Transformation beizutragen. Es gibt viele gute Projekte, Ideen und Konzepte, die zeigen was schon heute möglich ist – oder möglich sein könnte. Initiativen wie Bits & Bäume bringen Techies und Ökos zusammen, um gemeinsam Forderungen zu formulieren und Aktionen zu planen. Selbst wenn in diesem Bereich viel „Greenwashing“ betrieben wird, gibt es durchaus eine ganze Reihe an GreenTech-Startups, die sinnvolle Dienstleistungen und Technologien für Umwelt- und Klimaschutz entwickeln.

Eine sozial-ökologisch nachhaltige Digitalisierung kann zum Beispiel…

    • Digitale Endprodukte (z.B. Smartphones) sowohl sozial als auch ökologisch neutral produzieren, z.B. nach dem Cradle-to-Cradle Ansatz und unter Berücksichtigung von Fair Trade Prinzipien (z.B. Fairphone, Shiftphone)
    • CO2-neutrale Rechenzentren aufstellen (z.B. Nutzung der Abwärme als Fernwärme etc.)

Digitalisierung als Treiber sozial-ökologisch nachhaltiger Entwicklung kann zum Beispiel...

    • Data Science-Projekte aufsetzen, die Klimadaten vernetzen und barrierefrei sowie nutzerfreundlich verfügbar machen (z.B. klimawatch.de)
    • Steuerung/Nutzung von Synergien in kommunalen Energiekreislaufsystemen ermöglichen (z.B. Verband kommunaler Unternehmen)

Im Verhältnis zur Geschwindigkeit der Digitalisierung an sich bewegte und bewegt sich allerdings deutlich zu wenig in Richtung Nachhaltigkeit. Und dann kam Corona.

 

Was hat Digitalisierung und Nachhaltigkeit mit Corona/COVID-19 zu tun?

Die Corona-Pandemie hat uns sowohl als Individuen als auch als Gesellschaft in einen ungewollten Experimentierraum gesteckt, in dem viele bestehende Normen und Selbstverständlichkeiten nicht mehr galten. Plötzlich war politisches und unternehmerisches Handeln möglich, das zuvor unmöglich erschien. Gleichzeitig wurden wir auf persönlicher Ebene auf uns selbst zurückgeworfen, was oft zu einem ganz neuen Verständnis des Werts unseres gemeinschaftlichen Lebens und gesellschaftlich nützlicher Arbeit führte. Der sowieso rasch voranschreitenden Digitalisierung hat Corona einen enormen Schub verliehen und insbesondere Menschen und Organisationen, die bestimmte digitale Entwicklungen bisher eher gemieden hatten, zu einer steilen Erfahrungs- und Lernkurve gezwungen. Manche Debatten rückten aus der digital-ökologischen Peripherie ins Zentrum öffentlicher Diskurse: Wie bewerten wir den “Berufstourismus”? Wie kann sichergestellt werden, dass der Staat verlässlich, schnell und proaktiv Zugriff auf (maschinenlesbare) Daten herstellt? All dies geschah, um mit einer akut auftretenden Krise adäquat umzugehen.

Von Corona lernen heißt deshalb auch (wieder zu er-)lernen, dass wir als Individuen und Gesellschaft die Stärke haben, unsere selbst geschaffenen Überzeugungen und Normen zu ändern, wenn eine Krise es erfordert. An Krisen mangelt es dafür aktuell sicher nicht. Daher sollten wir diese Erkenntnis auf die Digitalisierung übertragen, um sie zu einem starken Instrument im Kampf gegen den Klimawandel und Treiber für eine nachhaltige Entwicklung unserer Gesellschaften zu machen.

 

Was wir tun

In unserer Arbeitsgruppe Nachhaltigkeit befassen wir uns insbesondere damit, was politische Akteure und Institutionen tun können, um Digitalisierung und Nachhaltigkeit zusammen zu denken und voranzubringen. Dabei geht es insbesondere darum, die Digitalisierungsimpulse aus der Corona-Pandemie zu verstehen und einzuordnen. Welche positiven Nachhaltigkeitseffekte können sich zum Beispiel durch eine Digitalisierung der Arbeitswelt ergeben: Ist die in ersten Studien festgestellte niedrigere Stressbelastung und höhere Produktivität der Arbeitnehmer ein echter Trend? Kann remote work zu einer Wiederbelebung des ländlichen Raums durch Dezentralisierung der Arbeits- und Lebensorte führen?

Über diesen recht konkreten Beobachtungsfeldern stehen systematische Fragestellungen zu verschiedenen Themenbereichen, die für den Komplex Digitalisierung und Nachhaltigkeit zentral sind. Diese reichen oft in einen europäischen oder globalen politischen Kontext hinein, in dem es auch um die Anschlussfähigkeit zu größeren Programmen oder Vorschlägen geht – wie etwa dem von Maja Göpel geforderten Social Green Deal für Europa, der auf einer „mehrdimensionalen Solidarität“ entsprechend des Nachhaltigkeitskonzepts basiert.

 

Einige weitere Fragestellungen, mit denen wir uns befassen wollen:

Superhuman vs. Subhuman: Wie können wir human downgrading im Rahmen der Digitalisierung entgegenwirken? Wie kann eine alternative Vision des digital ermöglichten gesellschaftlichen Fortschritts konkretisiert werden, die statt eines technologieoptimierten Menschen die Hinwendung zu „Fähigkeiten wie Empathie, Fürsorge und Solidarität“ in den Fokus stellt?

Demokratisch: Wie kann die OpenSource-Philosophie in Wissenschaft, Verwaltung und Politik verankert werden, um lizenzfrei und unbürokratisch Wissen zu teilen, evidenzbasierte Entwicklungs- und Entscheidungsprozesse zu stärken und damit zu Demokratisierung und Vertrauensstärkung der Bürger*innen beizutragen? (Stichwort: Public Money, Public Code)

Wertvolle Arbeit: Wie kann eine nachhaltige Digitalisierung dabei helfen, abseits rein gewinnorientierter Automatisierungsprojekte jene bezahlte und unbezahlte Arbeit zu stärken und zu fördern, die für die Gesellschaft und für jeden Einzelnen den größten (Mehr)wert hat?

Suffizienz und Effizienz: Wie können wir verhindern, dass Effizienzgewinne beim Energieverbrauch vom Rebound und folgendem Backfire-Effekt wieder aufgefressen werden, und wie kann eine begleitende Suffizienzstrategie aussehen, um den Verbrauch nicht-erneuerbarer Ressourcen zu reduzieren? 

Echte Kosten: Welche sozialen und ökologischen Schäden entstehen als Nebenprodukt der Digitalisierung und wie kann man diese berechnen, ausgleichen oder langfristig auflösen? Wie kann eine Anwendung der „echten Kosten“ auf das Wirtschaftssystem eine Kreislaufwirtschaft fördern, in der es für die Industrie ökonomisch wieder sinnvoller ist qualitativ hochwertige Produkte zu erstellen, welche reparierbar und recycelbar wären?

Dezentral: Wie kann Künstliche Intelligenz – über intelligente Netze, Speicher, Systeme – uns dabei helfen, unsere Energieversorgung sowohl resilient als auch nachhaltig zu gestalten – und was muss dafür auf politischer Ebene geschehen?

 

Und nicht zuletzt stellt sich übergeordnet die Frage, welche strukturellen Veränderungen nötig sind, um die Digitalisierung „in den Dienst der Nachhaltigkeit“ zu stellen. Dabei geht es explizit nicht nur darum, wirtschaftspolitische Weichen zu stellen – sondern auch, den Regierungs- und Verwaltungsapparat dazu zu befähigen mit der Digitalisierung, die sie in nachhaltige Bahnen lenken sollen, überhaupt Schritt zu halten.

Denn wie der wissenschaftliche Beirat der Bundesregierung zu globalen Umweltthemen (WBGU) in seinem Gutachten „Unsere gemeinsame digitale Zukunft“ festgehalten hat, steht es um die Digitalkompetenzen dort meist schlecht. Ein massiver Modernisierungsschub begleitet von wissenschaftlicher Forschung wäre nötig, um den Anforderungen einer nachhaltigen Transformation gerecht zu werden.

Gelingt dies nicht, werden sich technologie- und kurzfristorientierte Eigendynamiken durchsetzen; die Verknüpfung der digitalen mit der Nachhaltigkeitstransformation wird dann nicht gelingen.“

Mit unserer Arbeit wollen wir nicht nur theoretisieren, sondern praktische Impulse geben wie Digitalisierung und Nachhaltigkeit zusammen gehen können. Dazu analysieren wir Konzepte und Ideen, sprechen mit Expertinnen und Experten und formulieren Forderungen und konkrete Vorschläge, wie politische Institutionen und Öffentlichkeit die Digitalisierung im Sinne der Nachhaltigkeit umsetzen können. „Transfer with an attitude“ nennen wir das, denn wir wollen nicht nur Wissen teilen, sondern Handlungsdruck aufbauen. Menschen, die uns dabei unterstützen wollen, sind in unserer Arbeitsgruppe immer willkommen.

 

Was ist D64?

D64 ist die Denkfabrik des digitalen Wandels. Unsere Mitglieder sind von der gesamtgesellschaftlichen Auswirkung der digitalen Transformation auf sämtliche Bereiche des öffentlichen und privaten Lebens überzeugt und wollen diese progressiv und inklusiv gestalten. Dabei liefern wir Impulse um die digitale Transformation zum positiven Gelingen zu bringen. Wir sind uns einig, dass man eine Politik der Zukunft nicht mit Konzepten von gestern machen kann. D64 – Zentrum für digitalen Fortschritt e.V. wurde 2011 gegründet und ist gemeinnützig, überparteilich und unabhängig. Wir haben über 500 Mitglieder bundesweit, die sich allesamt ehrenamtlich engagieren und über das vereinseigene „digitale Vereinsheim“ organisieren. D64 bringt Expertinnen und Expertise aus Wissenschaft, Wirtschaft, Kultur, Zivilgesellschaft, Bildung und Politik zusammen und bringt diese Expertise in die politische Debatte ein.

#D64diskutiert: Verpasste Chance? – Digitalpolitik und die deutsche EU-Ratspräsidentschaft

Im Juli hat Deutschland die EU-Ratspräsidentschaft übernommen. Im Zentrum sollte, so ursprünglich von der Bundesregiung betont, dabei die Digitalpolitik stehen. Auch die Digitalstrategie der Europäischen Kommission, die im Februar diesen Jahres veröffentlich wurde, steckt ambitionierte Ziele. In Zeiten verschiedener Krisen steht die Bundesregierung nun allerdings vor der Herausforderung, gemeinsam mit den anderen Mitgliedstaaten die europäische Einheit zu stärken und die Folgen der weltweiten Corona-Pandemie abzufedern.
Jetzt, nachdem sich die Umstände so gravierend geändert haben, stellt sich demnach die Frage: Was bleibt von den Plänen, die europäische Digitalpolitik voranzutreiben? Digitalpolitische Fragen drängen nach wie vor und bedürfen einer europäischen Antwort, aber wird die deutsche Ratspräsidentschaft sich derer noch annehmen? Und wenn ja, welche Ideen liegen auf dem Tisch? Was können und müssen die verschiedenen Akteure jetzt – gerade auch in Zeiten der Krise – liefern, um die digitalpolitische Zukunft Europas positiv zu gestalten? 
Darüber sprechen wir bei #D64diskutiert am 10. September um 19 Uhr mit 
  • Julia Reda, Digitalaktivistin und Projektleitung bei der Gesellschaft für Freiheitsrechte
  • Tiemo Wölken, Digitalpolitiker (SPD) und Mitglied des Europäischen Parlaments 
  • Thomas Jarzombek, Mitglied des Bundestags (CDU) und Beauftragter des Bundeswirtschaftsministeriums für Digitale Wirtschaft und Start-Ups 
Die Diskussion wird als Livestream über d-64.org sowie über den den D64 Twitter- und YouTube-Kanal abrufbar sein. 

Stellungnahme zum BMJV-Diskussionsentwurf eines Zweiten Gesetzes zur Anpassung des Urheberrechts

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) hat einen Diskussionsentwurf für ein Zweites Gesetz zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts veröffentlicht. Dieser regelt die Verantwortlichkeit von Plattformen und setzt damit Artikel 17 (ehemals Artikel 13) der Richtlinie (EU) 2019/790 über das Urheberrecht im digitalen Binnenmarkt (DSM-RL) um. Im Rahmen des Gesetzgebungsverfahren hat das BMJV um Stellungnahme gebeten.

D64 – Zentrum für digitalen Fortschritt hat hierzu folgende Stellungnahme an das BMJV versandt:

Im Juni legte das Bundesministerium der Justiz und für Verbraucherschutz einen Diskussionsentwurf zur Umsetzung der DSM-RL, insbesondere des Artikels 17, vor. Wir möchten die Gelegenheit nutzen, wesentliche Punkte zu nennen, die uns mit Bezug auf die Meinungsfreiheit im Internet, sowie der Anwenderfreundlichkeit als Nutzerinnen und Nutzer und von Kreativschaffenden besonders relevant erscheinen. Wir begrüßen zunächst, dass der Diskussionsentwurf gerade bei den Regelungen zur Plattformhaftung nötige Konkretisierungen vorsieht, bei der die Richtlinie Lücken lässt. Nichtsdestotrotz möchten wir unsere Bedenken bzgl. der automatisierten Überprüfung und Selbstprüfung von Inhalten äußern. Die Bundesregierung hat sich in einem Zusatzprotokoll zur DSM-RL verpflichtet, automatisierte Uploadfilter soweit wie möglich zu verhindern. Auch wenn wir begrüßen, dass eine Ausnahmeregelung für Karikaturen, Parodien und Pastiche erarbeitet wurde, sowie eine erfreuliche Veränderung im Urheberrecht durch die Erlaubnis von Bagatellnutzungen gemacht werden könnte, sind wir kritisch was die aktuell definierten Größen angeht.

Im Einzelnen möchten wir zu bedenken geben:

1. UrhDaG: An den positiven Ansätzen sollte festgehalten werden

Kein Gesetz zum Schutz von Urheberrechten darf dazu führen, dass öffentliche Räume in Gefahr geraten. Zu diesen öffentlichen Räumen zählen heute unstreitig auch kommerzielle Upload-Plattformen. Hier findet Auseinandersetzung mit Politik, Kultur und Gesellschaft statt. Dabei werden regelmäßig urheberrechtlich geschützte Inhalte geteilt – oftmals legal, weil über die Zitierfreiheit oder andere urheberrechtliche Erlaubnisse abgedeckt, oftmals jedenfalls mit geringer Auswirkung für Rechteinhaber. Wir haben den Einsatz von Uploadfiltern stets abgelehnt; diese Debatte wurde bereits geführt. Der Entwurf – und schon Art. 17 der DSM-RL – wird dieser Forderung und auch der eigenen Absichtserklärung in der Protokollerklärung 2019 nicht gerecht. Wir erinnern die Bundesregierung daran, das gesetzte Ziel, Upload-Filter in Deutschland nicht einzusetzen, nicht aus dem Blick zu verlieren. Der vorgelegte Entwurf beinhaltet jedoch unzweifelhaft Upload-Filter. Es ist uns deshalb besonders wichtig, dass erlaubte Nutzungen nicht durch einseitige Regeln zu Gunsten der Rechteverwerter unterbunden werden. Wir unterstützen daher den Vorschlag des Diskussionsentwurfs, dass Nutzerinnen und Nutzer Inhalte flaggen können, damit diese Inhalte im Regelfall zunächst einmal „durchgelassen werden“. Wir unterstreichen, dass automatisierte Techniken solche Nutzungen nicht zuverlässig erkennen können und deshalb an dieser Stelle ein Sicherungsmechanismus für „nicht maschinell erkennbare“ erlaubte Nutzungen unbedingt erforderlich ist, um Overblocking zu verhindern. Sprich: Eine Sperrung des Inhalts, insbesondere ein Inhalt mit Pre-Flagging, muss durch einen Menschen vorgenommen werden. Nutzerinnen und Nutzer dürfen nicht in die Beweislast für ihre Nutzungsfreiheiten gedrängt werden. Darüber hinaus muss außerdem sichergestellt werden, dass alle Formate davon umfasst sind (bspw. auch Live-Streams).

Wir begrüßen hingegen den Vorschlag, „Bagatellnutzungen” zu erlauben. Es ist nicht immer klar, wann die Zitierfreiheit greift oder was juristisch gesehen eine Parodie ist. Ein modernes Urheberrecht muss auf einen breiten Interessenausgleich für die gesamte Informationsgesellschaft angelegt sein. Dazu gehört auch, dass vor allem dort Freiheiten geschaffen werden, die für die Allgemeinheit von großem Wert sind und bei denen mögliche Einbußen für Rechteverwerter tendenziell gering bis nicht messbar sind. Daher unterstützen wir, dass bis zu einer gewissen Schwelle solche Nutzungen pauschal zulässig gemacht werden sollen. Wir geben aber zu bedenken, dass diese Möglichkeit auch für kommerzielle, semiprofessionelle Zwecke geöffnet werden sollte. Jedenfalls halten wir die Bagatellnutzung fachjuristisch für umsetzbar, zumal erst zuletzt der Generalanwalt am Europäischen Gerichtshof mit seinen Schlussanträgen zur Haftung von YouTube in diese Richtung weist. Wir fordern die Bundesregierung daher dazu auf, europarechtliche Initiativen zu ergreifen, um eine weitergehende allgemeingültige Bagatellnutzung zu ermöglichen. Meme-Kultur und das Verwenden von weiteren Inhalten, die zwar urheberrechtlich geschützt sind, aber keinen Schaden entstehen lassen, gehören zur Internetkultur und müssen daher aus der rechtlichen Grauzone geholt werden.

Ebenfalls begrüßen wir, dass missbräuchliche Inanspruchnahme von Urheberrechten die Upload-Plattformen berechtigt, die vermeintlichen Rechteinhaber vom Sperrungs- und Entfernungsverfahren auszuschließen. Wir finden es richtig, dass bei den Vergütungen, die die Upload-Plattformen zahlen müssen, die Urheberinnen und Urheber selbst unmittelbar berücksichtigt werden. Schließlich war dies ja auch das zentrale politische Argument der Befürworterinnen und Befürworter von Art. 17. Unbedingt beibehalten werden sollte die Ausnahmevorschrift, die besagt, dass Dienste wie Online-Enzyklopädien oder Wissenschaftsrepositorien nicht in den Anwendungsbereich fallen, entwicklungsoffen sind („insbesondere“).

2. Karikatur, Parodie und Pastiche: Alltagspraxis muss endlich frei sein

Der Gesetzentwurf enthält mit der neuen Schranke für Parodie, Karikatur und Pastiche eine wichtige Vorschrift. Das Ziel muss sein, insbesondere die Remix-Alltagskultur im Netz endlich zu legalisieren und die urheberrechtlichen Freiheiten so an die gesellschaftliche Realität anzupassen. Im weiteren Gesetzgebungsprozess sollte schließlich genau geprüft werden, ob tatsächlich alle Formen der „transformativen Alltagsnutzung“ im Netz abgedeckt sind – Memes, Remixe etc., wie es der Entwurf besagt. Wir unterstützen dieses Ziel ebenso wie die Regelung für Upload-Plattformen, die diese Nutzungsfreiheiten unter besonderen Schutz vor Overblocking stellt. Viele Auseinandersetzungen im Urheberrecht der letzten Jahrzehnte haben außerdem gezeigt, dass auch professionelle Urheberinnen und Urheber selbst auf Nutzungsfreiheiten angewiesen sind – auch sie können durch zu strikte Urheberrechte beschränkt sein. Auch in ihrem Interesse liegen also breite Schrankenregelungen.

3. Pre-Flagging muss menschliche Entscheidung bedeuten

Trotz Pre-Flagging können Inhalte gesperrt werden, wenn sie 90 Prozent oder mehr geschützten Inhalt enthalten. Die quantitative Festlegung auf einen automatisierten Schwellwert wird zweifelsohne zu einem Overblocking von Inhalten führen. Dies muss korrigiert werden. Beispiel: Ein Video, das zum größten Teil aus einem geschützten Teil besteht (z. B. 18 Sekunden), kann durch einen eigenen Schluss (z. B. 2 Sekunden) zu einer Parodie werden. Der Inhalt würde fälschlicherweise gesperrt werden – automatisiert. Das gleiche Problem ergibt sich bei einer unklaren Lage zu den Urheberrechten.

4. 250 Kilobyte Größenbeschränkung untauglich

Die Größenbeschränkung von 250 Kilobyte für eine private Nutzung von urheberrechtlich geschützten Werken wird sich in der Praxis kaum als nützlich erweisen. Insbesondere dann nicht, wenn das Werk in einem Remix (Collage, etc.) verwendet wird. Enthält eine Datei ein Foto, die geschützt ist, lässt sich aus der Dateigröße kaum ermitteln, ob die 250kb-Marke für den Teil des geschützten Werkes nicht überschritten wird. Beispiel: Wird ein Foto mit einem Text versehen, so wie es bei Memes üblich ist, und die Datei dadurch 251kb groß ist, ist dies algorithmisch kaum zu bewerten. Wären in diesem Fall 1kb für den Text reserviert? Dies lässt sich technisch nicht aufschlüsseln.

Hinzu kommt, dass versierte Nutzerinnen und Nutzer in der Lage sind, Grafiken durch den Einsatz professioneller Software in der Dateigröße so zu verkleinern, dass sie zwar hochauflösend sind, aber eine geringe Dateigröße aufweisen. Hier werden die Nutzerinnen und Nutzer benachteiligt, die nicht im Besitz dieser Software sind oder entsprechendes Fachwissen fehlt. Die Barrierefreiheit der digitalen Kommunikation wird dadurch erheblich eingeschränkt.

5. Zugang zu Kultur im Netz: Bestehendes erschließen, Gemeinfreiheit stärken

Viele Bereiche aus unserer Gesellschaft, die in Büchern, Flyern, Plakaten etc. kulturell festgehalten sind, liegen verschlossen in Archiven. Viele dieser Werke sind nur deshalb nicht frei zugänglich, weil die Urheberrechte nicht geklärt werden können oder die Klärung zu aufwendig ist. Für die Wissensgesellschaft ist das ein unhaltbarer Zustand. Gerade der Online-Zugang zum kulturellen Erbe vergangener Zeiten ist zentral für gesellschaftliche Teilhabe und unser Geschichtsbild.

Daher ist es wichtig, den Spielraum der Richtlinie auszuschöpfen und hier moderne Lizenzierungsregelungen einzuführen. Sie ermöglichen es z.B. Museen und Archiven, Werke, die nie im Umlauf waren, der Öffentlichkeit im Netz zur Verfügung zu stellen. Wichtig ist es jetzt, die Hürden gerade für Digitalisierungsprojekte kleiner Archive (etwa aus politischen Bewegungen etc.) so niedrig wie möglich zu halten. Daher sehen wir es kritisch, wenn derartige Nutzungen dort vergütet werden müssen, wo keine „repräsentative Verwertungsgesellschaft“ existiert und eine urheberrechtliche Schranke greift. Europarechtlich ist dies ebenfalls nicht vorgesehen. In der Vergangenheit ist außerdem die Verbreitung von Abbildungen gemeinfreier Werke immer wieder geschwächt worden. Die Richtlinie stellt hierfür die Weichen neu und setzt sich zum Ziel, den Zugang der Allgemeinheit – also auch der Wissenschaft – zur Kultur und zum kulturellen Erbe zu fördern. Dies tut sie, indem sie Reproduktionen gemeinfreier „visueller Werke“ für zwingend gemeinfrei erklärt, also bspw. Fotos von einem Gemälde aus einem Museum. Solche Inhalte können künftig frei im Netz, etwa über Wikipedia, geteilt werden. Ziel muss es dabei sein, Reproduktionen so weit wie möglich gleich zu behandeln:

Daher sind nach unserer Auffassung nicht nur Reproduktionen von Werken umfasst, die einmal geschützt waren, sondern auch solche Artefakte, die nie unter Urheberrechtsschutz gefallen sind. Die Gesetzesbegründung sollte diesen Punkt klarstellen.