Alle Artikel in Datenethik

Europäische Bürgerinitiative für eine Zukunft ohne biometrische Massenüberwachung

Heute, am 17. Februar 2021, startet das Bündnis Reclaim Your Face eine offizielle Europäische Bürgerinitiative (EBI) zum Verbot biometrischer Massenüberwachung. Mehr als 35 europäische Organisationen rufen dazu auf, diese Initiative zu unterstützen.

In Deutschland unterstützen bisher der Chaos Computer Club, D64, Digitalcourage, Digitale Freiheit und kameras-stoppen.org die Bürgerinitiative und fordern Bürger:innen zum Unterschreiben auf.

Warnung vor biometrischer Überwachung

Während die Europäische Kommission neue Gesetze zur Regulierung Künstlicher Intelligenz vorbereitet, warnt das Bündnis von Digital- und Menschenrechtsorganisationen vor den Gefahren von biometrischer Massenüberwachung für die Freiheit und Würde der Bürger:innen. Mit der Europäischen Bürgerinitiative fordern europäische Bürger:innen neue gesetzliche Rahmenbedingungen einschließlich eines Verbots von biometrischer Massenüberwachung.

Biometrische Daten der Bürger:innen schützen

Biometrische Daten sind hochsensible Informationen über unsere Körper und unser Verhalten. Es sind Daten über unsere Gesichter, Augen, Venen, Stimmen, unseren Gang und unser Verhalten. Dazu gehört beispielsweise, wie Menschen auf einer Tastatur tippen oder mit ihrer Augenbewegung ein Bild erfassen. Wir können anhand biometrischer Daten identifiziert und analysiert werden und wir können diese Daten nicht einfach ändern. Daher sind biometrische Daten besonders zu schützen.

Grundsätzlich sind der Verarbeitung von biometrischen Daten in der EU bereits enge Grenzen gesetzt. Jedoch lässt das EU-Recht einige problematische Ausnahmen zu. Staatliche Akteure und private Unternehmen nutzen diese Lücken, um biometrische Überwachungstechnologien in öffentlichen Räumen zu etablieren. Erik Tuchtfeld, Vorstandsmitglied von D64 betont: „Das massenhafte Speichern und die automatisierte Auswertung von biometrischen Daten würdigt Bürgerinnen und Bürger zu reinen Objekten von Identifizierungsmaßnahmen herab. Als freiheitliche Gesellschaft dürfen wir nicht zulassen, dass jede und jeder ohne Anlass und ohne Limitierung überwacht werden kann.“

Biometrische Überwachung in der EU

Das Bündnis Reclaim Your Face konnte bereits zeigen, dass biometrischen Daten von Menschen in ganz Europa systematisch gesammelt und missbraucht werden. In vielen Fällen geht das Bündnis erfolgreich gegen diesen Missbrauch vor.

Serbische Behörden überwachen die Bevölkerung in den Straßen von Belgrad. Italienische Behörden nahmen in der Stadt Como Geflüchtete mit biometrischen Überwachungssystemen ins Visier. Dies wurde für illegal erklärt wurde und trotzdem wird versucht, solche Systeme auch in anderen Städten einzuführen. In Griechenland erwägen die Behörden den Einsatz von biometrischer Überwachung bei Polizeikontrollen. In Frankreich kämpfte die Zivilgesellschaft vor Gericht gegen den Einsatz biometrischer Überwachungstechnologie bei Demonstrationen und an Schulen. In den Niederlanden und Spanien kritisierten die nationalen Aufsichtsbehörden die biometrische Massenüberwachung in Supermärkten.

Biometrische Überwachung in Deutschland

In Deutschland wehren sich Mitglieder des Bündnisses unter anderem erfolgreich gegen polizeiliche Videoüberwachung in Köln und gegen die Überwachung durch die Gesichter-Suchmaschine *Clearview AI*. Anfang 2020 demonstrierten verschiedene zivilgesellschaftliche Organisationen in dem Bündnis gesichtserkennung-stoppen.de erfolgreich gegen die Pläne des Innenministeriums, an 149 Bahnhöfen und Flughäfen Gesichtserkennung einzusetzen. Der entsprechende Gesetzesentwurf wurde vorerst auf Eis gelegt.
Gegen das verschärfte Sächsische Polizeigesetz, das intelligente Videoüberwachung und Gesichtserkennung erlaubt, wurde im Dezember 2020 Verfassungsbeschwerde eingelegt. Schon 2018 kritisierten Grundrechtsorganisationen aus Deutschland, Tschechien und Polen die biometrische Videoüberwachung in Grenzgebieten.

Weitere Schritte

Die Europäische Bürgerinitiative muss nun innerhalb eines Jahres eine Million Unterschriften in mindestens sieben EU-Ländern sammeln. Ist die Initiative erfolgreich, kommt es zu einer öffentlichen Anhörung im Europäischen Parlament. Außerdem muss die Europäische Kommission ihr weiteres Vorgehen oder ggf. den Verzicht auf Folgemaßnahmen erläutern und einen Zeitrahmen zur Umsetzung der Maßnahmen nennen.

Unterzeichne hier, um die Bürgerinitiative zu unterstützen.

Digital wählen – wie es (ausnahmsweise) funktionieren kann

Eine gekürzte Fassung dieses Beitrags wurde in der Süddeutschen Zeitung veröffentlicht. Ein Lösungsvorschlag von Marina Weisband, Erik Tuchtfeld und Henning Tillmann. 

Seit Beginn der Covid-19-Pandemie ist das klassische Vereins- und Parteileben nicht mehr möglich. Nichtsdestotrotz müssen Beschlüsse gefällt und Vorstände gewählt zu werden. Aufgrund von Abstandsregeln und Kontaktbegrenzungen können aber Mitgliederversammlungen oder Parteitage nicht durchgeführt werden. Das prominenteste Beispiel ist die CDU, die seit über einem halben Jahr auf die Wahl des neuen Vorsitzenden wartet. Aktuell bemühen sich nun die im Bundestag vertretenen Parteien eine Lösung zu finden – insbesondere auch durch die Ermöglichung von digitalen Wahlen. Mit dieser Herkules-Aufgabe beschäftigen sich seit rund 20 Jahren verschiedene Institutionen, eine akzeptable Lösung lag bisher noch nicht auf dem Tisch. Dies ist ein neuer Versuch.

Unsere Wahlgrundsätze

In Art. 38 Abs. 1 Satz 1 unseres Grundgesetzes heißt es: „Die Abgeordneten des Deutschen Bundestages werden in allgemeiner, unmittelbarer, freier, gleicher und geheimer Wahl gewählt.“ Damit sind fünf der sechs Wahlgrundsätze genannt: Die Allgemeinheit, die gebietet, dass jede Bürgerin und jeder Bürger wählen darf; die Unmittelbarkeit, die uns vor einem „Electoral College“ wie in den USA schützt; die Freiheit, welche die Androhung oder Ausübung von Zwang verbietet; die Gleichheit, die – anders als bspw. im 19. Jahrhundert in Preußen – garantiert, dass jede Stimme den gleichen Wert hat und einen möglichst gleichen Einfluss auf die Zusammensetzung des Parlaments haben soll; und die Geheimheit, die gegeben ist, wenn die Stimmabgabe niemand anderem offenbart wird. Sie stellt – so formuliert es das Bundesverfassungsgericht – den wichtigsten Schutz für die Wahlfreiheit dar. Diese Wahlgrundsätze gelten nicht absolut: So nehmen wir bspw. bei der Briefwahl in Kauf, dass unter anderem die Geheimheit der Wahl nicht durch den Staat sichergestellt werden kann, um eine möglichst hohe Wahlbeteiligung und damit eine möglichst allgemeine Wahl zu erreichen.
Einen weiteren Wahlgrundsatz hat das Bundesverfassungsgericht zudem aus der Gesamtschau von Rechtsstaats- und Demokratieprinzip (Art. 20 Grundgesetz) sowie den anderen fünf Grundsätzen entwickelt: Der Wahlgrundsatz der Öffentlichkeit der Wahl. Dieser steht, anders als der Name vielleicht zunächst vermuten lässt, nicht im Gegensatz zur Geheimheit, sondern schreibt vielmehr vor, dass alle wesentlichen Schritte der Wahl, von der Abgabe bis zur Auszählung, für den Laien verständlich und nachvollziehbar sein müssen. Dieser Wahlgrundsatz ist es, der jede Form von digitalen Wahlen am Grundgesetz scheitern lässt: Selbst wenn es tatsächlich möglich wäre, ein digitales Wahlverfahren absolut sicher zu gestalten – was IT-Sicherheitsexperten für nicht möglich halten –, so wäre es doch niemals für Laien nachvollziehbar. Sie müssten vielmehr auf die Expertise anderer vertrauen und Zweifel – egal ob begründet oder unbegründet – könnten nicht für jeden und jede nachvollziehbar widerlegt werden. Wie wichtig dies ist, eine nachvollziehbare, überprüfbare Wahl, haben uns nicht zuletzt die Geschehnisse der vergangenen Wochen in den USA gezeigt.

Was jetzt schon geht (und was eher nicht)

Nichtsdestotrotz stehen wir nun alle vor einem Dilemma: Wichtige Entscheidungen müssen getroffen, Wahlen in Parteien durchgeführt werden, ein physisches Zusammenkommen zur Abgabe von Stimmzetteln ist aber nicht möglich. Der Ruf nach digitalen Wahlen und Abstimmungen wird deshalb wieder lauter und er ist auch nicht ganz unberechtigt: Die Demokratie muss auch in diesen Zeiten handlungsfähig bleiben. Demokratie ist mehr als staatliche Wahlen, sondern zeichnet sich auch durch das gemeinsame Entscheiden in Vereinen, Verbänden und Parteien aus. Was sich in digitaler Form unproblematisch durchführen lässt, sind Abstimmungen über Sachthemen. Diese werden offen durchgeführt, die korrekte Stimmabgabe und Zählung für das Gesamtergebnis ist damit für alle nachvollziehbar. Eine Manipulation ist natürlich möglich – kein System ist unhackbar – sie würde aber sofort auffallen.
Schwieriger ist es bei den geheimen Wahlen. Unsere Überzeugung ist, dass an der Nachvollziehbarkeit von Stimmabgabe bis Ergebnis nicht gerüttelt werden darf. Es gibt keine absolut sicheren informationstechnischen Systeme und neben der tatsächlichen Manipulation der Ergebnisse genügt schon ein Vertrauensverlust in ihre Integrität, um einen Legitimitätsverlust der Gewählten herbeizuführen, der Gift für jede Organisation ist. Dazu kommt, dass jeder Fehler in einem solchen digitalen System, sei es ein Problem in der Verarbeitung der Stimmen oder eine Sicherheitslücke, die dazu führt, dass Dritte das System übernehmen, immer solche Ausmaße annimmt, dass die Wahl als Ganzes korrumpiert ist. Das Vertrauen in einen „Blackbox“ darf deshalb nicht Grundvoraussetzung für Wahlen werden.
Für staatliche Wahlen gibt es keine Alternative. „Remote-Wahlen“ müssen hierbei immer Briefwahlen sein. Anders sieht es bei Vereinen aus: Sie sind in ihrer Organisation (weitgehend) frei und können damit auch ihr Wahlverfahren selbst bestimmen. Auch ein Verzicht auf einzelne Wahlgrundsätze, wie bspw. die Geheimheit, ist grundsätzlich möglich. Etwas schwieriger ist es bei Parteien: Sie sind „Organe des Verfassungslebens“, die vom Grundgesetz beauftragt werden, an der „politischen Willensbildung des Volkes“ mitzuwirken. Daraus ergibt sich eine engere (mittelbare) Bindung an die grundgesetzlichen Wahlgrundsätze als es beim lokalen Kaninchenzüchterverein der Fall ist. Grundsätzlich gilt: je näher eine Wahl in einer Partei einer staatlichen Wahl kommt, bspw. die innerparteilichen Listenwahlen, die unmittelbar die Bundestagswahl vorbereiten, desto strenger gelten die Wahlgrundsätze des Grundgesetzes; je eher die Wahl jedoch nur parteiintern ist, bspw. die Vorstandswahlen des lokalen Ortsverbands, desto näher ist auch die Partei an der Organisationsfreiheit, die der Kaninchenzüchterverein für sich in Anspruch nehmen kann.
Die Anwendung dieser Grundsätze macht für uns klar, dass parteiinterne Wahlen, die staatliche vorbereiten, nicht digital durchgeführt werden dürfen. Die Wahlgrundsätze des Grundgesetzes, in solchen Fällen nahezu unmittelbar anwendbar, verbieten dies. Es gibt jedoch auch viele andere parteiinterne Wahlen, die politisch sehr bedeutsam sind, ohne unmittelbar besonders staatsnah zu sein. Man denke nur an den CDU-Vorsitz.

Kein Lösungsvorschlag: die Briefwahl digitalisieren

Einige scheinen deshalb auf den Gedanken zu kommen, man müsse nur die Briefwahl digitalisieren, schon sei das Problem der digitalen Wahlen gelöst. Aus diesen Gründen kursiert derzeit der Vorschlag, den De-Mail-Dienst – der gescheiterte Versuch eines geschlossenen, sicheren, deutschen E-Mail-Netzes – für digitale Briefwahlen zu nutzen. Neben grundsätzlichen Sicherheitsbedenken gegen den Einsatz von De-Mail lebt die Geheimheit der Briefwahl jedoch davon, dass sich die Authentifizierung (der äußere Wahlumschlag) und die Stimmabgabe (der innere Wahlumschlag) physisch voneinander trennen lassen und dieser Prozess danach nicht mehr umgekehrt werden kann. Eine De-Mail, die aber gleichermaßen Authentifizierung und Stimmabgabe trägt, kann nicht physisch getrennt werden. Wer Zugriff auf die Stimme hat, weiß auch, wer sie abgegeben hat. Die (digitale) Trennung von Authentifizierung und Stimmabgabe mag in einer Software vorgelagert werden, wer aber Zugriff auf diese Software hat (rechtmäßig oder unrechtmäßig), kann die Geheimheit der Wahl aufheben und die Stimmabgabe auf eine individuelle Person zurückführen.
Im Übrigen gilt auch hier, dass die Wählenden (blind) darauf vertrauen müssten, dass ihre Stimmen richtig übertragen wurden, sie danach richtig erfasst wurden und auch bei der Berechnung des Ergebnisses keine Fehler verursacht werden. Das Vertrauen in eine solche Blackbox darf aber nicht die Voraussetzung für das Funktionieren einer Wahl sein.

Ein Lösungsvorschlag: Nachvollziehbarkeit als Priorität

Wir möchten deshalb für solche Wahlen eine andere Lösung vorschlagen, die die Nachvollziehbarkeit der Wahl, aber weitestgehend auch die Geheimheit und damit die Freiheit garantiert. Wir sind der Überzeugung, dass das Vertrauen in den demokratischen Prozess, gewährleistet durch den Wahlgrundsatz der Öffentlichkeit der Wahl, die wichtigste Grundvoraussetzung darstellt. Das Ziel ist es deshalb, dass die Ergebnisermittlung nachvollziehbar bleibt, ohne dass eine Stimme einer Person zugeordnet werden kann.
Wie das aussehen könnte, erklären wir im Folgenden am Beispiel des Bundesparteitags der CDU. Selbstverständlich kann dieses Verfahren aber auch bei anderen Parteien oder Vereinen angewendet werden. Der CDU-Parteitag setzt sich aus 1001 Delegierten zusammen. Im Vorfeld erhält jede und jeder Delegierte auf sicherem Wege mehrere Zugangscodes, um an den Wahlen teilzunehmen. Diese Codes werden von der Partei generiert, die Zuordnung von Person zu Zulassungscode bei der Partei wird unmittelbar nach dem Versand der Codes gelöscht. Jeder Code ist für einen bestimmten Wahlgang gültig.
Ein Wahlanbieter, der in keiner Verbindung zur Partei steht, erhält die Liste aller Zugangscodes, nicht aber deren Zuordnung zu den Personen. Wenn ein Wahlgang aufgerufen wird, wählt sich der oder die Delegierte mit dem entsprechenden Zugangscode bei dem Wahlanbieter ein und gibt die Stimme ab. In diesem Moment wird eine zufällige Prüfzahl generiert und dem bzw. der Delegierten angezeigt. Im System des Wahlanbieters wird nur die Prüfzahl mit der individuellen Wahlentscheidung gespeichert, nicht jedoch der Zugangscode oder eine sonstige unmittelbare Verknüpfung zur Person.
Nachdem der Wahlgang geschlossen ist, wird eine Liste der Prüfcodes mit den Stimmabgaben öffentlich angezeigt. Nun können die Delegierten, die ihre eigene Prüfzahl kennen, sicherstellen, dass ihre Stimme korrekt gezählt wurde.
Um zu verhindern, dass ein gehacktes System denselben Prüfcode an mehrere Personen vergibt, die gleich abgestimmt haben, und dann weitere fiktive Stimmen erfinden kann, könnte man neben der Prüfzahl noch einen zweiten Sicherheitswert anzeigen, der von einer unabhängigen Stelle vergeben wurde. Denkbar wären bspw. die letzten drei Ziffern der IP-Adresse oder der exakte Zeitpunkt der Stimmabgabe, die dann zusätzlich zum eigentlichen Prüfcode der Überprüfbarkeit der Stimmabgabe dienen.
Auf diese Weise kann jede und jeder Delegierte seine eigene Stimme nachvollziehen und sichergehen, dass sie korrekt im System gespeichert ist. Gleichzeitig ist es aber für keinen Dritten einsehbar, wie Einzelpersonen abgestimmt haben – die Wahl ist somit geheim. So ist das System nicht davon abhängig, dass auf die „Blackbox“ vertraut wird. Manipulationen würden unmittelbar auffallen.

Herausforderungen in diesem System

Die Geheimheit der Wahl ist, wie oben bereits beschrieben, essentiell zum Schutze der Freiheit der Wahl. Nur weil die Stimmabgabe keinem Dritten bekannt ist, kann jede und jeder in der Wahlkabine unabhängig von dem sozialen Druck, dem man sonst vielleicht ausgesetzt ist, abstimmen. Aus diesem Grund wird bei Bundestagswahlen bspw. ein Wahlzettel nicht angenommen, wenn für den Wahlvorstand erkennbar ein Foto von der Stimmabgabe aufgenommen wurde. Dieses Risiko ist aber auch in unserem System trotz individueller Nachvollziehbarkeit gering: Nach der Gesamtveröffentlichung der Prüfcodes mit der jeweiligen Wahlentscheidung kann schließlich auch ein beliebiger anderer Prüfcode als eigener ausgegeben werden, um die tatsächliche individuelle Entscheidung zu kaschieren.
Ein anderes Problem wiegt schwerer: Da jede wählende Person nur ihre eigene Stimme nachvollziehen kann, könnten Personen, der mit dem Ergebnis einer Wahl nicht einverstanden ist, behaupten, dass ihre eigene Stimme falsch gezählt wurde und die Wahl somit kompromittiert sei. Nachvollziehen könnte das niemand. In solchen Fällen müssten wohl Wahlvorstände und Parteischiedsgerichte sich damit auseinandersetzen, wie glaubwürdig das Vorbringen des oder der Einzelnen ist. Wir sehen diesen Nachteil und sind trotzdem der Überzeugung, dass der Mehrwert, der durch eine individuelle Überprüfbarkeit geleistet wird, die Nachteile deutlich überwiegt, die entstehen würden, wenn blind auf eine Blackbox vertraut werden würde.
Höchste Anforderungen sind außerdem auch den Wahlanbieter zu stellen. Das verwendete System sollte von einer öffentlichen Stelle zur Verfügung gestellt werden. Die Infrastruktur für digitale Wahlen sollte also als Teil der öffentlichen Infrastruktur gesehen werden, die ehrenamtliches Engagement, nicht nur in Parteien, sondern auch in den vielen Vereinen in Deutschland, möglich macht. Unabdingbar ist es auch, dass der Quellcode öffentlich einsehbar ist (Open Source) und das System regelmäßig von unabhängigen Stellen geprüft wird (Audits).

Keine gute Lösung, aber die bestmögliche

Auch in Pandemiezeiten sind Stift und Zettel die wichtigsten Instrumente der Demokratie. Sie bleiben die einzigen Werkzeuge, die bei staatlichen Wahlen – oder solchen, die staatliche Wahlen unmittelbar vorbereiten – verwendet werden dürfen. Doch Vereine und Parteien müssen auch funktionsfähig bleiben, wenn die Gesundheit aller durch Abstand geschützt wird. Daher sind unseres Erachtens in bestimmten Szenarien digitale Wahlen möglich. Aber wenn Wahlen digital abgehalten werden müssen und die Öffentlichkeit der Wahl, die Nachvollziehbarkeit für die Wählenden, gegen die perfekte Geheimhaltung steht, sollte die Öffentlichkeit bevorzugt werden. Eine Blackbox, bei der alle Wählenden blind auf das System vertrauen müssen, ist stets abzulehnen. Eine mögliche Wahlmanipulation – schon nur der Glauben daran – beschädigt das gesamte System und wiegt schwerer als alles andere. Das Dilemma zwischen Nachvollziehbarkeit und Geheimhaltung ist kaum gut aufzulösen. Doch von vielen schlechten Lösungen für digitale Wahlen halten wir die, die Manipulationen verhindert, noch für die beste.

D64 begrüßt (wieder einmal) das Urteil des EuGH zur Vorratsdatenspeicherung

Der Europäische Gerichtshof hat in seinem Urteil vom 6. Oktober 2020 bekräftigt, dass eine anlasslose Speicherung von Kommunikationsverbindungsdaten nicht mit EU-Recht vereinbar ist. Ausnahmen sind nur dann möglich, wenn beispielsweise eine akute Bedrohung der nationalen Sicherheit vorliegt. Gleichzeitig hat der EuGH aber auch bekräftigt, dass eine flächendeckende und allgemeine Speicherung persönlicher Verbindungsdaten ohne einen Grund und auf lange Zeit nicht rechtmäßig ist.

Henning Tillmann, Co-Vorsitzender von D64 – Zentrum für digitalen Fortschritt, begrüßt das Urteil:

„Wieder einmal wird der Politik klar aufgezeigt, dass die anlasslose Vorratsdatenspeicherung nicht mit den Grundrechten vereinbar ist. Es bleibt jedoch fraglich, ob innenpolitische Vertreterinnern und Vertreter endlich die richtigen Schlüsse ziehen und neue Instrumente zur Bekämpfung von Kriminalität finden und nutzen. Es muss Schluss sein mit der grundrechtswidrigen Schaufensterpolitk!“

Gerichte auf nationaler und europäischer Ebene beschäftigen sich häufiger mit der gleichen Sachfrage und kommen stets zu ähnlichen Ergebnissen. So urteilte der EuGH bereits 2014, das Bundesverfassungsgericht im Jahre 2010. Es erklärte das damals geltende Gesetz zur Vorratsdatenspeicherung in Deutschland als verfassungswidrig. Gegen die aktuelle Gesetzgebung zur Einführung einer Speicherpflicht für Verkehrsdaten, welche 2015 vom Bundestag beschlossen wurde, liegen mehrere Klagen vor – auch eine Verfassungsbeschwerde von D64. Das Oberverwaltungsgerichts NRW hat bereits 2017 festgestellt, dass die aktuelle Vorratsdatenspeicherung in Deutschland gegen Europarecht verstößt. In der Folge wurde sie von der Bundesnetzagentur ausgesetzt. Mit dem heutigen Urteil des EuGHs könnten nun auch die verschiedenen anhängigen Verfahren bezüglich der deutschen Vorratsdatenspeicherung, sowohl vor dem EuGH als auch am Bundesverfassungsgericht, wieder in Bewegung kommen.

Die D64 Co-Vorsitzende Laura Krause baut auf diese Entwicklung:

„Seit 2015 ist die Klage von D64 beim Bundesverfassungsgericht anhängig. Wir hoffen, dass es nun auch auf nationaler Ebene ein endgültiges und dauerhaftes Aus für die anlasslose Vorratsdatenspeicherung gibt.“

Digitale Kinderarbeit verhindern – Kidfluencer schützen

D64 – Zentrum für digitalen Fortschritt sieht die Werbetätigkeiten durch Kinder in sozialen Netzwerken als zunehmendes Problem und fordert die Behörden auf, ihre Aufsichtspflicht stärker wahrzunehmen und für das Thema zu sensibilisieren.

Das Phänomen des „Kidfluencing“ beschreibt Influencer-Tätigkeiten von Kindern, die sogar schon als Kleinkinder Produkte vor teilweise Hunderttausende von Followerinnen und Followern bewerben. Die Zusammenarbeit mit Kidfluencern ist für Unternehmen höchst attraktiv, erreichen sie hier ihre Zielgruppen hierbei doch besonders genau. Die Belastung, der Druck und die Verantwortung, die für Kinder hierbei entsteht, darf jedoch nicht unterschätzt werden. Influencing ist Arbeit. Kidfluencing ist Kinderarbeit.

Was Kidfluencing von „klassischer“ Kinderarbeit unterscheidet und deshalb besonders gefährlich macht: Die Erziehungsberechtigten, die grundsätzlich für das Wohl des Kindes zu sorgen haben, haben nicht selten ein Eigeninteresse an der Tätigkeit ihrer Kinder oder instruieren diese sogar, weil die öffentliche Aufmerksam geschätzt wird und die Einnahmen der ganzen Familie zugutekommen.

Die rechtliche Lage ist eindeutig

Die rechtliche Lage ist jedoch klar: Jedenfalls wenn Kinder gegen Entgelt oder zu anderen wirtschaftlichen Zwecken tätig werden, handelt es sich um Kinderarbeit im Sinne des Jugendarbeitsschutzgesetzes. Solche Beschäftigungen sind für Kinder (bis zu einem Alter von fünfzehn Jahren) grundsätzlich verboten (§ 5 Abs. 1 JArbSchG). Sie können nur ausnahmsweise auf Antrag mit Zustimmung der Sorgeberechtigten von den zuständigen Aufsichtsbehörden erlaubt werden (§ 6 JArbSchG). Das gilt auch für Influencing!

Erik Tuchtfeld, Mitglied des erweiterten Vorstands von D64, weist jedoch auf ein Problem hin: „Viele Erziehungsberechtigte gehen fälschlicherweise davon aus, dass Kidfluencing ohne Weiteres erlaubt ist, weil es sich um ein Hobby im familiären Bereich handelt. Deshalb ist es ganz besonders notwendig, dass die Aufsichtsbehörden die Rechtslage aktiv durchsetzen!“ Doch dies erfolgt oft nur lückenhaft, wohl auch aufgrund mangelnder Kenntnis von den Tätigkeiten der Kinder und Jugendlichen in sozialen Netzwerken.

Außerdem haben die Bundesländer als Aufsichtsbehörden die Gewerbeaufsichten bestimmt. Da es aber um das Wohl von Kindern und Jugendlichen geht und insbesondere das Phänomen Kidfluencing auch stark in den privaten, familiären Bereich hineinwirkt, sollten die örtlichen Jugendämter stärker in die Erteilung von Ausnahmegenehmigungen einbezogen werden.

Verantwortungsvolle Nutzung von Sozialen Medien

Wichtig ist, dass Kinder und Jugendliche verantwortungsvoll mit sozialen Medien aufwachsen können. D64-Mitglied Lilly Blaudszun unterstreicht: „Hierzu gehört selbstverständlich auch das aktive Sich-Bewegen in sozialen Netzwerken, hierzu gehört auch das Erstellen von Memes, Videos und vielem mehr. Nicht dazu gehören darf aber eine Ausbeutung von Kindern und jungen Erwachsenen, auf deren Schultern in der Folge die Verantwortlichkeit für den Erwerb der ganzen Familie liegen kann.“

D64 fordert die zuständigen Behörden deshalb auf, die staatliche Aufsicht zu intensivieren und durch öffentliche, großangelegte Kampagnen über das Problem und die Rechtslage zu informieren und sensibilisieren.

 

Weiterführende Informationen:
Julia Carrie Wong, ‚It’s not play if you’re making money‘: how Instagram and YouTube disrupted child labor laws, The Guardian, 24. April 2019
Stephan Dreyer, Claudia Lampert u.a., Zwischen Spielzeug, Kamera und YouTube: Wenn Kinder zu Influencern (gemacht) werden, Deutsches Kinderhilfswerk, 2019

Die Ansprüche an die Corona-Warn-App müssen der neue Maßstab sein

D64 hat den Prozess rund um die Entstehung und Entwicklung der Corona-Warn-App in den letzten Wochen intensiv verfolgt und begleitet. Mit einem offenen Brief gemeinsam mit weiteren Akteuren aus der digitalen Zivilgesellschaft an Bundesgesundheitsminister Jens Spahn und Kanzleramtsminister Helge Braun, äußerte der Verein datenschutzrechtliche Bedenken. Diese wurden akzeptiert und damit Abstand von dem zunächst von der Bundesregierung verfolgten zentralen Ansatz genommen.

Die Corona-Warn-App zeigt, dass große, digitale, öffentliche Projekte unter Einbindung von Wissenschaft und Zivilgesellschaft in Rekordtempo möglich sind – und das unter Wahrung von Datenschutz und Datensicherheit. „Wir sind uns sicher: Datenschutz, Datensicherheit und Open Source ist der einzige erfolgsversprechende Weg. Der letztliche Prozess zur Corona-Warn-App muss in Zukunft der Maßstab für weitere ähnliche Projekte sein“, fordert die D64-Co-Vorsitzende Laura-Kristine Krause.

D64 stellt daher im Zusammenhang mit der Entwicklung von Software durch die öffentliche Hand folgende Mindestanforderungen auf:

1. Expertise einholen: bei der Umsetzung großer Projekte müssen sich Bund, Länder und Kommunen von verschiedenen Akteuren beraten zu lassen. Im Fall der Corona-App hätten sich durch die frühzeitige Einbindung externer Expertinnen und Experten viele Kommunikations- und Umsetzungsprobleme im Frühling vermeiden lassen können. Vielfältige Perspektiven und Expertise helfen den Aufwand für technische Herausforderungen richtig einschätzen zu können und viele gesellschaftliche Gruppen am Diskurs zu beteiligen.

2. Datenschutz und Datensicherheit: Es hätte kein Vertrauen in eine Anwendung gegeben, die sensibelste Daten zentral auf einem Server anhäuft und damit begehrtes Ziel von Angriffen wird. Die Europäische Union ist bei Software, anders als das Silicon Valley oder China, vielleicht nicht die Schnellste und Erste. Sie kann aber einen enormen Vorteil bieten, wenn Datenschutz und Datensicherheit strikt eingehalten werden. Dabei zeigt sich, dass diese beiden Eigenschaften der Corona-Warn-App einen enormen Schub gegeben und die Akzeptanz erhöht haben. Datenschutz und Datensicherheit sind keine Bremsen, sondern Antreiber.

3. Public Money, Public Code: Neben dem Plus an Datenschutz und Datensicherheit ist Transparenz elementar. Die Corona-Warn-App ist vollständig Open Source, d. h. jede und jeder kann den Quellcode lesen, bewerten und auch Verbesserungsvorschläge einreichen. Das muss fortan Standard sein. Wird Software aus öffentlichen Geldern bezahlt, muss sie auch öffentlich einsehbar sein. Public Money, Public Code!

„Die Kernbausteine für große Softwareprojekte sind damit klar: Datenschutz, Datensicherheit und Open Source.“, sagt der D64 Co-Vorsitzende Henning Tillmann. Weitere Lehren aus dem Arbeitsprozess hat er schon vor der Fertigstellung der App in einem Artikel für t3n zusammengefasst.

#D64diskutiert: Mit dem Gesundheitszertifikat zu mehr Freiheit? Diskussion zu Chancen, Risiken und Nebenwirkungen

Bundesgesundheitsminister Jens Spahn hat vor wenigen Wochen einen Gesetzesentwurf vorgelegt, der die Einführung eines Immunitätsausweises für ehemals COVID 19-Erkrankte vorsieht. Nach starker Kritik von vielen Seiten wurde die umstrittene Passage zwar entfernt, die Diskussion dauert aber an. Zudem arbeitet ein Konsortium, unter anderem bestehend aus der Bundesdruckerei, der Universitätsklinik Köln und privaten Organisationen, bereits an einem „Digitalen Corona Gesundheitszertifikat“. Auch im Bereich Tourismus könnte ein digitaler Immunitätsausweis eine Rolle spielen. So überlegen etwa die Kanarischen Inseln nur Urlauberinnen und Urlauber einreisen zu lassen, die sich in Ihrem Heimatland einem Test unterzogen haben und ihre Immunität, etwa per App, nachweisen können.

Hier klicken, um zu den Livestreams zu gelangen.

Doch was würde solch ein Immunitätsausweis für uns als Gesellschaft bedeuten? Sollen Freiheitsbeschränkungen zukünftig nicht mehr für Immune gelten? Führt dies nicht zu einem Anreizsystem, sich besonders schnell mit Corona zu infizieren und konterkariert damit die aktuellen Bestrebungen zur Eindämmung der Pandemie? Aber könnten nicht auf der anderen Seite auch insbesondere Immune risikobehafteten Tätigkeiten, bspw. in Pflegeheimen und Krankenhäusern, übernehmen?
Gäbe es darüber hinaus andere digitale Hilfsmittel, um Menschen, die nachweislich negativ sind – oder immun sind – wieder mehr Freiheiten einräumen zu können?

Über diese Fragen diskutieren auf Einladung von D64 am 27. Mai 2020 um 19 Uhr per Webkonferenz auf d-64.org:

Peter Dabrock, ehem. Vorsitzender des Ethikrates und Theologe
Stephan Noller, Ubirch, Mithersteller des „Digitalen Corona Gesundheitszertifikats“
Lorena Jaume-Palasi, Gründerin The Ethical Tech Society
Karl Lauterbach, MdB und Epidemiologe
Lea Beckmann, Juristin bei der Gesellschaft für Freiheitsrechte

Der Link zum Stream wird auch auf unserem Twitterkanal (@D64eV) zu finden sein.

D64 legt vor und veröffentlicht Grundwertepapier „Künstliche Intelligenz“

D64 – Zentrum für digitalen Fortschritt versteht sich als Denkfabrik des digitalen Wandels. Dieser digitale Wandel wird zunehmend von technologischen Errungenschaften bestimmt, die auf künstlicher Intelligenz beruhen. Wir gehen davon aus, dass Digitalisierung und insbesondere der Fortschritt, der durch Künstliche Intelligenz erreicht wird, im Rückblick als Revolution der Arbeitsbedingungen und Lebensumstände wahrgenommen wird. Getreu seines Mottos und aufbauend auf jahrelangen Denkanstößen veröffentlicht D64 nun ein Papier zu „Grundwerten in der digitalisierten Gesellschaft – Der Einfluss Künstlicher Intelligenz auf Freiheit, Gerechtigkeit und Solidarität“.

Das umfassende Papier kann hier heruntergeladen werden (PDF).

Erstempfängerin des Grundwertepapiers war Bundesjustizministerin Dr. Katarina Barley, die anschließend mit den Verfassern und D64-Mitgliedern wesentliche Thesen des Papiers diskutiert hat.

Zu dieser Diskussion laden wir an dieser Stelle ebenfalls ein. Zum Download des Papiers:

D64 Grundwertepapier KI

D64 Thesenpapier: Grundwerte für Künstliche Intelligenz

Im letzten Jahr startete D64 die Themenreihe zur Künstlichen Intelligenz. Bei dem ersten Workshop Künstliche Intelligenz: Technik, Ethik, Recht diskutierten wir unterschiedliche Aspekte der KI und wie mögliche politische Strategien zur Förderung, Gestaltung aber auch Regulierung von KI aussehen könnten. D64 wird im Frühjahr 2018 in einer weiteren Veranstaltungen Thesen und Handlungsempfehlungen für die Politik entwickeln. Der folgende Entwurf soll Grundlage für die Diskussion sein. Datum und Ort der Veranstaltung stehen noch nicht fest und werden im D64-Ticker angekündigt. Weiterlesen

#D64KI – Auftaktveranstaltung zur Themenreihe Künstliche Intelligenz ein voller Erfolg

Am vergangenen Samstag begann die Themenreihe zur Künstlichen Intelligenz („KI“) im betahaus in Berlin. 120 Teilnehmer diskutierten einen ganzen Nachmittag lang und arbeiteten in Workshops an Positionen zu ethischen, rechtlichen und technischen Fragen der KI. Bis zum Ende des Jahres wird der Verein ein umfassendes Paper und eine weitere Veranstaltung anbieten. Alle Mitglieder sind herzlich zur Mitarbeit eingeladen.

Nach einem umfassenden Grußwort der Bundesministerin für Wirtschaft und Energie (sowie D64-Mitglied!), Brigitte Zypries, und kurzen Beschreibungen der KI aus wissenschaftlicher und technischer Perspektive, folgten vier Workshops.

KI & Ethik aus wissenschaftlicher Perspektive
Prof. Dr. Judith Simon von der Uni Hamburg steuerte zunächst einen Impulsvortrag für den Auftakt der Veranstaltung bei. Darin warb sie u. A. dafür, das Thema aus einer praxisorientierten Sicht zu behandeln, anstatt sich von fernen Visionen einer übermenschlichen Intelligenz ablenken zu lassen. Aus ethischer, erkenntnistheoretischer und schließlich politischer Sicht müssten bereits heute Weichen gestellt werden, denn die KI in ihrer aktuellen sogenannten „schwachen“ Form – also Software, die in eng spezialisierten Bereichen bestimmte intelligente Leistungen erbringt — beginne schon jetzt, unsere Gesellschaft zu verändern.
Im Workshop wurden unterschiedliche Aspekte der KI diskutiert. Ein Aspekt waren menschliche Vorurteile und Verzerrungen, die unbemerkt und ungewollt in die KI einfließen, fester Bestandteil der KI-Systeme werden, und sich dadurch verstärken. Ein anderes Thema war Verantwortung für Software-Entscheidungen: wenn ein KI-System Schäden anrichtet, muss geregelt werden, wer dafür herangezogen werden kann. Als Forderungen an die Politik schlug Prof. Simon am Ende der Session drei zentrale Themen vor: zum einen setzte sie sich dafür ein, Gerechtigkeit und Chancengleichheit als Leitlinie über die politische Entscheidungsfindung zu stellen, zum anderen sieht sie aktuell besonderen Bedarf für politische Bemühungen beim Zugang zu den Datenquellen – als „Rohmasse“ für die KI – und bei der Entwicklung der Kompetenzen, die es braucht, um die Arbeit von KI-Algorithmen überhaupt extern einschätzen zu können.

KI aus der technischen Perspektive
Dr. Dirk Michelsen, Managing Consultant für das deutsprachige Watson Team von IBM, führte mit einem Überblick über die technischen Möglichkeiten und Anwendungsgebiete der Künstlichen Intelligenz ein. Klar wurde, dass insbesondere viele neue Business-Ideen KI verwenden – ohne, dass dieser Aspekt klar ersichtlich wird. So ist der Einsatz z. B. in Spielzeug für Kinder denkbar, ebenso aber auch im medizinischen Bereich, um Behandlungsvorschläge erstellen zu können.

Michelsen betonte, dass IBM mit Watson lediglich die Technik bereitstellt, es obliegt der Kundin bzw. dem Kunden, wie die KI eingesetzt wird. Künstliche Intelligenz sei, so Michelsen, erst einmal ethisch neutral. Im Workshop wurde deutlich, dass die Zukunft der KI kaum vorherzusagen sei. Realistische Ausblicke liegen bei nur wenigen Jahren.

KI & Datenökonomie
Den Input gab Dr. Florian Hoppe, promovierter Informatiker, Gründer und Geschäftsführer des A.I. Start-ups Twenty Billion Neurons GmbH. Eingeführt wurde in den Stand der Technik im “Deep Learning”-Bereich. Deutlich wurde, dass ein neuronales Netz — ebenso wie das menschliche Gehirn — maßgeblich von den Daten abhängt, aus denen es lernt. Daher kommt es neben der Entwicklung der Algorithmen vor allem auf die Datensätze an, die dem Algorithmus zum Lernen zur Verfügung gestellt werden. Das Unternehmen lässt zu diesem Zweck einen eigenen Datensatz erarbeiten.
In der Diskussion wurde deutlich, dass der Zugang zu Rohdaten momentan nicht hinreichend gewährleistet ist und ein Problem bei der Entwicklung neuer Techniken darstellt. Einerseits haben Nutzer momentan nicht die Möglichkeit, Daten aus einem Dienst, den sie nutzen, auch anderen Datenverwertern zur Verfügung zu stellen. Andererseits wurde die Frage erörtert, ob Daten ein geistiges Eigentumsrecht begründen sollten. Diskutiert wurde weiter, wie ein Markt an (nicht personenbezogenen) Daten entstehen kann. Schließlich wurde die Frage erörtert, ob die Nutzung von Rohdaten zu öffentlichen Zwecken sowie im Interesse der Wissenschaft einfacher möglich werden soll.

KI & Ethik
Stephan Noller, Diplom-Psychologe mit Schwerpunkt Kognition und Machine-Learning, Mitglied des Beirats junge digitale Wirtschaft beim Bundeswirtschaftsministerium und Gründer von nugg.ad und ubirch gab in einem Impulsvortrag einen Überblick über die aktuelle Entwicklung von Machine Learning (ML)-Algorithmen, die durch spektakuläre Ergebnisse z.B. in den Bereichen Übersetzung und Bilderkennung, einer exponentiellen Steigerung der verfügbaren Daten und einer stetig wachsenden Vernetzung unserer Umwelt zu einem Internet of Things gekennzeichnet ist. Darauf aufbauend präsentierte Noller einige ethische Fragen der näheren Zukunft: Darf ein Arbeitgeber verlangen, dass der Arbeitnehmer seine körperlichen Fähigkeiten durch Implantate erweitert, um effizienter zu arbeiten? Wie reagiert der Home-Care Robot, wenn Oma ihre Medikamente nicht einnehmen will?
In der daran anschließenden Diskussion wurden aus den unterschiedlichsten Perspektiven Grundwerte genannt, die bei der gesellschaftlichen und regulatorischen Gestaltung und Kontrolle von ML- und KI-Technologien sichergestellt sein müssen. Dazu gehört die Autonomie des Individuums, ein Recht auf Widerspruch gegen die Entscheidungen einer KI, Transparenz über die Art und Weise wie Algorithmen entscheiden sowie ein Recht auf Unwissenheit z.B. im Bereich der Genetik. Zusammenfassen lassen sich diese Punkte auf die Abwägung zwischen Freiheit und Selbstbestimmung auf der einen und Effizienz sowie potenziell bessere Entscheidungen einer Maschine auf der anderen Seite. In der Diskussion im Samstag herrschte weitgehend Konsens darüber, dass Freiheit und Selbstbestimmung Vorrang haben müssen. Als Mittel, dies zu erreichen wurden unter anderem das Prinzip der Datensparsamkeit diskutiert. Auch wurde eine Outputkontrolle bei der Regulation von ML- und KI-Algorithmen vorgeschlagen. Damit liesse sich das Problem lösen, dass bei komplexeren Algorithmen oft nicht einmal die Programmierer wüssten, wie eine einzelne Entscheidung zustande kam. Schließlich wurde in der Diskussion auch betont, dass nicht alle ethischen Fragen, die wir uns angesichts des Aufkommens neuer Technologien stellen, genauso neu sein müssen. So hätten sich im Zuge der Industrialisierung bereits zahlreiche soziale Fragen gestellt und zum Entstehen des Sozialstaats geführt. Wir sollten daher aus der Geschichte lernen und bereits ausgehandelte Werte und gesetzliche Regelungen sinnvoll auf die neuen technologischen Entwicklungen übertragen.

Podiumsdiskussion
Bei der abschließenden Podiumsdiskussion wurde zum einen der Diskussions-, zum anderen der Regulierungsbedarf im Zusammenhang mit künstlicher Intelligenz deutlich. Dabei sollte auf jeden Fall erst diskutiert und dann ggf. geregelt werden, denn zum einen gelte es erst einmal zu prüfen, welche Regelungen bereits bestehen, die sich auf die neuen technologischen Möglichkeiten anwenden lassen. Stephan Noller plädierte bspw. auch im Kontext von KI für das bekannte Prinzip der Datensparsamkeit. Zum anderen wurde deutlich, dass sich viele Aspekte nicht einfach ad-hoc regulieren lassen, sondern aus der KI eine Aufgabe für die Gesellschaft erwächst, zunächst einmal zu diskutieren, welche Grundlagen wir für unser Zusammenleben im Zusammenhang mit der KI legen wollen.

Bezogen auf unseren zukünftigen Umgang mit Daten wies Prof. Simon darauf hin, dass noch nicht einmal geklärt sei, welches Eigentumsverhältnis Menschen in Bezug auf ihre Daten eigentlich hätten: sind Daten wie Autos zu behandeln, die man besitzen und verkaufen könne? Oder gleichen sie eher dem Verhältnis zum eigenen Körper, den man nicht veräußern dürfe? Zudem stellte das Thema Datenökonomie einen zentralen Punkt in der Debatte dar. Florian Hoppe forderte besseren Zugang zu „Open Data“ – also zu den Daten, die in öffentlichen Händen liegen. Das „Trainieren“ neuronaler Netzen (deren Qualität durch die Arbeit mit großen Datenmengen verbessert wird) könne dadurch deutlich vereinfacht werden, und innovative Start-Ups würden ohne finanziellen Mehraufwand gefördert. Prof. Simon fragte dagegen, ob es Aufgabe des Staates sei, für private Unternehmen Daten aufzubereiten, während diese dann daraus entstehende Gewinne privatisieren.

Auch die Forderung nach Transparenz für Algorithmen wurde diskutiert: während Florian Hoppe die Komplexität intelligenter Systeme in den Vordergrund stellte und Transparenz als schwierig darstellte, beharrte Stephan Noller, selbst Unternehmer in diesem Bereich, darauf, dass man es Unternehmen nicht zu leicht machen dürfe, sich hinter dem Argument der Komplexität zu verstecken. Transparenz und das Vermitteln der Funktionsweise von Algorithmen sei machbar, nur sei er überzeugt, dass die Unternehmen nicht freiwillig für mehr Transparenz sorgen würden.

Ausblick
Nach diesem anregenden und inspirierenden Einstand freuen wir uns als D64 jetzt auf die kommenden arbeitsintensiven Monate: Ende des Jahres wird D64 ein umfassendes Papier zur Künstlichen Intelligenz vorlegen. Wer Interesse an der Mitarbeit hat, sollte jetzt Mitglied werden. Ebenso wird im Herbst eine weitere Veranstaltung zur KI stattfinden.

Verschiedene Vergleiche und Anknüpfungspunkte zeigten dabei, dass wir weder am Anfang der Diskussion stehen, noch die einzigen sind, die sich darüber Gedanken machen. In den kommenden Monaten gilt es deshalb, europäische und internationale Regulierungsvorstöße zu beobachten und die ethische Debatte aufmerksam zu verfolgen. Dabei sollten wir zwar einerseits weitere Perspektiven in die Diskussion mit einfließen lassen, um einen möglichst ganzheitlichen Blick für notwendige Regulierungen und deren gesellschaftliche Folgen zu ermöglichen.

Andererseits dürfen wir aber das Ziel, Handlungsempfehlungen an die Politik zu formulieren, nicht aus den Augen verlieren. Ein Empfehlungspapier von D64 kann und wird nicht den Anspruch haben, vollumfänglich die Interessen aller Akteure zu vertreten. Die Empfehlung folgt eher der Absicht, sich für eine Förderung von künstlicher Intelligenz im Rahmen von Gerechtigkeit und Chancengleichheit stark zu machen. Denn ein Punkt wurde in der Diskussion ganz deutlich: wir müssen künstliche Intelligenz nicht als Selbstzweck fördern, oder nur, um „international nicht abgehängt“ zu werden. Vielmehr kann und wird die KI unserer Gesellschaft und jedem einzelnen von uns großen Nutzen bringen – wenn wir denn rechtzeitig die Weichen richtig stellen.

Inhaltliche Mitarbeit: Maria Krummenacher, Jan Kuhlen, Martin Oetting, Lena Stork, Henning Tillmann
Fotos: Sebastian Broch, Alexander Hauser, Nina Wettern

D64 startet mit Bundeswirtschaftsministerin Zypries Debatte über Künstliche Intelligenz

Künstliche Intelligenz hat sich zum Hoffnungsträger einer hochtechnologisierten Wissensgesellschaft mit immensen Herausforderungen für die kluge Analyse von Big Data entwickelt. Von selbstfahrenden Autos über Bots, die in England mit der Verwaltung kommunizieren bis hin zum Rechtsanwalt – plötzlich scheint es, als könnten selbstdenkende Algorithmen die meisten Aufgaben der menschlichen Arbeitswelt übernehmen. Der größte Technologiesprung seit der industriellen Revolution scheint unvermeidlich.

Als erster digitalpolitischer Verein überhaupt wird sich D64 – Zentrum für Digitalen Fortschritt e.V. im Wahljahr 2017 ausführlich mit den zentralen Fragen um den Ungang mit Künstlicher Intelligenz auseinandersetzen. In mehreren Workshops wollen wir Positionen und politische Handlungsempfehlungen für die zukünftige Bundesregierung erarbeiten. Wir gehen dabei ohne Vorfestlegungen in die Themenreihe und laden somit alle Interessierten ein, dabei zu sein und gemeinsam mit uns an konkreten Ergebnissen zu arbeiten.

Wir freuen uns, in unserer ersten Veranstaltung am 25. März im Betahaus Berlin u. a. die Bundesministerin für Wirtschaft und Energie, Brigitte Zypries, begrüßen zu dürfen. Weitere Impulsgeber sind Prof. Dr. Judith Simon (Universität Hamburg), Dr. Dirk Michelsen (IBM Deutschland), Stephan Noller (ubirch) und Dr. Florian Hoppe (TwentyBn) und diskutieren über folgende Fragen:

  • Welche konkreten Anwendungsbereiche bietet maschinelles Lernen bereits heute? Welchen gesellschaftlichen Nutzen bringt die Technik mit sich?
  • Welche politischen Leitplanken brauchen wir, um den ethischen Anforderungen gerecht zu werden, ohne den gesellschaftlichen Nutzen der Technik zu gefährden?
  • Wie kann man aus dem technischen Fortschritt einen Wohlstandsfortschritt für Alle erzeugen?

Tickets für die Veranstaltung und der genaue Ablauf finden sich hier. Wir freuen uns über zahlreiches Erscheinen!

Presseakkreditierung: Bitte Mail an henning.tillmann (at) d-64 (punkt) org.