Im ersten Quartal des Jahres 2021 will die Europäische Kommission einen Vorschlag für einen Rechtsakt zur Künstlichen Intelligenz vorlegen. Zur Vorbereitung hat sie im „Weißbuch – Zur Künstlichen Intelligenz“ Vorschläge veröffentlicht, um ein „Ökosystem für Exzellenz“ (Fördermaßnahmen) und ein „Ökosystems für Vertrauen“ (Regulierung) zu schaffen. Zugleich hat sie zu einem breiten Beteiligungsprozess eingeladen. Die D64 Arbeitsgruppe KI hat eine umfangreiche Stellungnahme eingereicht in der sie den Vorstoß der Kommission befürwortet und eine „tastende“ Regulierung fordert.
D64 begrüßt ausdrücklich, die im Weißbuch zum Ausdruck gebrachten Ziele der Kommission, Künstliche Intelligenz durch ein „Ökosystem für Exzellenz“ EU-weit zu fördern sowie durch ein „Ökosystem für Vertrauen“ Rechtssicherheit und Vertrauen zu gewährleisten. Gleichwohl sieht D64 aber auch Bedarf, die vorgelegten Konzepte zu schärfen und zu optimieren.
Die Zustimmung zum Weißbuch wird von zwei Leitgedanken getragen:
- D64 sieht sich insbesondere den europäischen Grundwerten Freiheit, Gerechtigkeit und Solidarität verpflichtet. Digitalisierung und Technologisierung sind kein Selbstzweck. Aufgabe der Politik, Wirtschaft und Zivilgesellschaft ist es, Künstliche Intelligenz (KI) und andere algorithmische Systeme – wie jede andere Technologie auch – zu einem Mittel zur Stärkung dieser Grundwerte und zur Vergrößerung des gesamtgesellschaftlichen Wohlergehens zu machen. Gemeinnützige technologische Innovationen (sog. social innovations) sind ein wichtiges Mittel um dieses Ziel zu erreichen.
- Wir begreifen verhältnismäßige Regulierung und Innovationsförderung als Zusammenspiel: Regulierung verhindert gemeinwohlschädliche Anwendungen und schafft so Vertrauen in digitale Technologien. Sie schützt unsere Grundrechte und baut Vorbehalte gegen neue Technologien ab. Damit trägt sie zur verstärkten Nutzung und somit letztlich zur Wohlstandssicherung bei und gewährleistet die europäische Wettbewerbsfähigkeit.
D64 hat weitere Verbesserungsvorschläge zu den Vorschlägen der Kommission:
- Orientierung am gesellschaftlich Erwünschten anstelle einer Orientierung des Normativen am Faktischen
Wir sind der Auffassung, dass sich Regulierung nicht auf „eindeutig festgestellte Probleme […] für die es praktikable Lösungen gibt“ (Weißbuch, S. 12), beschränken sollte. Im Unterschied zu physischen Produkten (wie z.B. Chemikalien) besteht beim Einsatz von Algorithmischen Systemen und in besonderer Weise beim Einsatz von Künstlicher Intelligenz die Schwierigkeit, Probleme und Gefahren aufzudecken und nachzuweisen. Insbesondere gesamtgesellschaftliche Auswirkungen lassen sich kaum individuell beziffern. Ungewissheiten bezüglich der Auswirkungen neuer Technologien sind seit jeher kein pauschaler Ausschlussgrund für vorbeugende Risikominimierung (vgl. anstelle vieler: die risikominimierende Regulierung der Gentechnik durch das Gentechnikgesetz von 1990). Zudem dürfen technische Gegebenheiten nicht den normativ geprägten Gesetzgebungsprozess bestimmen: Der Gesetzgeber gibt vor, was Technik darf, nicht umgekehrt.
Im Zentrum der Regulierung neuer Technologien sollte stets zuerst die Betrachtung des Risikos* ihrer Anwendungen für die Gesellschaft und individuell Betroffene stehen und dann die Definition der gesellschaftlich erwünschten Anforderungen folgen – unabhängig von der Frage wie schwer oder einfach diese technisch zu erreichen sind. - Orientierung am konkreten Risiko anstelle einzelner Technologien und Sektoren
Wir raten dringend davon ab, den Regulierungsrahmen auf den Einsatz von KI in ausgewählten Sektoren zu begrenzen (Weißbuch, S. 19 ff.).
Ein auf KI beschränkter Ansatz ist bereits im Ausgangspunkt zu eng. Zum einen gibt es zurzeit keine allgemein anerkannte und erschöpfende Definition von KI. Definiert man KI z.B. als Maschinelles Lernen, können algorithmische Entscheidungssysteme auch ohne eine solche KI-Komponente in bestimmten Anwendungsszenarien zu exakt denselben Risiken führen.
Ein algorithmisches Entscheidungssystem kann in mehreren Sektoren zum Einsatz kommen. Zwar lassen sich unter Umständen Sektoren ausmachen, in denen der Einsatz typischerweise besonders risikogeneigt ist. Diese typisierte Betrachtung darf aber nicht den Blick darauf verstellen, dass algorithmische Entscheidungssysteme auch jenseits dieser Sektoren im Einzelfall zu schwerwiegenden Grundrechtseingriffen führen können. Umgekehrt existieren in jedem Sektor auch gänzlich unriskante Anwendungen.
Der regulatorischen Anwendungsbereich sollte daher algorithmische Systeme umfassen, die aufgrund ihrer konkreten Verwendung zur Entscheidung über Menschen anhand von Daten zu hohen Risiken für grundrechtlich geschützte Güter führen. - „Gestufte Regulierung“ anstelle einer binären Unterteilung in Anwendungen mit hohem Risiko (einerseits) und ohne solches (andererseits)
Die Kommission möchte in Anwendungen ohne Risiko und Anwendungen mit hohem Risiko unterteilen. Für letztere sollen stets alle Anforderungen (von menschlicher Aufsicht über Transparenz bis hin zu Qualität/Robustheit) gleichzeitig gelten (Weißbuch, S. 22 ff.).
Wir halten diese binäre Unterteilung für zu undifferenziert.
Erforderlich ist eine „gestufte Regulierung“, die je nach konkretem Risiko feingranularere Abstufungen vorsieht (siehe Abbildung unten). Je größer das Risiko der Anwendung ist, desto mehr Anforderungen müssen erfüllt werden. Dabei kommen je Stufe immer weitere Anforderungen hinzu. Wenn z.B. ein Algorithmus basierend auf den Ergebnissen des Online-Fragebogens auf Stufe 4 eingeordnet wird, muss dieser auch Anforderungen 2 und 3 erfüllen. Konkret dürfte diese Anwendung dann nur eingesetzt werden, wenn ein Mensch sie kontrolliert (Menschliche Aufsicht) sowie die betroffene Person darüber informiert wird, dass (Transparenz „Ob“) und in welcher Form (Transparenz „Wie“) ein Algorithmus für die Entscheidung zum Einsatz kommt. Mit „gestufter Regulierung“ wird sichergestellt, dass das Risiko einer Anwendung in einem verhältnismäßigen Maß zu ihrer Regulierung steht. - „Tastende Regulierung“ anstelle eines regulatorischen Schnellschusses
„Tastend“ heißt, dass der Gesetzgeber nicht von Anfang an alle Stufen festlegt, sondern zunächst nur die erste Stufe verpflichtend macht. Das heißt, dass Akteure, die algorithmische Entscheidungssysteme** einsetzen, einen einfachen Online-Fragebogen ausfüllen. Um dieses behördliche Wissen sodann in gesamtgesellschaftliches Wissen zu transferieren, sollten die Behörden Jahresberichte sowie die gesammelten statistischen Daten zur Verwendung von algorithmischen Entscheidungssystemen und den dabei entstehenden Risiken veröffentlichen.
Basierend auf diesen Ergebnissen sollte der Gesetzgeber dann die Anwendungen auswählen, für die weitergehende Anforderungen wie z.B. im Hinblick auf Nicht-Diskriminierung, menschliche Aufsicht, Genauigkeit und Robustheit gelten. Der Gesetzgeber lernt also kontinuierlich hinzu und erhebt Daten für die weitere Regulierung.
Ausblick:
- Die EU-Kommission wird nun bis Anfang 2021 alle Stellungnahmen konsolidieren und anschließend ein Konzept für einen Rechtsrahmen vorlegen.
- Da es die Arbeitsgruppe trotz Bemühungen nicht geschafft, das selbstgesetzte Ziel der Geschlechterparität innerhalb der Arbeitsgruppe zu erreichen, ist die vorliegende Stellungnahme als „lebendes Dokument“ zu verstehen und soll als Grundlage für eine weitere öffentliche und vor allem inklusive Diskussion dienen. Ziel ist es, die Positionen aus dieser Stellungnahme und ggf. weitere Positionen zum Thema Künstliche Intelligenz aus unterschiedlichen Perspektiven zu beleuchten, die unsere heterogene Gesellschaft bestmöglich widerspiegeln. Diese Diskussion wird D64 zeitnah anstoßen.
*D64 versteht unter „Risiko“ allgemein die Kombination aus der Eintrittswahrscheinlichkeit eines schädigenden Ereignisses und der Schwere des möglichen Schadens. So ähnlich auch die Legaldefinition in beispielsweise § 2 Nr. 23 ProdSG. Konkret sieht D64 mögliche Risiken für den Nicht-Diskriminierungs-Grundsatz (z.B. Job-Bewerbungen, Art. 3 GG), die persönlichen Entfaltungsmöglichkeiten (z.B. Kreditanträge, Art. 2 I GG), die persönliche (z.B. Gesichts- und Gangerkennung, Art. 2 I i.V.m. Art. 1 I GG) sowie räumliche (z.B. Sprachassistenten, Art. 13 GG) Privatsphäre oder die Meinungs- und Versammlungsfreiheit (z.B. Newsfeed-Sortierung, Art. 5 und 8 GG). Ausführlich hierzu in „B.1 Problemstellung“ der Stellungnahme.
**Unter algorithmischen Entscheidungssystemen versteht D64 algorithmische Systeme, die anhand personenbezogener Daten Entscheidungen über Menschen mit potentiellen Auswirkungen auf grundrechtlich geschützte Güter treffen oder solche vorbereiten und die geschäftsmäßig (nicht z.B. lediglich im Hobby oder Studium) eingesetzt werden.