Zweieinhalb Jahre ist es her, dass die Europäische Kommission den ersten Entwurf für den sogenannten AI Act (zu Deutsch: KI-Verordnung) vorgestellt hat. Seitdem ist in der Technologiewelt viel passiert – und der AI Act ist von einem von vielen Brüsseler Digitalvorhaben zum Fokus einer breiten Öffentlichkeit geworden. Nun kommen die Verhandlungen jedoch auf der Zielgeraden ins Straucheln. Der Grund: Die Verwässerung wesentlicher Regelungen bis zur Unkenntlichkeit, vorangetrieben unter anderem durch die Bundesregierung.
Denn gemeinsam mit Frankreich und Italien stellt sich Deutschland aktuell quer, wenn es um die Frage geht, wie sogenannte KI-Basismodelle – auch Foundation Models genannt – reguliert werden sollen. Dabei handelt es sich um die Technologien, die hinter Anwendungen wie bspw. ChatGPT steht. Entwickelt werden sie vor allem von Tech-Riesen wie Microsoft und Google sowie von aufstrebenden Unternehmen wie OpenAI, die sich gegen Regeln für KI-Basismodelle einsetzen. Doch auch in Deutschland und Frankreich gibt es zwei Unternehmen, Aleph Alpha und Mistral, die in dieser Liga mitspielen möchten. Deren Lobbyarbeit hat dazu geführt, dass Deutschland, Frankreich und Italien verbindliche Regeln für solche Modelle im AI Act vehement ablehnen – und stattdessen etwas fordern, was sie „verpflichtende Selbstregulierung“ nennen.
Risiken bei Basismodellen
Doch von vorne: Wieso braucht es überhaupt Regeln für Basismodelle? Bei Basismodellen handelt es sich um sehr große KI-Modelle, die in einem ersten Schritt unter enormem Ressourcenaufwand und mit großen Datenmengen entwickelt und für ein weites Spektrum verschiedener Zwecke genutzt werden können. In einem zweiten Schritt können diese für bestimmte Zwecke angepasst und in Anwendungen integriert werden – etwa als Grundlage für einen Chatbot bei einem Finanzdienstleister, um Softwarecode zu schreiben oder um Lebensläufe zu analysieren. Sie können somit das Fundament für ganz verschiedene KI-Anwendungen stellen.
Die Bundesregierung argumentiert jetzt, dass Risiken nur in der Anwendung auftreten, also im zweiten Schritt. Der Gedanke ist, dass sich – da die Modelle für so vielseitige Zwecke genutzt werden können – aus der Perspektive von Entwickler:innen solcher Technologien nicht alle Risiken, die sich aus einem spezifischen Anwendungsfall ergeben können, überblicken lassen. In Teilen stimmt das: Wer in der Entwicklung von Anwendungen die notwendige Sorgfalt vermissen lässt, riskiert, dass Menschen zu Schaden kommen, beispielsweise wenn etwa ein KI-System im Bewerbungsprozess bestimmte Bevölkerungsgruppen diskriminiert. Bestimmte Vorschriften, die den verantwortungsvollen Einsatz von KI regeln, sind für Anwender:innen von Modellen deshalb sinnhaft und notwendig, zum Beispiel wenn es um die Frage geht, wie viel menschliche Aufsicht nötig ist.
Doch haben nicht alle Risiken ihren Ursprung im Anwendungskontext, sondern können auch schon dem Basismodell entspringen. Denn längst wissen wir, dass solche Modelle etwa zu „Halluzinationen“ neigen– also dazu, selbstbewusst falsche Informationen wiederzugeben – sowie weitere Sicherheitsschwachstellen aufweisen können, weshalb auch das Bundesamt für Sicherheit in der Informationstechnik Sicherheitsbedenken beim Einsatz solcher Modelle in Industrie und Behörden geäußert hat. Auch wissen wir, dass Basismodelle diskriminierende Vorurteile zur Schau stellen können.
Beide Beispiele stellen Risiken dar, die Anwender:innen von Technologien, die auf den Modellen basieren, nicht kompensieren oder mitigieren können, da sie auf dem grundlegenden Design und Training des Modells beruhen. Somit sind die ursprünglichen Entwickler:innen besser positioniert, sie zu adressieren. Dass Basismodelle mit Risiken behaftet sind, ist auch in der KI-Industrie längst anerkannt. So hat etwa bereits vor zwei Jahren ein Team von Forscher:innen von Googles KI-Abteilung DeepMind ein umfassendes Papier zu den ethischen und sozialen Risiken solcher Modelle veröffentlicht.
Bundesregierung verwässert sinnvolle Regulierung
Aus diesem Grund drängt das Europäische Parlament, wie auch zahlreiche Forscher:innen und zivilgesellschaftliche Organisationen, darauf, im AI Act verbindliche Regeln für die Entwickler:innen von Basismodellen aufzunehmen, etwa Dokumentations- und Testpflichten sowie Risikoabschätzungen. Für besonders fortgeschrittene Basismodelle, die voraussichtlich in ein weites Spektrum von Endanwendungen integriert werden, sollen dabei striktere Regeln gelten. Doch die Bundesregierung hält gemeinsam mit den Regierungen Frankreichs und Italiens dagegen. Ihr Gegenvorschlag, wie man einem am vergangenen Wochenende geleakten Papier entnehmen kann: Die Entwickler:innen von Basismodellen – unter anderem einige der größten Unternehmen der Welt – sollen selbst entscheiden können, ob sie sich Verhaltenskodizes anschließen oder nicht. Im Kern würde dies bedeuten, dass sie lediglich sogenannte Model Cards zur Funktionsweise ihrer Modelle präsentieren müssten. Dabei handelt es sich um eine Art „Beipackzettel“ zu KI-Modellen – ein Ansatz, der aus der Industrie selbst kommt. Unternehmen wie Google wären somit lediglich aufgefordert, das zu tun, was sowieso schon gängige Praxis in der Industrie ist. Es wäre also ein Fortschreiben des Status quo, kein Anheben der Messlatte mit Blick auf Sicherheitsstandards für KI. Zudem soll die Nichtbefolgung dieser „Selbstverpflichtungen“ vorerst nicht sanktioniert werden.
Ein solcher Ansatz hätte weitreichende Folgen. Zunächst würde das Schutzniveau des AI Acts gesenkt werden, denn ohne Sorgfaltspflichten bei der Entwicklung von Basismodellen würde etwa auch die Wahrscheinlichkeit algorithmischer Diskriminierung ansteigen. Zudem würden, um einzelne europäische Unternehmen zu schützen, auch Tech-Giganten aus der Verantwortung genommen. Nicht zuletzt wären auch solche Unternehmen betroffen, die Basismodelle in ihre Abläufe oder Produkte integrieren wollen – denn in risikoreichen Bereichen würde auf diese Unternehmen, etwa Start-ups und Mittelständler, die gesamte Compliance-Last abgewälzt werden. Wenn als Konsequenz der Einsatz von KI in der Fläche in Deutschland ausbleibt, muss sich niemand wundern.
Eine Position, die vielen schadet und wenigen nützt
Die Blockadehaltung der Bundesregierung in dieser Frage geht folglich zulasten sowohl von Bürger:innen als auch der europäischen Industrie. Hält sie an dieser Position fest, käme das aller Voraussicht nach einem Eigentor gleich. Zudem würde die Bundesregierung riskieren, dass der AI Act mitsamt seiner notwendigen Vorschriften zum Schutz von Sicherheit und Grundrechten auf den letzten Metern doch noch scheitert – oder es mit einer großen Lücke gerade so über die Ziellinie schafft. Denn ein AI Act ohne Regeln für genau die Technologie, die den aktuellen KI-Hype erst ausgelöst hat, wäre nicht nur nicht vollständig, sondern bereits überholt, noch bevor er in Kraft tritt. Das zeigt auch der Vergleich zur Entwicklung von Autos, den Digitalminister Wissing bemüht: So wie dort Sicherheitsmaßnahmen wie Sitzgurte erst mit der Zeit eingeführt wurden, solle man auch hier vorgehen. Es gibt kaum ein treffenderes Beispiel für kurzsichtige Skepsis gegenüber einer elementaren Sicherheitsinnovation, die aus heutiger Sicht nicht mehr wegzudenken ist. Es bleibt zu hoffen, dass es im Fall von KI nicht erst jahrzehntelange Kampagnen und Bußgelder braucht, bis die Technologie für alle sicherer wird.
Um darauf hinzuwirken, haben wir schon im September zusammen mit 120 europäischen zivilgesellschaftlichen Organisationen und Expert:innen in einem offenen Brief gefordert, dass EU-Politiker:innen den Einsatz von KI in der Strafverfolgung, Migrationskontrolle und nationalen Sicherheit regulieren. Wir haben rechtliche Grenzen gefordert, um Schäden zu verhindern, die Menschenrechte zu schützen und die diskriminierende Wirkung von KI-Systemen zu adressieren.
Zu diesen Grundsätzen stehen wir weiterhin. Deshalb fordern wir die Bundesregierung auf, in den Verhandlungen zum AI Act verpflichtenden und robusten Sicherheitsregeln – unter anderem Test- und Transparenzpflichten – für KI-Basismodelle zuzustimmen. Nur so kann eine faire Verteilung der Verantwortung für die Sicherheit von KI-Systemen entlang der Wertschöpfungskette erreicht werden.