Zweieinhalb Jahre ist es her, dass die Europäische Kommission den ersten Entwurf für den sogenannten AI Act (zu Deutsch: KI-Verordnung) vorgestellt hat. Seitdem ist in der Technologiewelt viel passiert – und der AI Act ist von einem von vielen Brüsseler Digitalvorhaben zum Fokus einer breiten Öffentlichkeit geworden. Nun kommen die Verhandlungen jedoch auf der Zielgeraden ins Straucheln. Der Grund: Die Verwässerung wesentlicher Regelungen bis zur Unkenntlichkeit, vorangetrieben unter anderem durch die Bundesregierung.
Denn gemeinsam mit Frankreich und Italien stellt sich Deutschland aktuell quer, wenn es um die Frage geht, wie sogenannte KI-Basismodelle – auch Foundation Models genannt – reguliert werden sollen. Dabei handelt es sich um die Technologien, die hinter Anwendungen wie bspw. ChatGPT steht. Entwickelt werden sie vor allem von Tech-Riesen wie Microsoft und Google sowie von aufstrebenden Unternehmen wie OpenAI, die sich gegen Regeln für KI-Basismodelle einsetzen. Doch auch in Deutschland und Frankreich gibt es zwei Unternehmen, Aleph Alpha und Mistral, die in dieser Liga mitspielen möchten. Deren Lobbyarbeit hat dazu geführt, dass Deutschland, Frankreich und Italien verbindliche Regeln für solche Modelle im AI Act vehement ablehnen – und stattdessen etwas fordern, was sie „verpflichtende Selbstregulierung“ nennen.
Risiken bei Basismodellen
Doch von vorne: Wieso braucht es überhaupt Regeln für Basismodelle? Bei Basismodellen handelt es sich um sehr große KI-Modelle, die in einem ersten Schritt unter enormem Ressourcenaufwand und mit großen Datenmengen entwickelt und für ein weites Spektrum verschiedener Zwecke genutzt werden können. In einem zweiten Schritt können diese für bestimmte Zwecke angepasst und in Anwendungen integriert werden – etwa als Grundlage für einen Chatbot bei einem Finanzdienstleister, um Softwarecode zu schreiben oder um Lebensläufe zu analysieren. Sie können somit das Fundament für ganz verschiedene KI-Anwendungen stellen.