Wer heute einen Kredit will, eine Sozialleistung beantragt oder einen Behördengang antritt, wird mit automatisierten Entscheidungssystemen konfrontiert, die Entscheidungen treffen, die lange Menschen vorbehalten waren. Diese Maschinen treffen die Entscheidungen nun leiser, ohne Begründung und oft ohne die Möglichkeit des Widerspruchs. Diskutiert wird der Einsatz solcher Systeme unter dem Schlagwort „Künstliche Intelligenz“.
2018 haben wir zum ersten Mal die Frage gestellt, wie sich Künstliche Intelligenz mit den Werten Freiheit, Gerechtigkeit und Solidarität verträgt. Damals war Katarina Barley noch Bundesjustizministerin und ChatGPT noch nicht erfunden. Seitdem hat sich einiges getan, weshalb über 20 Autor:innen aus Wissenschaft, Verwaltung und Wirtschaft unser KI-Grundwerte-Positionspapier nun von Grund auf überarbeitet haben. Herausgekommen sind 25 Forderungen. Zusammen ergeben sie einen Rahmen für alle, die an der Nutzung von KI grundsätzlich interessiert sind, denen aber ein Einsatz gemäß demokratischer Werte wichtig ist. Im Folgenden stellen wir eine kleine Auswahl der Forderungen vor:
Freiheit
Forderung 1: Wir fordern eine institutionalisierte KI-Governance mit unabhängiger Aufsicht, die ethische Prinzipien verbindlich verankert, volle Transparenz für Entscheidungsprozesse garantiert und menschliche Verantwortung gesetzlich absichert.
Unsere erste Forderung betont die Bedeutung von Transparenz. Wer mit KI Entscheidungen trifft, muss erklären können, wie diese zustande kommen. Das klingt selbstverständlich, ist es aber in der Realität oft nicht. Derzeit wissen Unternehmen und Behörden in vielen Fällen nicht, was die Systeme genau tun, die sie betreiben, um Auskünfte zu bekommen oder Entscheidungen zu treffen. Aber nur wenn die Funktionsweise der Systeme nachvollziehbar ist, können wir sie überprüfen. Um die Freiheit zu einem selbstbestimmten Leben zu schützen, brauchen wir daher klare Regeln und Transparenz.
Forderung 8: Wir fordern, dass KI-Anbieter:innen das gezielte Herbeiführen von emotionalen Bindungen offenlegen müssen. Psychologische Designprinzipien wie „sycophantic validation“ und engagement-optimierte Algorithmen sind transparent zu machen – und diese Funktionen müssen kostenfrei deaktivierbar sein.
Forderung acht betrifft emotionale Bindungen zu KI-Systemen, eine Strategie, die KI-Hersteller gezielt zur Manipulation der Nutzenden einsetzen können. KI-Chatbots und sogenannte „Companions“ sind darauf ausgelegt, dass man sie mag, ihnen vertraut, ihnen folgt. Im Positionspapier verlangen wir, dass solche psychologischen Mechanismen offengelegt und abschaltbar sein müssen. Wir werden die europäische Regulierung dazu eng verfolgen.
Gerechtigkeit
Forderung 10: Wir fordern klare Regeln für den Einsatz und Umgang mit Ergebnissen von KI-gestützten Systemen, um Diskriminierung zu verhindern. Hierfür bedarf es einer breiten gesellschaftlichen Debatte sowie Aufklärungskampagnen sowie unabhängiger Aufsicht.
Besonders herausfordernd ist die Frage der Gerechtigkeit. Algorithmen, die über Kreditvergabe, Einstellungsentscheidungen oder Sozialleistungen mitentscheiden, lernen aus sogenannten Trainingsdaten. Und Daten spiegeln einen bestimmten Ausschnitt der Vergangenheit wider, treffen aber keine Aussage darüber, wie die Welt sein sollte. Wer also Systeme mit historischen Datensätzen trainiert, riskiert, dass die Vorurteile von gestern die Entscheidungen von morgen treffen. In Deutschland gibt es bisher kaum unabhängige Kontrollen darüber, wie solche Systeme in der Verwaltung oder bei privaten Unternehmen eingesetzt werden. Es braucht in diesem Bereich neben der konsequenten Anwendung bestehender Gesetze, wie bspw. des Allgemeinen Gleichbehandlungsgesetzes und der Datenschutzgrundverordnung, auch gesellschaftliche Aufklärung und Debatte über die angestrebten Ziele.
Forderung 12: Wir fordern, die Rechte von Menschen, die von Diskriminierung durch KI-Systeme betroffen sind, zu stärken. Dafür sind die transparente Durchsetzung und Kontrolle von Richtlinien für den Einsatz von KI in allen staatlichen Stellen notwendig. Behörden, die mit der Durchsetzung von Anti-Diskriminierungsrichtlinien beauftragt sind, müssen ausreichend ausgestattet werden und Weiterbildungsmöglichkeiten erhalten.
Wer von einer KI-gestützten Entscheidung betroffen ist – abgelehnt, ausgefiltert, eingestuft – hat derzeit oft keine praktikable Möglichkeit, dagegen vorzugehen. Einen pauschalen Rechtsanspruch auf Überprüfung gibt es aber bisher nicht. Wir finden aber, dass es diesen geben sollte. Denn eine Gesellschaft, die Grundrechte formal garantiert, sie aber strukturell nicht durchsetzt, macht aus Versprechen bloße Dekoration.
Solidarität
Forderung 16: Wir fordern einen uneingeschränkten Schutz des Solidarprinzips, insbesondere in sensiblen Bereichen der Daseinsvorsorge. Wir fordern eine aktive politische Gestaltung des Bundeshaushalts, die durch Instrumente wie eine KI-Wertschöpfungsabgabe sicherstellt, dass technologische Gewinne dem Gemeinwohl zugutekommen.
Der Schutz der Solidarität ist uns ein besonderes Anliegen, insbesondere weil sie in Zeiten zunehmender Vereinzelung immer stärker gefährdet ist. Versicherungen funktionieren seit Jahrhunderten nach einem einfachen Prinzip: Viele zahlen ein, damit wenige im Schadensfall nicht allein dastehen. KI macht aber dieses Prinzip angreifbar. Wer Daten präzise genug auswertet, kann Risiken so exakt individualisieren, dass aus dem Kollektiv irgendwann lauter Einzelfälle werden. Wer ein höheres Risiko trägt, zahlt dann mehr, bis man sich den Schutz schlicht nicht mehr leisten kann. Das trifft, wie so oft, vor allem diejenigen, die ohnehin weniger haben, und muss gesellschaftlich kritisch reflektiert werden.
Forderung 20: Wir fordern, dass durch KI ermöglichte Wohlstandsgewinne sowie die mögliche Reduzierung von Arbeitszeiten in eine neue Gestaltung von Arbeit und Wohlstandsverteilung münden, die Teilhabe und Fairness in den Mittelpunkt stellt.
Der Einsatz von KI wird unsere Arbeitswelt fundamental verändern. Aus sozialpolitischer Sicht sind hierbei jedoch viele Fragen offen: Wenn Maschinen Tätigkeiten übernehmen und dabei Gewinne erwirtschaften, wem gehören diese Gewinne dann? Bisher vor allem den Unternehmen, die die Systeme betreiben. Wir fordern aber, dass diese Wertschöpfung breiter verteilt wird, etwa durch verkürzte Arbeitszeiten, Qualifizierungsmaßnahmen und soziale Absicherung in Phasen des Übergangs. Unser Leitmotiv dabei lautet: „Protect the people, not the jobs.“ Langfristig muss jedoch das aktuell stark arbeitsgebundene Menschenbild in der Gesellschaft unter den Aspekten neuer Arbeits- und Lebensmodelle überdacht werden, insbesondere in Bezug auf fortschreitende Möglichkeiten zur Erleichterung wie auch zur Automatisierung von Tätigkeiten.
Heute, am 14. April, stellen wir das Papier ab 18 Uhr in einem öffentlichen Webinar vor mit den Autor:innen, mit Gästen aus Bundestag und Ministerien. Wer Fragen hat, kann sie stellen. Wer widersprechen möchte, ebenfalls. Denn das ist der Unterschied zur KI: Wir erklären uns noch.
Unser Jahresthema 2026 heißt „MöglichMachen – Unsere digitale Zukunft gestalten“. Es beschreibt eine Grundhaltung, die wir bei D64 vertreten: Digitale Zukunft ist gestaltbar. Das zeigt das KI-Grundwertepapier, das wir heute veröffentlichen. 25 Forderungen, erarbeitet von über 20 Ehrenamtlichen, die nicht nur Fragen stellen, sondern Vorschläge für Antworten geben möchten.