Skip to content

Weder Altersverifikation für alle noch Social-Media-Verbote sind die Lösung

Das Konzept der SPD-Bundestagsfraktion zum Schutz von Kindern und Jugendlichen im digitalen Raum leidet unter den gleichen strukturellen Defiziten wie viele der aktuell diskutierten Einschränkungen sozialer Medien im Namen des Kinderschutzes.
Ein Mensch schreibt auf eine Moderationskarte "Infrastruktur diskriminierend? .. öffentliche Güter?"
Foto: D64/Fionn Große

Mit ihrem am Wochenende veröffentlichten Papier hat die SPD-Bundestagsfraktion ein Konzept zum Schutz von Kindern und Jugendlichen im digitalen Raum vorgelegt, das sich auf den ersten Blick differenziert lesen mag. Es leidet jedoch unter den gleichen strukturellen Defiziten wie viele der aktuell diskutierten Einschränkungen sozialer Medien im Namen des Kinderschutzes. Konkret schlägt die SPD ein dreistufiges Modell vor-

Ein Social-Media-Verbot für Kinder

Demnach soll Jugendlichen unter 14 Jahren der Zugang zu sozialen Medien verboten werden. Anbieter stehen in der Pflicht, den Zugang „technisch wirksam unterbinden“. Für die Altersgruppe zwischen 14 und 16 sollen Anbieter eine besondere Version ihrer Plattform zur Verfügung stellen, die auf Kernaspekte sozialer Medien verzichtet. Diese Angebote sollen keine algorithmisch gesteuerten Feeds oder Empfehlungssysteme, keine personalisierte Inhaltsausspielung und keine „suchtverstärkenden“ Funktionen wie endlose Feeds, das automatische Abspielen von Videos, gamifizierendes Design oder Push-Benachrichtigungen enthalten. Der Zugang zu dieser Version der Plattformen soll für Jugendliche nur mit Erlaubnis ihrer Eltern möglich sein, die dafür ihre Identität über ein digitales ID-Wallet nachweisen müssen. Für alle Menschen älter als 16 Jahre sind algorithmische Empfehlungssysteme ebenfalls deaktiviert. Erst wenn sie per digitaler Identität ihr Alter nachweisen, können sie die Funktion freischalten.

Notwendig ist folglich, dass alle Nutzenden ihr Alter überprüfen lassen müssen, um auf Social Media-Plattformen, den digitalen öffentlichen Räumen unserer Zeit, mitdiskutieren zu können. Laut dem Vorschlag der SPD soll eine solche Überprüfung durch digitale Identitäten durchgeführt werden. Stand heute existiert die dafür benötigte Infrastruktur nicht. Die EUDI-Wallet soll in Deutschland Anfang 2027 eingeführt werden, aktuell ist jedoch unklar, ob dieser Zeitplan gehalten werden kann. Es steht auch nicht fest, ob die Wallet, wenn sie dann einmal ausgerollt ist, eine Altersverifikationsfunktion enthalten wird. Eine solche Funktion müsste nicht nur die Identität von Nutzenden schützen, sie müsste auch sicherstellen, dass Nutzende nicht aufgrund einer Verknüpfung zur Wallet über unterschiedliche Webseiten hinweg getrackt werden können – ein eindeutiger Fingerabdruck und Überidentifikation müssen vermieden werden. Neben den technischen Entwicklungen sind klare rechtliche Rahmenbedingungen erforderlich, um zu definieren, welche Unternehmen staatlich authentifizierte Identitäts- bzw. Altersnachweise verarbeiten dürfen.

Angesichts der aktuell noch nicht vorhandenen EUDI-Wallet und der vielen ungeklärten Fragen zur technischen Umsetzung besteht die substanzielle Gefahr, dass es Anbietern selbst überlassen bleibt, eine Methode zur Bestimmung des Alters ihrer Nutzenden zu wählen. Wie Studien immer wieder betonen, gibt es aktuell keine Methode zur Altersbestimmung, die sowohl ausreichend zuverlässig ist, als auch die Teilhabe aller berechtigten Personen ermöglicht. Besonders deutlich wird das bei der Altersbestimmung für junge Kinder und Jugendliche, die keine Ausweisdokumente besitzen und nicht von digitalen Identitäten Gebrauch machen können. Stattdessen wird regelmäßig versucht, das Alter junger Menschen durch Verarbeitung biometrischer Daten, also Gesichtsscans, zu schätzen. Solche Systeme weisen bei der Bestimmung eines genauen Alters (in diesem Fall: 14) hohe Fehlerquoten auf. Damit werden einerseits Jugendliche, die ein Recht auf Zugang haben, ausgeschlossen (false negative), und andererseits Personen, die ausgeschlossen werden sollen, Zugang erhalten (false positive). Diese Fehler potenzieren sich bei weiblichen Personen, nicht-weißen Menschen, nicht-binären Personen und Menschen mit Behinderungen. Zudem basieren solche KI-gestützten Altersschätzungen auf der Verarbeitung höchst sensibler Daten, häufig durch Drittanbieter mit undurchschaubaren Datenschutzpraktiken, wie massive Datenlecks belegen.

Keine Kuratierung von Online-Inhalten für Jugendliche

Auch für junge Menschen zwischen 14 und 16 ist der Vorschlag problematisch. Für diese Gruppe erfolgt der Zugang zu Plattformen nur nach Zustimmung der Eltern, was empfindlich in die Rechte von Kindern und Jugendlichen eingreift, sich frei zu entfalten, auszudrücken und auf Informationen und Medien zuzugreifen. Zudem wird angenommen, dass alle Eltern Zugang zu digitalen Identitäten haben. Das ist, Stand heute, alles andere als gegeben: Digitale Identitäten bedürfen Ausweisdokumente, zu denen nicht alle Menschen in unserer Gesellschaft Zugang haben. Es wird also riskiert, dass Jugendliche ohne Eltern mit digitalem Identitätsnachweis grundsätzlich ausgeschlossen bleiben. Und selbst wenn Eltern es schaffen, die Hürde der EUDI-Wallets zu navigieren: Leicht lassen sich Szenarien vorstellen, in denen Eltern Zugang bewusst verhindern. Gerade Jugendlichen, die ihre Genderidentität, Sexualität oder politische Diskurse erkunden, kann so eine zentrale Möglichkeit genommen werden, Teilhabe und Gemeinschaft zu erfahren.

Der Vorschlag, für unter 16-Jährige nur stark eingeschränkte Versionen von Online-Plattformen für Jugendliche zugänglich zu machen, ist zweifelsohne gut gemeint und orientiert sich an der aktuellen Debatte um potenziell problematische Plattformpraktiken. Die Annahme, dass alle personalisierten bzw. algorithmisch kuratierten Empfehlungen suchtfördernd und problematisch sind, ist jedoch unterkomplex. Nicht jede Form algorithmischer Kuratierung muss auf die Maximierung von Interaktionen mit Inhalten optimiert sein, während Feeds ohne jegliche Kuratierung schnell einer kontextlosen Informationsflut gleichen. Die Herausforderung liegt deshalb in der Beschreibung und Entwicklung von gemeinwohlfördernden Empfehlungssystemen, nicht in der pauschalen Abschaffung von Empfehlungen.

Die Unmöglichkeit nationaler Alleingänge

Schließlich lohnt sich ein Blick auf die Umsetzbarkeit der unterbreiteten Vorschläge. Expert:innen und die Europäische Kommission betonen immer wieder, dass der geltende europäische Rechtsrahmen, insbesondere der Digital Services Act, Vorrang vor nationaler Gesetzgebung hat – das heißt, dass nationale Regierungen keine darüber hinausgehenden Vorgaben machen dürfen. Möchte man diese Regelungen auf europäischer Ebene ändern, bieten sich sowohl mit der anstehenden Überprüfung des Digital Services Act als auch mit dem geplanten Digital Fairness Act ausreichend Möglichkeiten für ein europäisches Vorgehen. Die „Drohung“ der SPD dagegen, man „behalte sich vor, nationalstaatliche Regelungen zum Schutz der Kinder und Jugendlichen zu treffen“, grenzt an ein flexibles Verständnis der Verbindlichkeit von Europarecht, wie man es sonst eher von Andreas Scheuer zu Zeiten der Pkw-Maut kannte.

Auch unabhängig von dieser rechtlichen Hürde, zeigen Erfahrungen in Ländern wie Großbritannien und Australien, wie leicht Kinder und Jugendliche Altersbeschränkungen umgehen können – und dann gänzlich ohne Schutzmaßnahmen auf Online-Plattformen unterwegs sind. Verbote von sozialen Medien erweisen dem Jugendschutz im Netz also einen Bärendienst. Stattdessen ist es erforderlich, nicht Kinder und Jugendliche auszuschließen, sondern Plattformen in die Verantwortung zu nehmen. Mit der Veröffentlichung der vorläufigen Ergebnisse ihres Verfahrens gegen TikTok hat die Europäische Kommission gezeigt, dass die Werkzeuge, um gegen süchtigmachendes Design und mangelnden Jugendschutz vorzugehen, bereits heute zur Verfügung stehen. Um diese nutzen zu können, müssen Aufsichtsbehörden gestärkt und die an der Durchsetzung beteiligten Forschenden und die Zivilgesellschaft vor Repression geschützt werden.

Auch Interessant

D64 - Zentrum für Digitalen Fortschritt MöglichMachen Unsere digitale Zukunft gestalten Bild: D64/Falko Ortolf

MöglichMachen – Unsere digitale Zukunft gestalten: D64 startet ins Jahresthema 2026

MöglichMachen beschreibt ein Kernprinzip unserer Arbeit als D64. Seit unserer Gründung verstehen wir uns als progressiver Digitalverein, der nicht nur analysiert und kritisiert, sondern konkrete Alternativen entwickelt. Unser Jahresthema 2026.
weiterlesen

Neues Projekt: Dezentralisierung als Wert und Praxis

Mit unserem Projekt „Dezentralisierung als Wert und Praxis" untersuchen wir, wie dezentrale Ansätze unsere digitale Zukunft demokratischer und selbstbestimmter gestalten können. Dafür erhalten wir bis Ende 2026 eine Förderung der JUST Open Source Stiftung.
weiterlesen