Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Scrollen, Liken, Endlosschleife: Wie die EU Kinder im Netz besser schützen will

Informatik im Kindergarten
Programmieren im Kindergarten Copyright  AP Photo/Elaine Thompson
Copyright AP Photo/Elaine Thompson
Von Leticia Batista Cabanas & Elisabeth Heinz
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Die EU-Kommission stellt einen Plan zum Schutz von Minderjährigen im Netz vor und kündigt ein neues Altersprüfsystem an. Einige Staaten wollen Kinder aus sozialen Medien verbannen, das Parlament dringt auf eine strikte Altersgrenze von 16 Jahren.

Brüssel will beim Schutz von Kindern im Internet einen deutlich härteren Kurs fahren. Kommissionspräsidentin Ursula von der Leyen kündigte vergangene Woche an, eine neue App zur Altersüberprüfung sei "technisch fertig und bald für die Bürgerinnen und Bürger nutzbar".

WERBUNG
WERBUNG

Mit dem System sollen Nutzerinnen und Nutzer ihr Alter nachweisen, wenn sie Online-Plattformen aufrufen – ohne persönliche Daten preiszugeben.

Eine große Mehrheit von 92 Prozent sehen Cybermobbing als größte Online-Gefahr, wie der Eurobarometer "State of the Digital Decade 2025" zeigt. 93 Prozent der EU-Bürgerinnen und -Bürger sorgen sich um die psychische Gesundheit von Kindern.

Einige EU-Staaten greifen bereits durch. Frankreich hat ein Verbot für unter 15-Jährige beschlossen. Spanien, Österreich, Griechenland, Irland, Dänemark und die Niederlande bereiten ähnliche Regelungen vor.

Christel Schaldemose, Abgeordnete der S&D-Fraktion im Europäischen Parlament und Berichterstatterin des nichtlegislativen Berichts zu einem EU-weit einheitlichen Mindestalter für soziale Medien, registriert jedoch Zögern bei der Kommission.

"Ich weiß nicht, ob sie [Maßnahmen] absichtlich verzögert, aber ich finde, sie ist zu langsam. So bekommen wir einen zersplitterten Binnenmarkt, weil so viele Länder schon eine Altersgrenze vorgeschlagen haben."

Mit wenig Vorgaben: Kinder in den sozialen Netzwerken

Soziale Medien sind für Kinder allgegenwärtig – und riskant. Grund sind vor allem süchtig machende Designs, ständige Erreichbarkeit, starke Personalisierung und KI-Werkzeuge.

Im Jahr 2022 nutzten 96 Prozent der 15-Jährigen soziale Medien. 37 Prozent verbrachten mehr als drei Stunden täglich auf den Plattformen. Mädchen waren mit 42 Prozent noch aktiver als Jungen mit 32 Prozent, so eine Studie des Joint Research Centre (JRC) von 2025.

Bei den 9- bis 15-Jährigen liegt die tägliche Nutzung häufig bei rund drei Stunden. 78 Prozent der 13- bis 17-Jährigen schauen mindestens einmal pro Stunde auf ihr Gerät. Ein Viertel gibt an, problematische Internetgewohnheiten zu haben, heißt es im nichtlegislativen Bericht des Europäischen Parlaments vom November 2025.

Online-Konten hat dabei so gut wie jeder. Fast 99 Prozent der 16- bis 17-Jährigen waren 2025 in sozialen Netzwerken aktiv, also mit eigenen Profilen, Beiträgen oder der Nutzung von Facebook, X und anderen, so das Eurobarometer.

Internetnutzung pro Anteil: Teilnahme an sozialen Netzwerken (Profil anlegen, Beiträge posten, Nutzung von Facebook, X usw.)

Für Schaldemose ist das neue Expertengremium der Kommission zu Kinderschutz im Netz ein wichtiger erster Schritt. Fachleute mit tiefgreifender Kenntnis könnten die Arbeit der Kommission gezielt beraten, sagt sie.

Das JRC warnt, unkontrollierte Social-Media-Nutzung schade der psychischen Gesundheit von Kindern und erhöhe das Risiko für Depressionen und Angststörungen. Gewaltvolle, sexualisierte Inhalte oder Beiträge, die Essstörungen glorifizieren, könnten zudem die Gehirnentwicklung und das Sozialverhalten beeinträchtigen.

60 Prozent der jungen Frauen zeigen demnach Anzeichen von Depressionen, bei jungen Männern sind es 35 Prozent. 65 Prozent der jungen Frauen berichten von Angstgefühlen, bei jungen Männern 41 Prozent, so die JRC-Studie.

Viele Internetplattformen richten sich vor allem an Erwachsene. Ihre werbefinanzierten Geschäftsmodelle haben jedoch gravierende Folgen für Jüngere und fördern Abhängigkeit.

36 Prozent der Jugendlichen in Europa, Zentralasien und Kanada stehen laut einem Bericht der Weltgesundheitsorganisation (WHO) von 2024 permanent über soziale Medien in Kontakt. 11 Prozent nutzen soziale Medien auf problematische Art und Weise. Mädchen liegen mit 13 Prozent über dem Wert der Jungen von 9 Prozent.

Verbote liegen in nationaler Hand

Am 8. April 2026 kündigte der griechische Ministerpräsident Kyriakos Mitsotakis ein Social-Media-Verbot für Kinder unter 15 Jahren an. Das Gesetz, das ab Januar 2027 gelten und noch das Parlament passieren muss, untersagt Minderjährigen Social-Media-Konten. Plattformen sollen strenge Alterskontrollen einführen, sonst drohen Geldstrafen.

Auslöser waren Daten, denen zufolge 75 Prozent der griechischen Grundschulkinder bereits in sozialen Medien aktiv sind. Rund 48 Prozent der Jugendlichen meldeten negative Auswirkungen auf ihre psychische Gesundheit.

Auch die Stimmung in der Bevölkerung schlug sich nieder: 80 Prozent unterstützten ein Verbot, nachdem ein US-Gericht im März 2026 große Tech-Plattformen wegen süchtig machender App-Designs haftbar gemacht hatte. Die Regierung knüpft an den Erfolg des Smartphone-Verbots an Schulen von 2024 an und verwies auf "leblose" Schülerinnen und Schüler sowie Schlafmangel als Gründe für die neue Einschränkung.

Griechenland reiht sich damit in eine wachsende Liste von EU-Staaten ein. Frankreich verabschiedete im Januar 2026 ein Gesetz, das soziale Medien für unter 15-Jährige verbietet, begründet mit einem "Gesundheitsnotstand" und dem Schutz vor Cybermobbing und psychischen Schäden. Spanien kündigte im Februar 2026 ein Verbot für unter 16-Jährige an, um den "digitalen Wilden Westen zu zähmen". Österreich, Dänemark und Slowenien arbeiten an Verboten für unter 14-, unter 15- und unter 15-Jährige.

Stand der Social-Media-Verbote in EU-Staaten

Italien und Irland prüfen Verbote für unter 15- beziehungsweise unter 16-Jährige. In Deutschland und anderen Ländern läuft die Diskussion über Altersgrenzen oder "jugendgerechte Versionen" der Plattformen. Treiber sind steigende psychische Belastungen bei Jugendlichen und der Wunsch, Tech-Konzerne für süchtig machende Designs stärker in die Pflicht zu nehmen – im Windschatten des weltweiten Erstverbots für unter 16-Jährige in Australien von 2025.

Selbst eingetragene Geburtsdaten taugen als Schutz kaum. Bisher setzen einige Länder auf digitale Geldbörsen oder Identitäts-Token. Die neue Altersprüfungs-App der Europäischen Kommission "wird es Nutzerinnen und Nutzern ermöglichen, beim Zugriff auf Online-Plattformen ihr Alter nachzuweisen – so wie Geschäfte beim Kauf von [Alkohol] einen Altersnachweis verlangen", so von der Leyen.

Die Hauptverantwortung liegt bei den Plattformen. Nationale Aufsichtsbehörden kontrollieren die Einhaltung, verhängen Auflagen und Bußgelder. EU-weit geltende Vorgaben wie der Digital Services Act (DSA) und die Datenschutz-Grundverordnung (GDPR) setzen Mindeststandards für Minderjährige. Nationale Verbote gehen darüber hinaus, weil sie klare Altersgrenzen festlegen und die Haftung der Unternehmen verschärfen.

Politische Gegner, etwa Abgeordnete der spanischen Vox-Partei oder italienische Parlamentarier, kritisieren die Verbote als überzogenen Eingriff des Staates. Aus ihrer Sicht wären Aufklärung, elterliche Kontrolle und digitale Bildung wirkungsvoller als strikte Verbote.

Ähnlich argumentieren Verbraucherschutzorganisationen. Olivia Brown, Policy Officer beim globalen Verbraucherverband Euroconsumers, hält pauschale Verbote für einen politischen Kurzschluss, der die Plattformen aus der Verantwortung entlasse.

"Ein Social-Media-Verbot macht das Internet nicht sicherer. Das Problem wandert nur aus dem Blickfeld. Minderjährige brauchen Plattformen, die von vornherein sicher gestaltet sind, echte Nutzerkontrollen und Algorithmen, die sie selbst beeinflussen können – nicht Türen, die einfach zugeschlagen werden, um sich mit 18 wieder weit zu öffnen."

EU-weit einheitliche Regeln könnten kommen

Das Thema ist politisch heikel. Ein EU-weites Verbot könnte die Polarisierung noch verstärken. Die Kommission bringt deshalb zunächst die Altersprüfungs-App heraus, damit Mitgliedstaaten ihre eigenen Verbote technisch umsetzen können.

Die Idee entstand 2025. Die App dient als technisches Grundgerüst, das sich in nationale digitale Geldbörsen oder separate Anwendungen einbauen lässt, um das Alter von Nutzerinnen und Nutzern zu verifizieren. Dafür müssen sie eine App herunterladen, der Datennutzung zustimmen, ein Ausweisdokument samt Chip scannen und eine Gesichtserkennung durchlaufen. Dieser Prozess kann sich regelmäßig wiederholen. Plattformen könnten verlangen, dass bei jedem Zugriff auf altersbeschränkte Angebote eine Bestätigung erfolgt.

Kritikerinnen und Kritiker bemängeln die Komplexität, Datenschutzrisiken und die leichte Umgehbarkeit etwa über VPNs. Zudem fürchten sie, die Verantwortung könne stärker auf die Nutzerinnen und Nutzer verschoben werden – anders als bei anderen EU-weiten Regulierungsinstrumenten.

Soziale Medien: Sorgen der EU-Bürgerinnen und -Bürger wegen Online-Risiken für Kinder

Eines dieser Instrumente ist die GDPR, die Datenschutz-Grundverordnung. Sie wurde 2016 verabschiedet und zwischen 2018 und 2020 umgesetzt. Sie enthält strenge Regeln für die Daten von Kindern. Das Standardalter für die digitale Einwilligung liegt bei 16 Jahren, mit Spielraum nach unten bis 13 Jahre. Jüngere brauchen die Zustimmung der Eltern.

Die überarbeitete Richtlinie über audiovisuelle Mediendienste gilt seit 2020. Sie brachte Alterskennzeichnungen und Elternkontrollen auf Streaming-Plattformen sowie klare Verbote für schädliche Inhalte, etwa Darstellungen von sexueller Ausbeutung von Kindern. 2021 startete die EU außerdem eine umfassendere Online-Kinderschutzstrategie mit Förderprogrammen, Forschung und freiwilligen Verhaltenskodizes gegen Risiken wie Anbahnung oder Desinformation.

In jüngerer Zeit schlug die Kommission praktische Maßnahmen vor: standardmäßig private Konten für Minderjährige und Grenzen für süchtig machende Funktionen wie Autoplay oder Endlos-Scrollen. Teile des KI-Gesetzes, dessen Verbote seit Februar 2025 gelten, untersagen Systeme, die unterbewusste Techniken nutzen oder gezielt die Verletzlichkeit von Kindern ausnutzen, um ihr Verhalten zu manipulieren. Der geplante Digital Fairness Act, für den Ende 2026 ein formeller Vorschlag erwartet wird, soll die Regeln für Plattformdesigns weiter verschärfen und "Dark Patterns" sowie Funktionen wie Endlos-Scrollen verbieten.

Kern des neuen Regelwerks ist der DSA (Digital Services Act), ein grundlegendes Gesetz zur Neuausrichtung von Online-Plattformen. Die Kommission legte ihn 2020 vor, Parlament und Rat einigten sich 2022 darauf, seit Februar 2024 gilt er vollständig.

Der DSA verpflichtet Plattformen, ihre Nutzerinnen und Nutzer zu schützen – Minderjährige stehen dabei besonders im Fokus. Vorgesehen sind sicherere Voreinstellungen, wirksamere Moderation und Beschränkungen für personalisierte Werbung. Außerdem schafft der DSA ein neues Durchsetzungssystem mit nationalen Digital Services Coordinators und Aufsicht auf EU-Ebene.

Seit Inkrafttreten des DSA gibt es mehr Transparenz, stärkere Nutzerrechte und Grenzen für schädliche oder ausbeuterische Praktiken. Nutzerinnen und Nutzer können Entscheidungen über Inhalte leichter melden und anfechten. Minderjährige profitieren von strengerem Datenschutz und weniger gezielter Werbung.

Altersbeschränkung: Folgen für digitale Plattformen

Altersbeschränkungen auf Social-Media-Diensten schmälern die Reichweite bei Jugendlichen deutlich. Unternehmen verlieren eine wichtige Gruppe, die große Teile der Online-Aktivität antreibt. Das drückt Werbekontakte und damit Erlöse.

Viele Plattformen sind stark von Werbung für Kinder und Jugendliche abhängig. Altersgrenzen können die Einnahmen spürbar senken, weil weniger junge Nutzerinnen und Nutzer erreichbar sind und gezielte Werbung schwieriger wird.

Zudem steigen die Kosten für die Einhaltung der Regeln. Unternehmen müssen ihre Systeme zur Altersüberprüfung und Einholung elterlicher Zustimmung ausbauen. Das ist technisch aufwendig und teuer, weil es moderne Verfahren zur Identitätsprüfung und zum Datenschutz braucht.

Verbote süchtig machender Design-Elemente und von Engagement-Algorithmen erzwingen Produktanpassungen. Das erhöht den Entwicklungsaufwand und kann Markteinführungen in der EU verzögern. Eine stärkere Ausrichtung auf sichere Inhalte belastet die Budgets zusätzlich.

Nach Ansicht von Schaldemose müssen große Konzerne "neue Plattformen mit einem völlig anderen Geschäftsmodell entwickeln, das Kinder schützt".

Hinzu kommen erhöhte rechtliche Risiken bei Verstößen. Das Parlament schlug vor, Eigentümer von Plattformen persönlich für schwere und wiederholte Verletzungen des Minderjährigenschutzes haftbar zu machen.

"Sie stellen die Plattformen zur Verfügung. Wenn wir uns auf eine Altersgrenze einigen, tragen die Unternehmen klar die Verantwortung, wenn dagegen verstoßen wird", sagte Schaldemose Euronews.

Europa muss Tempo machen

Für Schaldemose reagiert die Kommission zu träge. Das Expertengremium kündigte die EU-Kommission im September an, seine Arbeit begann aber erst im März.

Einige Mitgliedstaaten stellen sich Berichten zufolge bereits gegen die App. "Je länger die Kommission mit einem Vorschlag wartet, desto größer ist die Gefahr eines zersplitterten Marktes und neuer Schlupflöcher", sagt Schaldemose.

"Ich bin langsam ungeduldig mit der Kommission. Offenbar werden auch die Mitgliedstaaten ungeduldig, denn sie drängen ebenfalls", so die Abgeordnete.

Datenschutz und Datenaustausch dürften kein Vorwand mehr sein. "In den vergangenen zwei Jahren haben wir Werkzeuge entwickelt, die weder persönliche Daten noch Sicherheit gefährden", betont sie.

Das Parlament will weiter Druck machen, bis die Kommission einen tragfähigen Vorschlag vorlegt. "Wir müssen auf europäischer Ebene handeln. Dazu gibt es im Parlament einen klaren Beschluss", fasst Schaldemose zusammen.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Europarat: Skepsis gegenüber pauschalen Social-Media-Verboten für Kinder

Scrollen, Liken, Endlosschleife: Wie die EU Kinder im Netz besser schützen will

Drohnen-Technik ändert sich alle 3 bis 6 Monate: Europa kauft veraltete Systeme