Wie kann man Kinder und Jugendliche bei der Social-Media-Nutzung vor Gefahren wie Cybergrooming oder -mobbing schützen, ohne ihnen Teilhabe- und Befähigungschancen in der digitalen Welt zu verbauen? Die aktuelle Debatte wird hitzig geführt. Antworten reichen von einem Verbot für Tiktok, Instagram und Co für unter 16-Jährige bis hin zur Stärkung von „digitaler Mündigkeit“ der User und rechtlicher Regulierung der Anbieter.
Zur Zeit dominiert in Medien und Politik eine Debatte, die vor allem die Risiken von Social Media betont. Eine interdisziplinäre Forschungsgruppe der Leopoldina fasste in einem Diskussionspapier vom Juli 2025 zusammen, dass „die Nutzung sozialer Medien die Gesundheit, das Wohlbefinden und die Entwicklungschancen von Kindern und Jugendlichen erheblich beeinträchtigen“ könne. Deshalb sehen die Wissenschaftler*innen einen „kurzfristigen Handlungsbedarf bei Bund und Ländern“. Strategien, die vorrangig auf Altersbeschränkungen setzten, griffen aus ihrer Sicht zu kurz. Sie schlagen daher eine altersdifferenzierte Schutzstrategie vor, die verschiedene Komponenten der digitalen Welt miteinander verbinden soll.
Neue Altersbeschränkungen für Social Media
Geht es nach der Leopoldina sollen Kinder zunächst keine eigenen Social-Media-Accounts bekommen. Für Jugendliche seien altersgemäße Einschränkungen von Plattformfunktionen nötig. Werbung dürfe nicht personalisiert sein. Individuelle Nutzungsprofile und suchterzeugende Funktionen wie Push-Nachrichten müssten eingeschränkt werden. Bei 13- bis 15-Jährigen müsse eine Zustimmung der Eltern gesetzlich vorgeschrieben sein. Dafür bedürfe es einer Altersverifikation. In Bildungseinrichtungen sollte private Smartphone-Nutzung bis einschließlich Klasse 10 verboten werden. Zugleich gelte es, Medienkompetenzen bei Heranwachsenden zu fördern und das Lehrpersonal so zu schulen, dass es riskantes, suchtartiges Nutzungsverhalten auch frühzeitig erkennen kann.
Die Forscher*innen plädieren außerdem für eine „breit angelegte gesellschaftliche Aufklärungskampagne – sowohl zu Risiken als auch zu Potenzialen sozialer Medien“. Sie nehmen problematische Geschäftsmodelle der Internetplattformen in den Blick und fordern besseren Schutz vor den Gefahren sozialer Medien. Dafür brauche es „eine umfassende deutsche und europäische Strategie für digitale Resilienz und digitale Souveränität“.
„Schützende Befähigung“ statt Verbot
Eine solche „schützende Befähigung“ zum Umgang mit Social Media stand im Fokus des Projekts SIKID (Sicherheit für Kinder in der digitalen Welt), das von 2021 bis Ende 2024 vom Bundesforschungsministerium gefördert wurde. „Die Kinderperspektive fehlt in der aktuellen Diskussion“, kritisiert Medienethikerin Ingrid Stapf, eine der Leiterinnen des Projekts und äußert sich im Gespräch mit M skeptisch zu Verboten: „Bewahrpädagogische Ansätze, Kinder von bestimmten Medien oder Inhalten fernzuhalten“, hätten „schon in der Vergangenheit nicht umfassend funktioniert und immer auch Nebeneffekte“, argumentiert sie.
Verbote könnten ein Angebot interessanter, attraktiver machen und es gebe einfache Wege, sie zu umgehen. So sei es möglich, mit wenigen Klicks einen VPN-Tunnel („Virtual Private Network“) einzurichten, durch den es für einen Social-Media-Anbieter so aussieht, als käme ein User aus einem Land ohne Altersbeschränkungen. Verbote könnten sogar Sicherheitsrisiken erhöhen, weil die Nutzung tabuisiert würde. Das sei verbunden mit Schameffekten und führe dazu, dass Kinder sich etwa bei Cybergrooming nicht trauten, mit ihren Eltern oder Vertrauenslehrer*innen zu sprechen. Wenn etwa die Smartphone-Nutzung in der Schule verboten sei, fehlten auch kompetenzfördernde Erfahrungen.
Geteilte Verantwortung
Das SIKID-Projekt ist aus kinderrechtlicher Perspektive konzipiert worden. Es erforschte, wie heranwachsende Menschen selbstbestimmt mit Social-Media-Nutzung verantwortungsvoll umgehen können, um „dabei Schädigungen für sich selbst und andere Menschen gering zu halten“. Dafür brauche es „einen ausdifferenzierten Ansatz, der auf dem Zusammenspiel verschiedener Akteure auf verschiedenen Ebenen beruht“, so Stapf, die mit ihrem Team den „SIKID-Kompass“ entwickelt hat. Dieser zeigt dem Netzwerk aus Politik und Recht, Sicherheitsbehörden, Wissenschaft und Bildung, Zivilgesellschaft und Anbietern Handlungsoptionen auf.
Cyber-Grooming
meint die gezielte Manipulation junger Menschen über das Internet. Ziel ist es, das Opfer in eine Falle zu locken, um Straftaten wie sexuell motivierte Übergriffe zu begehen. Die Kontaktaufnahme erfolgt mit dem konkreten Ziel, sexuellen Missbrauch oft über viele Jahre hinweg online oder offline bei realen Treffen anzubahnen.
Die Politik sei für eine zeitgemäße Regulierung der Plattformen verantwortlich und deren Rechtsdurchsetzung. In der Schule gelte es, digitale Mündigkeit durch Reflexion zu fördern – und zwar fächerübergreifend, bezogen auf die konkrete Lebenswelt der Schüler*innen. Im Deutschunterricht könne Hassrede an literarischen Texten thematisiert werden, in Mathe KI und Algorithmen und in Politik Kinderrechte und Demokratie. Aufgabe der Polizei sei es, auf Gefahren bei Onlinespielen hinweisen. Die Eltern sollten bei der Mediennutzung Vorbild und gesprächsbereit für ihr Kind sein. Wenn es Opfer von Cybergrooming geworden sei, müsse es psychosozial betreut und vom Rechtssystem aufgefangen werden.
Basisschutz durch rechtliche Regulierung
Als zentral bezeichnet Stapf, dass „der Basisschutz über die rechtliche Regulierung gesichert ist“. Ein Social-Media-Verbot, das sich an die Anbieter von Online-Plattformen richtet, ist ohnehin kaum möglich. Daher solle der europaweit geltende Digital Services Act (DAS) so ausgestaltet und konsequent durchgesetzt werden, dass Anbieter stärker in die Verantwortung genommen werden. Denn Plattformen, die auf Sucht angelegt sind, seien „nicht mit freiheitlichen Demokratien, die auf Menschenrechten basieren, vereinbar.“ Kinder müssen vor „Risiken wie Cybermobbing, Cybergrooming, extrem gewalthaltigen Inhalten, toxischen Schönheitsidealen oder Hate Speech“ geschützt werden. Hier hätten nicht nur Eltern, sondern auch der Staat Fürsorgepflichten. Langfristig erscheint nur eine Strategie erfolgreich, die auf digitale Mündigkeit und Plattformregulierung zielt.

