Erziehung zur digitalen Mündigkeit

Symbolfoto: 123rf

Wie kann man Kinder und Jugendliche bei der Social-Media-Nutzung vor Gefahren wie Cybergrooming oder -mobbing schützen, ohne ihnen Teilhabe- und Befähigungschancen in der digitalen Welt zu verbauen? Die aktuelle Debatte wird hitzig geführt. Antworten reichen von einem Verbot für Tiktok, Instagram und Co für unter 16-Jährige bis hin zur Stärkung von „digitaler Mündigkeit“ der User und rechtlicher Regulierung der Anbieter.

Zur Zeit dominiert in Medien und Politik eine Debatte, die vor allem die Risiken von Social Media betont. Eine interdisziplinäre Forschungsgruppe der Leopoldina fasste in einem Diskussionspapier vom Juli 2025 zusammen, dass „die Nutzung sozialer Medien die Gesundheit, das Wohlbefinden und die Entwicklungschancen von Kindern und Jugendlichen erheblich beeinträchtigen“ könne. Deshalb sehen die Wissenschaftler*innen einen „kurzfristigen Handlungsbedarf bei Bund und Ländern“. Strategien, die vorrangig auf Altersbeschränkungen setzten, griffen aus ihrer Sicht zu kurz. Sie schlagen daher eine altersdifferenzierte Schutzstrategie vor, die verschiedene Komponenten der digitalen Welt miteinander verbinden soll.

Neue Altersbeschränkungen für Social Media

Geht es nach der Leopoldina sollen Kinder zunächst keine eigenen Social-Media-Accounts bekommen. Für Jugendliche seien altersgemäße Einschränkungen von Plattformfunktionen nötig. Werbung dürfe nicht personalisiert sein. Individuelle Nutzungsprofile und suchterzeugende Funktionen wie Push-Nachrichten müssten eingeschränkt werden. Bei 13- bis 15-Jährigen müsse eine Zustimmung der Eltern gesetzlich vorgeschrieben sein. Dafür bedürfe es einer Altersverifikation. In Bildungseinrichtungen sollte private Smartphone-Nutzung bis einschließlich Klasse 10 verboten werden. Zugleich gelte es, Medienkompetenzen bei Heranwachsenden zu fördern und das Lehrpersonal so zu schulen, dass es riskantes, suchtartiges Nutzungsverhalten auch frühzeitig erkennen kann.

Die Forscher*innen plädieren außerdem für eine „breit angelegte gesellschaftliche Aufklärungskampagne – sowohl zu Risiken als auch zu Potenzialen sozialer Medien“. Sie nehmen problematische Geschäftsmodelle der Internetplattformen in den Blick und fordern besseren Schutz vor den Gefahren sozialer Medien. Dafür brauche es „eine umfassende deutsche und europäische Strategie für digitale Resilienz und digitale Souveränität“.

„Schützende Befähigung“ statt Verbot

Eine solche „schützende Befähigung“ zum Umgang mit Social Media stand im Fokus des Projekts SIKID (Sicherheit für Kinder in der digitalen Welt), das von 2021 bis Ende 2024 vom Bundesforschungsministerium gefördert wurde. „Die Kinderperspektive fehlt in der aktuellen Diskussion“, kritisiert Medienethikerin Ingrid Stapf, eine der Leiterinnen des Projekts und äußert sich im Gespräch mit M skeptisch zu Verboten: „Bewahrpädagogische Ansätze, Kinder von bestimmten Medien oder Inhalten fernzuhalten“, hätten „schon in der Vergangenheit nicht umfassend funktioniert und immer auch Nebeneffekte“, argumentiert sie.

Verbote könnten ein Angebot interessanter, attraktiver machen und es gebe einfache Wege, sie zu umgehen. So sei es möglich, mit wenigen Klicks einen VPN-Tunnel („Virtual Private Network“) einzurichten, durch den es für einen Social-Media-Anbieter so aussieht, als käme ein User aus einem Land ohne Altersbeschränkungen. Verbote könnten sogar Sicherheitsrisiken erhöhen, weil die Nutzung tabuisiert würde. Das sei verbunden mit Schameffekten und führe dazu, dass Kinder sich etwa bei Cybergrooming nicht trauten, mit ihren Eltern oder Vertrauenslehrer*innen zu sprechen. Wenn etwa die Smartphone-Nutzung in der Schule verboten sei, fehlten auch kompetenzfördernde Erfahrungen.

Geteilte Verantwortung

Das SIKID-Projekt ist aus kinderrechtlicher Perspektive konzipiert worden. Es erforschte, wie heranwachsende Menschen selbstbestimmt mit Social-Media-Nutzung verantwortungsvoll umgehen können, um „dabei Schädigungen für sich selbst und andere Menschen gering zu halten“. Dafür brauche es „einen ausdifferenzierten Ansatz, der auf dem Zusammenspiel verschiedener Akteure auf verschiedenen Ebenen beruht“, so Stapf, die mit ihrem Team den „SIKID-Kompass“ entwickelt hat. Dieser zeigt dem Netzwerk aus Politik und Recht, Sicherheitsbehörden, Wissenschaft und Bildung, Zivilgesellschaft und Anbietern Handlungsoptionen auf.

Cyber-Grooming

meint die gezielte Manipulation junger Menschen über das Internet. Ziel ist es, das Opfer in eine Falle zu locken, um Straftaten wie sexuell motivierte Übergriffe zu begehen. Die Kontaktaufnahme erfolgt mit dem konkreten Ziel, sexuellen Missbrauch oft über viele Jahre hinweg online oder offline bei realen Treffen anzubahnen.

Stapf konkretisiert das am Beispiel von Cybergrooming, der Anbahnung von sexuellen Kontakten über das Internet. Besonders zentral sei „die Verantwortung der Anbieter, da die Regulierung nicht auf minderjährige, besonders verletzliche Menschen delegiert werden darf, die dadurch überfordert werden könnten“. Deshalb sollten Plattformen ihre Angebote so gestalten, dass Minderjährige dort ihrem jeweiligen Alter gemäße Inhalte und Funktionen, in verständlicher Sprache auch Hilfsangebote finden.

Die Politik sei für eine zeitgemäße Regulierung der Plattformen verantwortlich und deren Rechtsdurchsetzung. In der Schule gelte es, digitale Mündigkeit durch Reflexion zu fördern – und zwar fächerübergreifend, bezogen auf die konkrete Lebenswelt der Schüler*innen. Im Deutschunterricht könne Hassrede an literarischen Texten thematisiert werden, in Mathe KI und Algorithmen und in Politik Kinderrechte und Demokratie. Aufgabe der Polizei sei es, auf Gefahren bei Onlinespielen hinweisen. Die Eltern sollten bei der Mediennutzung Vorbild und gesprächsbereit für ihr Kind sein. Wenn es Opfer von Cybergrooming geworden sei, müsse es psychosozial betreut und vom Rechtssystem aufgefangen werden.

Basisschutz durch rechtliche Regulierung

Als zentral bezeichnet Stapf, dass „der Basisschutz über die rechtliche Regulierung gesichert ist“. Ein Social-Media-Verbot, das sich an die Anbieter von Online-Plattformen richtet, ist ohnehin kaum möglich. Daher solle der europaweit geltende Digital Services Act (DAS) so ausgestaltet und konsequent durchgesetzt werden, dass Anbieter stärker in die Verantwortung genommen werden. Denn Plattformen, die auf Sucht angelegt sind, seien „nicht mit freiheitlichen Demokratien, die auf Menschenrechten basieren, vereinbar.“ Kinder müssen vor „Risiken wie Cybermobbing, Cybergrooming, extrem gewalthaltigen Inhalten, toxischen Schönheitsidealen oder Hate Speech“ geschützt werden. Hier hätten nicht nur Eltern, sondern auch der Staat Fürsorgepflichten. Langfristig erscheint nur eine Strategie erfolgreich, die auf digitale Mündigkeit und Plattformregulierung zielt.

 

 

 

nach oben

Weitere aktuelle Beiträge

dju fordert Schutz für Medienschaffende

Die Deutsche Journalistinnen- und Journalisten-Union (dju) in ver.di fordert nach dem erschreckend milden Urteil im Verfahren zum Angriff auf Journalist*innen in Dresden-Laubegast staatlich garantierten Schutz für Medienschaffende. Über zehn Männer hatten im Februar 2022 in Dresden-Laubegast am Rande einer Demonstration im verschwörungsideologischen Milieu sechs Journalist*innen und ihren Begleitschutz angegriffen.
mehr »

Unsicherheit in der Medienlandschaft

Künstliche Intelligenz (KI) und ihre Auswirkungen auf die Medienbranche wurden auch bei des diesjährigen Münchner Medientagen intensiv diskutiert. Besonders groß sind die Herausforderungen für Online-Redaktionen. Im Zentrum der Veranstaltung  mit 5000 Besucher*innen, mehr als 350 Referent*innen aus Medienwirtschaft und -politik, Kultur, Wissenschaft und Gesellschaft, stand allerdings die Frage, wie Tech-Konzerne reguliert werden sollten.
mehr »

Für faire Arbeit bei Filmfestivals

„Wir müssen uns noch besser vernetzen und voneinander lernen!“, war die einhellige Meinung bei der Veranstaltung der ver.di-AG Festivalarbeit im Rahmen des  Leipziger Festivals für Dokumentar- und Animationsfilm. Die AG hatte zu einer Diskussionsrunde mit dem Titel Labour Conditions for Festival Workers: Roundtable & Fair Festival Award Launch eingeladen. Zu Gast waren internationale Teilnehmer*innen. Die Veranstaltung war auch der Startschuss zur ersten Umfragerunde des 4. Fair Festival Awards.
mehr »

DOK Leipzig: Weniger Barrierefreiheit

Statt 41 barrierefreien Veranstaltungen kann DOK Leipzig (27. Oktober bis 2. November) in diesem Jahr nur sechs anbieten. Ursache ist die Kürzung einer Förderung für Inklusion im Kulturbereich im sächsischen Doppelhaushalt 2025/26. Wie läuft Inklusion im Kulturbereich zu Zeiten knapper öffentlicher Mittel? Und was heißt das für die Redakteur*innen und Dienstleister, die barrierefreie Fassungen erstellen?
mehr »