Social Media Verbot

Stellungnahme zur Social-Media- und Smartphone-Regulierung im Sinne des Jugendschutzes

Die Debatte um ein Social-Media-Verbot für Unter-16-Jährige greift zu kurz und konstruiert eine falsche Alternative. Zielführender ist eine verantwortungsvolle Social-Media- und Smartphone-Regulierung, die sich konsequent am Jugendschutz orientiert und Teilhabe mit wirksamem Schutz verbindet.

Entwicklungspsychologisch ist gut belegt, dass Kinder und jüngere Jugendliche – insbesondere unter 14 Jahren – nicht über die kognitiven, emotionalen und sozialen Voraussetzungen verfügen, um Smartphones im Allgemeinen und Social Media im Besonderen selbstbestimmt und ohne erhebliche Risiken zu nutzen. Permanente Erreichbarkeit, soziale Vergleichsdynamiken, algorithmisch gesteuerte Inhalte und Aufmerksamkeitsmechanismen sowie der ungehinderte Zugang zu problematischen Inhalten wie Pornografie oder Cybergrooming treffen auf sensible Entwicklungsphasen. Diese Faktoren stehen in engem Zusammenhang mit zunehmenden psychischen Belastungen, darunter Angststörungen, depressive Symptome, Schlafprobleme, Überforderung und eine erhöhte Gefährdung durch sexuelle Übergriffe.

Regulierung bedeutet dabei ausdrücklich kein pauschales Verbot, sondern die Schaffung altersgerechter Schutz- und Lernräume. Im analogen Bereich sind Altersgrenzen, Zugangsbeschränkungen und inhaltliche Schutzmechanismen anerkannte und selbstverständliche Instrumente des Jugendschutzes. Es ist daher folgerichtig, diese Maßstäbe auch im digitalen Raum konsequent anzuwenden, insbesondere dort, wo wirtschaftliche Interessen, datengetriebene Geschäftsmodelle und KI-basierte Steuerungsmechanismen gezielt auf Kinder und Jugendliche einwirken.

Gerade in einer zunehmend KI-dominierten digitalen Welt ist Regulierung eine Voraussetzung für Befähigung. KI-Systeme strukturieren Informationszugänge, verstärken Emotionen und beeinflussen Wahrnehmung und Meinungsbildung weitgehend unsichtbar. Ohne wirksame Schutzmechanismen können Kinder diese Prozesse weder erkennen noch kritisch reflektieren. Regulierung schafft die notwendige Grundlage, damit Medienbildung überhaupt greifen kann: Kinder und Jugendliche lernen schrittweise, wie digitale und KI-gestützte Systeme funktionieren, und entwickeln Kompetenzen in einem Rahmen, der sie nicht überfordert oder gefährdet. Viele grundlegende soziale, emotionale und kognitive Fähigkeiten müssen dabei zunächst im analogen Raum erworben werden.

Medienerziehung, elterliche Begleitung und die Stärkung digitaler Kompetenzen bleiben unverzichtbar. Sie können strukturelle Risiken jedoch nicht allein ausgleichen. Eine verantwortungsvolle Social-Media- und Smartphone-Regulierung, insbesondere mit klaren Altersgrenzen unterhalb von 14 Jahren, ist daher kein Rückschritt, sondern ein verantwortungsvoller Ausdruck aktiven Jugendschutzes. Sie schützt Entwicklung, ermöglicht Teilhabe und bereitet Kinder und Jugendliche auf eine selbstbestimmte und kompetente Rolle in der digitalen und KI-geprägten Gesellschaft vor.

Plattformanbieter stehen dabei in der Pflicht, wirksamen Jugendschutz sowohl in sozialen Netzwerken als auch im Internet insgesamt umzusetzen. Dass Minderjährige weiterhin problemlos auf pornografische oder andere entwicklungsbeeinträchtigende Inhalte zugreifen können, verdeutlicht den bestehenden Handlungsbedarf. Zugleich trägt der Staat die Verantwortung, durch klare gesetzliche Vorgaben und deren konsequente Durchsetzung den Schutz von Kindern und Jugendlichen sicherzustellen. Aktuell wird dieser Schutzauftrag in großen Teilen nicht umgesetzt.

Die bewusste Verwendung des Begriffs „Social-Media-Verbot“ dient dabei häufig dazu, notwendige Regulierung als Ausschluss von Bildung und gesellschaftlicher Teilhabe darzustellen und so staatliche Verantwortung zu relativieren. Tatsächlich muss Regulierung vielmehr bedeuten, dass der Staat Anbieter verpflichtet, jugendgerechte und sichere digitale Plattformen zu schaffen, die Teilhabe ermöglichen und zugleich den Anforderungen eines wirksamen Jugendschutzes entsprechen. Dazu gehören klar definierte und entwicklungsangemessene Altersgrenzen, deren Einhaltung verbindlich vorgegeben und wirksam kontrolliert wird. Anbieter, die diese Schutzstandards nicht erfüllen oder nicht umsetzen können, müssen konsequent sanktioniert werden. Plattformen, die diese hohen Standards nicht erfüllen, müssen für Kinder und Jugendliche zu Recht von der Nutzung ausgeschlossen werden. Solch ein Ausschluss (oder „Verbot“) ist eine notwendige und verhältnismäßige Maßnahme zum Schutz junger Menschen.