Wie viel Sinn hat ein Social Media-Verbot?

Europa und Deutschland diskutieren über ein Social Media-Verbot für unter 16-Jährige. In der Bevölkerung stößt das auf Zustimmung. Experten fordern hingegen sichere digitale Räume und ein Recht auf Meinungsfreiheit.

Gastbeitrag von Dr. Christopher Brinkmann

Plattformen erst ab 16 zugänglich

In Australien gilt seit drei Monaten ein Social Media-Verbot. Damit sind Plattformen wie Instagram und TikTok erst für Personen ab 16 Jahren zugänglich.

Verantwortlich für die Alterskontrolle sind die Anbieter. Sie scheinen sich bisher an die neue Reglung zu halten. Wie die New York Times im Januar berichtete, wurden bereits fast fünf Millionen Accounts deaktiviert. Das ist aber alles halb so schlimm. Denn auch die erwachsenen Nutzenden müssen sich verifizieren. Für die Betreiber der Social Media ist das ein großes Datengeschenk, von dem sie sonst nur träumen können.

Was Down Under gilt, wird in Europa aktiv diskutiert. Die EU-Kommission prüft derzeit ein Social-Media-Verbot für Jugendliche. Auch das EU-Parlament fordert den Zugang zu Social Media erst ab 16 Jahren – 13 Jahre, wenn es die Eltern erlauben. Kontrolliert werden soll das über eine App zur Altersüberprüfung und die eID, eine europäische Identität in der digitalen Brieftasche.

Für Personen ohne Papiere, ohne Smartphone oder mit ungeklärten Aufenthaltsstatus ist das ein großes Problem. Social Media sind für sie häufig ein wichtiger Draht in ihre Herkunftsländer. Ohne Möglichkeit einer Verifizierung würden sie davon ausgeschlossen.

Bevölkerung befürwortet Verbot

In Deutschland wurde die Verbots-Debatte lange auf Länderebene geführt. Bereits vergangenes Jahr richtete zum Beispiel Hessen „Smartphone-Schutzzonen“ in Schulen ein. Damit ist hier die private Nutzung der Endgeräte verboten. Weiterführende Schulen können spezielle Orte für die private Handynutzung in der Schulordnung festgelegen. „Unsere Schulen müssen geschützte Räume sein, in denen unsere Kinder und Jugendlichen frei von Ablenkung und Ängsten lernen können”, sagte der hessische Bildungsminister Armin Schwarz dazu.

Mit den Positionierungen der beiden Regierungsparteien wird die Debatte nun auch aktiv auf Bundesebene geführt. Im Februar forderte der Bundesparteitag der CDU für Social Media eine gesetzliche Altersgrenze von 14 Jahren. Auch von der SPD gibt es ähnliche Forderungen. In ihrem Impulspapier „Sichere digitale Medien“ schlägt die Bundestagsfraktion ein vollständiges Social Media-Verbot bis 14 Jahren und eine Jugendversion der Plattformen bis 16 Jahren vor.

Die Bevölkerung unterstützt das. Laut einer aktuellen ZDF-Umfrage des Politikbarometers finden 81 Prozent der befragten Personen ein solches Social Media-Verbot gut.

… aber aus fachlicher Sicht höchst bedenklich

Social Media für Kinder und Jugendliche einfach zu verbieten ist allerdings der falsche Weg. Verbote übersehen nämlich, dass die Plattformen mehr sind, als Doomscrolling und TikTok-Tänze. In der digitalen Welt sind sie Debattenräume, Informationsquelle und Ort der Meinungsvielfalt. Und darauf haben junge Menschen ein Recht. Das schreibt die UN-Kinderrechtskonvention vor. Laut dieser haben Kinder und Jugendliche einen Anspruch auf Teilhabe und Meinungsäußerung (Artikel 12), Meinungs- und Informationsfreiheit (Artikel 13) und Zugang zu Medien (Artikel 17).

Diese Rechte gelten auch in der digitalen Welt und zu denen gehören Social Media. Natürlich gibt es dabei Einschränkungen. Kinder und Jugendliche müssen mit altersgerechten Inhalten und Medien aufwachsen. Das betont auch die UN-Kinderrechtskonvention mit der Pflicht zur „Förderung [des] sozialen, seelischen und sittlichen Wohlergehens sowie [der] körperlichen und geistigen Gesundheit“. Doch mit einem Verbot wichtige Kommunikationsräume zu versperren, über die heute politische Bildung, Meinungsäußerung und Identitätsentwicklung erfolgt, ist nicht der richtige Weg.

Plattformen in die Pflicht nehmen

Deutlich wird das auch in der Position der Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK). Sie lehnt Pauschalverbote ab. Die Gründe für die Fachgesellschaft: Social Media-Verbote beschränken Rechte, verschließen wichtige Debattenräumen und bestrafen junge Menschen dort, wo eigentlich die Plattformen verantwortlich wären. An Stelle von pauschalen Verboten sollten die Plattformen stärker reguliert werden. Europa hat dafür den Digital Services Act (DSA) und den EU AI-Act. Sie müssen konsequent umgesetzt werden.

Denn die beiden Rechtsrahmen machen Instagram und Co. für Inhalte in ihren Netzwerken verantwortlich. Ein gutes Beispiel ist das laufende Prüfverfahren gegen TikTok. Laut EU-Kommission verstößt die Videoportals gegen Reglungen im DSA. In einer Pressemeldung zum Verfahren heißt es: „TikTok scheint keine angemessenen, verhältnismäßigen und wirksamen Maßnahmen zu ergreifen, um die Risiken zu mindern, die sich aus seinem süchtig machenden Design ergeben“. Die Konsequenz: TikTok wird wohl bestimmte Funktionen deaktivieren müssen.

Am Problem vorbei reguliert

Klar ist außerdem nicht, wo ein Verbot beginnt und wo es endet. Unter das Social Media-Verbot in Australien fallen z.B. Plattformen wie Instagram, Snapchat, TikTok und YouTube. Digitale Spiele wie Roblox oder Messaging-Dienste wie WhatsApp sind nicht davon betroffen. Die Beschränkungen können also leicht umgangen werden. Außerdem versagt die Technik immer wieder. Die Alterskontrolle per Gesichtsscan und biometrischen Eigenschaften verwechselte laut Medienberichten bereits Jugendliche mit Erwachsenen.

Verbote sind eine schnelle Lösung. Sie werden das Problem aber nicht lösen. Auf den Punkt bringt das Kristina Richter, Geschäftsführerin des Medienkulturzentrums Dresden, im Podcast berufsjugendlich. Sie sieht Schutz, Befähigung und Teilhabe als die drei medienpädagogischen Aufgaben. Ein Verbot von Social Media steht dem grundsätzlich entgegen. Gerade sein Ziel, den Schutz von Kindern und Jugendlichen, kann es nicht leisten. Wichtiger ist es, sichere digitale Umgebungen zu schaffen.

Fachexpertin Kristina Richter dazu: „Echter Schutz würde bedeuten, die Ursachen anzugehen. Und das sind die Plattformen, die auf Aufmerksamkeitsmaximierung ausgelegt sind, die mit variablen Belohnungen arbeiten, die Kinder nicht ausreichend schützen und sie ganz im Gegenteil als Werbeziele sehen. Das muss reguliert werden.“

Noch keine Kommentare.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht.