Immer mehr Länder – darunter Österreich – planen Social-Media-Verbote für Teenager. Als Vorbild dient Australien. Aber ist das wirklich eine gute Idee? "Nein", sagt der Economist. "Beschränkungen richten mehr Schaden an als Nutzen bringen." Die Argumente!

Die Menschen sind sich heutzutage in vielen Angelegenheiten uneinig. Aber eine Sache verbindet sie unabhängig von ihrer politischen Einstellung: die Idee, dass Kinder und Jugendliche soziale Medien nicht nutzen dürfen, weil diese ihnen schaden.
Im Dezember hat Australien Personen unter 16 Jahren verboten, Konten auf Plattformen wie Facebook, Instagram und TikTok zu betreiben. Ein Dutzend Länder spielt derzeit mit diesem Gedanken.
Die zweite Kammer des britischen Parlaments stimmte im Januar für ähnliche Beschränkungen, ebenso wie das Unterhaus in Frankreich. Österreich, Spanien, die Tschechische Republik, Dänemark, Griechenland, Indonesien, Malaysia und Norwegen erwägen ebenfalls Verbote. Brasilien wird ab nächsten Monat eine Altersüberprüfung für Social-Media-Apps vorschreiben.
China, das zuvor Ausgangssperren für junge Gamer verhängt hatte, führte 2019 optionale Bildschirmzeitbeschränkungen für Kinder in sozialen Medien ein. Mehrere Bundesstaaten in den USA haben den Zugang für jüngere Teenager eingeschränkt, andere regulieren auf unterschiedliche Weise. Kalifornien wird etwa bald algorithmische Feeds für Minderjährige einschränken.
Auch die US-Gerichte sind beschäftigt: Am 9. Februar begannen die Verhandlungen in zwei wegweisenden Prozessen. Einen gegen Meta und YouTube wegen der angeblichen Suchtgefahr ihrer Apps. Und einen gegen Meta wegen der Frage, ob seine Plattformen genug tun, um Kinder vor Online-Tätern zu schützen.

Das Problem ist, dass Verbote mehr Schaden als Nutzen bringen. Teenager, die von TikTok verbannt werden, fangen nicht sofort an, auf Bäume zu klettern oder sich in Bücher zu vertiefen. Viele werden noch länger vor Spielkonsolen und Streaming-Diensten sitzen.
Ein Grund, warum sie so viele Stunden online verbringen, ist, dass ihre Eltern ihnen schon vor langer Zeit verboten haben, mit Freunden draußen herumzuhängen. Nachdem Erwachsene ihre Kinder ins Haus gejagt haben, sollten sie nun zweimal darüber nachdenken, bevor sie ihnen weitere Verbote für ihre Freizeit auferlegen.
Darüber hinaus ignorieren die Befürworter von Verboten, dass sie Kindern die Vorteile sozialer Medien vorenthalten würden. Sie sind ein Segen für Kinder, die sich isoliert fühlen: vielleicht aufgrund ihres Wohnorts, ihrer Sexualität oder weil ihr Gehirn anders funktioniert als das anderer. Soziale Medien können den Horizont junger Menschen erweitern und Kindern aus allen Verhältnissen einen Einblick in neue Orte und Menschen geben.
Ob es einem gefällt oder nicht, soziale Netzwerke sind heute eine der wichtigsten Quellen für Kinder, um Informationen (und auch Fehlinformationen) über aktuelle Ereignisse zu erhalten. Früher war es für Jugendliche einfach, die gedruckten Zeitungen ihrer Eltern zu lesen. Sie sahen sich die Nachrichtensendungen vor oder nach ihren Lieblingssendungen an. Diese Zeiten sind vorbei.
Höhere Altersgrenzen könnten Probleme lediglich bis zum 16. Lebensjahr hinauszögern, wenn Jugendliche plötzlich uneingeschränkten Zugang zu sozialen Netzwerken erhalten, mit deren Nutzung sie noch wenig Erfahrung haben. Gleichzeitig könnten höhere Altersgrenzen für soziale Medien ein falsches Gefühl der Sicherheit vermitteln. Aus all diesen Gründen werden Verbote oft von Kinderschutzgruppen abgelehnt.
In den USA verbringen Teenager durchschnittlich fast fünf Stunden pro Tag in sozialen Apps. Sie werden für alles Mögliche genutzt, von der Pflege von Beziehungen bis hin zu den Hausaufgaben. Die Welle rechtlicher Beschränkungen wird das Leben von Jugendlichen stark verändern.

Die Vorschläge entspringen dem verständlichen Wunsch, junge Menschen zu schützen und ihre Gesundheit zu fördern. Eltern sind erschüttert von Tragödien, bei denen soziale Medien eine Rolle gespielt haben, etwa wenn Kinder dazu verleitet wurden, explizite Bilder von sich zu teilen, oder sich das Leben nahmen, nachdem Algorithmen ihnen Inhalte über Selbstverletzung angezeigt hatten.
Neben diesen schockierenden Fällen gibt es eine zweite, allgemeinere Sorge: dass soziale Medien Kindern als Gruppe schaden könnten, indem sie junge Menschen in sich gekehrt, einsam und ängstlich machen. Die Menschen wollen unbedingt verstehen, warum die Jugendlichen von heute unglücklicher zu sein scheinen als die Generationen vor ihnen.
Selbst Eltern, die zuversichtlich sind, ihre Kinder vor ernsthaften Schäden bewahren zu können, ärgern sich darüber, dass ihre Sprösslinge Stunden damit verschwenden, sinnlose Memes durchzuscrollen. Sie würden sie gerne davon abhalten, befürchten aber, dass ihre Kinder darunter leiden, wenn sie die einzigen in ihrer Klasse sind, die diese Apps nicht nutzen.
Ein generelles Verbot scheint eine einfache Lösung zu sein – und Politiker greifen nur zu gerne zu einer Maßnahme, die ausnahmsweise einmal Wählern aller Parteien gefällt.
Doch die Politik sollte noch einmal darüber nachdenken. Die Frage, ob soziale Medien massiven Schaden anrichten, ist noch lange nicht geklärt. Es gibt nur begrenzte Belege für die Behauptung, dass soziale Medien der psychischen Gesundheit junger Menschen insgesamt großen Schaden zufügen.
Seit Jahren liegt das Mindestalter für die meisten sozialen Plattformen bei 13 Jahren. Diese Grenze wurde allgemein übernommen, nachdem Amerika 1998 das COPPA-Gesetz zum Schutz der Privatsphäre von Kindern im Internet verabschiedet hatte.

Das Gesetz wird von den Nutzern weitgehend ignoriert und von den Social-Media-Unternehmen, die neue Mitglieder nach ihrem Alter fragen und sich weitgehend auf deren Angaben verlassen, kaum kontrolliert.
Obwohl die Plattformen betonen, dass sie minderjährige Nutzer aussortieren, scheinen sie dabei erstaunlich schlechte Arbeit zu leisten. Umfragen der britischen Technologieregulierungsbehörde Ofcom ergaben, dass unter den 10- bis 12-Jährigen mehr als die Hälfte Snapchat nutzt, mehr als 60 Prozent TikTok und mehr als 70 Prozent WhatsApp. Alle drei Apps haben ein fiktives Mindestalter von 13 Jahren.
Regierungen, die solche Praktiken früher ignoriert haben, sind nun zu dem Schluss gekommen, dass soziale Medien "unseren Kindern sozialen Schaden zufügen”, wie es der australische Premierminister Anthony Albanese formuliert. Die dringendste Sorge ist, dass soziale Apps Depressionen hervorrufen und Missbrauch begünstigen, was in extremen Fällen zu Selbstmord oder Missbrauch führen kann.
Einige Forscher haben eine neue Krankheit namens "Social-Media-Nutzungsstörung" vorgeschlagen, die sich an bestehenden Diagnosen für Spiel- und Glücksspielsucht orientiert. Zu den vorgeschlagenen Kriterien gehören der Verlust der Kontrolle, der Drang, die Apps zu nutzen, die Vernachlässigung wichtiger Funktionen (Schlaf, Selbstpflege und Kontakt zu Freunden und Familie) und Verpflichtungen (Hausaufgaben und Termine).
Eine Studie mit 11- bis 15-Jährigen in 27 europäischen Ländern und Kanada, die auf Umfragedaten aus den Jahren 2017-18 basiert, ergab eine durchschnittliche Häufigkeit dieser problematischen Abhängigkeit von 7 Prozent, die von 3 Prozent in den Niederlanden bis zu 14 Prozent in Spanien reicht.

Untersuchungen deuten darauf hin, dass soziale Medien die Situation für Kinder, die ohnehin schon anfälliger sind, noch verschlimmern. Die Mehrheit der Kinder, die online gemobbt werden, wird auch in der realen Welt gemobbt; die Mobber sind oft in beiden Umgebungen dieselben. Eine Studie mit 17- bis 25-Jährigen, die mit ihrer psychischen Gesundheit zu kämpfen haben, ergab, dass eine dreiwöchige Pause von den sozialen Medien zu einer leichten Verbesserung ihres Wohlbefindens führte.
Ob soziale Medien für das durchschnittliche Kind schädlich sind, ist weniger eindeutig. Die meisten Studien dazu stützen sich auf die Angaben der Probanden zu ihrer Nutzung sozialer Medien, die in der Regel nicht genau sind (besser ist es, automatische Tracker auf den Geräten zu installieren). Viele Forscher stellen daher die Ergebnisse in Frage.
Vor allem glauben die Forscher, dass die Zeit, die Kinder in sozialen Medien verbringen, für die psychische Gesundheit nicht besonders relevant ist. Viel wichtiger ist mutmaßlich, was sie in den Apps tun (chatten sie hauptsächlich mit Freunden?), der Kontext (scrollen sie mitten in der Nacht?) und welche Inhalte ihnen die Algorithmen der Apps anzeigen.
Um diese Komplexität zu entwirren, sind detaillierte Daten auf der Ebene der einzelnen Nutzer erforderlich, die Tech-Unternehmen jedoch selten offenlegen.
Da sich Social-Media-Apps mit allen möglichen neuen Funktionen und KI-gestützten Algorithmen rasant weiterentwickeln, hat die Forschung Mühe, Schritt zu halten. Die Finanzierung einer rigorosen Studie und deren Umsetzung kann Jahre dauern. "TikTok ist in den letzten zwei bis drei Jahren bei Jugendlichen sehr beliebt geworden", sagt Victoria Goodyear von der Universität Birmingham. "Die Forschung beginnt gerade erst, diesen Trend aufzuholen."
Ungeachtet der Mängel der Forschung scheinen die Wähler überzeugt zu sein. Im vergangenen Jahr befragte das Meinungsforschungsinstitut Ipsos Menschen in 30 Ländern, ob Kinder unter 14 Jahren von sozialen Medien ausgeschlossen werden sollten. In jedem einzelnen Land sprach sich eine Mehrheit dafür aus.

Diese Politik findet wie kaum ein anderes Thema Unterstützung über demografische und politische Grenzen hinweg. So befürworten die Anhänger aller vier größten politischen Parteien Großbritanniens mit überwältigender Mehrheit ein Verbot für Kinder unter 16 Jahren. Selbst im stark polarisierten Amerika finden sowohl Republikaner als auch Demokraten Gefallen an dieser Idee. Die Politiker stoßen damit auf offene Türen.
Diese Unterstützung in Gesetze umzusetzen, ist jedoch nicht ganz einfach. Die erste Schwierigkeit besteht darin, zu entscheiden, was verboten werden soll.
Australien hat Messaging-Plattformen wie iMessage und WhatsApp ausgenommen, was zu Beschwerden von Snapchat geführt hat, das behauptet, dass seine australischen Nutzer drei Viertel ihrer Zeit mit dem Versenden von Nachrichten oder Telefonaten über die App verbringen. Die App fällt aufgrund zusätzlicher Funktionen wie einem Video-Feed in das Verbot.
Einige Eltern setzen sich bereits dafür ein, dass auch Videospiele untersagt werden, da Online-Games wie Roblox soziale Interaktionen mit Freunden und Fremden ermöglichen.
YouTube, das ursprünglich aufgrund seiner Bildungsinhalte davon ausgegangen war, ausgenommen zu sein, wurde schließlich doch in das Verbot aufgenommen.
Einige Apps, die nicht offiziell unter die Regelung fallen, haben Altersüberprüfungen eingeführt. Substack, eine Newsletter- und Blogging-Plattform, hat damit begonnen, einige seiner Funktionen in Australien und Großbritannien mit einer Altersbeschränkung zu versehen.

Die Feststellung des Alters der Nutzer ist die nächste Herausforderung. Die meisten Nutzer sind Erwachsene. Um nicht jeden bestehenden Kunden hinterfragen zu müssen, haben soziale Unternehmen in Australien damit begonnen, alle, die ihrer Meinung nach unter 16 Jahre alt sind, zu sperren.
Einige wurden nach Angabe ihres Geburtsdatums identifiziert. Andere werden aufgrund einer Analyse ihres Verhaltens verdächtigt, einschließlich der Personen, denen sie folgen, und der Inhalte, mit denen sie interagieren.
Meta hat künstliche Intelligenz eingesetzt, um Nutzer zu identifizieren, die jünger sind, als sie vorgeben zu sein. Angesichts der Tatsache, dass in Großbritannien mehr als ein Drittel der 10- bis 12-Jährigen angibt, auf Instagram zu sein, was gegen die Regeln verstößt, scheint dies jedoch bei weitem nicht narrensicher zu sein.
Diejenigen, die im Verdacht stehen, zu jung zu sein, erhalten die Möglichkeit, ihr Alter nachzuweisen. Eine Methode sind Gesichtsscans. Auch hier hat KI geholfen: Yoti, das Altersschätzungen für Unternehmen wie Meta liefert, sagt, dass KI besser darin ist, das Alter zu schätzen als der durchschnittliche Mensch.
Allerdings hat die KI die menschlichen Vorurteile aus ihren Trainingsdaten übernommen: Yoti kann das Alter eines weißen Teenagers auf weniger als zehn Monate genau schätzen, aber bei einem dunkelhäutigen Mädchen liegt die Abweichung in der Regel bei eineinhalb Jahren, wie die Zahlen zeigen.
Australische Teenager finden ohnehin Wege, die Roboter-Schätzer zu täuschen, indem sie ihre Kameras auf einen älteren Freund richten oder ihre Gesichter verziehen, um faltig auszusehen. "Die Bereitschaft zur Einhaltung ist gering", gibt ein müder Tech-Manager zu.

Wenn andere Methoden fehlschlagen, können Nutzer ihr Alter durch das Hochladen persönlicher Dokumente nachweisen. Dies birgt jedoch Risiken. Im Oktober gab die soziale Plattform Discord bekannt, dass einer ihrer Kundendienstpartner gehackt worden war, wodurch die Täter Zugriff auf eine Fülle von Fotos von Ausweisen, Benutzernamen, E-Mail-Adressen und Rechnungsdaten erhielten.
Malaysia erwägt Pläne, dass Menschen bei der Registrierung für ein Social-Media-Konto einen Ausweis vorlegen müssen. Die Regierung verteidigt den Vorschlag mit dem Argument, Kinder zu schützen und Betrug zu verhindern, aber Bürgerrechtsgruppen vermuten, dass es andere Gründe gibt, die Identität derjenigen zu erfragen, die hinter anonymen Social-Media-Beiträgen stehen.
Tech-Unternehmen streiten darüber, wer die Last der Altersüberprüfung tragen soll. Einige Social-Media-Plattformen argumentieren, dass die Altersüberprüfung nicht von ihnen, sondern auf der Ebene der für den Zugriff verwendeten Hardware erfolgen sollte.
Die Idee ist, dass die Betriebssysteme von Telefonen oder Computern – in der Regel von Apple, Google oder Microsoft – das Alter des Besitzers überprüfen und anschließend anonym für die Berechtigung zum Besuch von sozialen Netzwerken, Pornoseiten, Glücksspielplattformen oder anderen altersbeschränkten Unterhaltungsangeboten bürgen.
Die betroffenen Firmen entgegnen, dass die Verursacher der angeblichen Schäden auch die Last der Beseitigung tragen sollten. Sie weisen darauf hin, dass viele Computer von mehreren Nutzern unterschiedlichen Alters gemeinsam genutzt werden.
Während die Debatte weitergeht, springen Unternehmen für Altersüberprüfung ein, um die Lücke zu füllen. AgeKey, ein von Meta und anderen genutzten Produkten, überprüft das Alter von Personen mittels Gesichtsscan oder hochgeladener Dokumente und bürgt dann für sie, wenn sie altersbeschränkte Dienste anfordern.

Es ist noch zu früh, um zu sagen, wie gut das Verbot in Australien funktioniert. Die Regierung stellt fest, dass innerhalb weniger Tage nach Inkrafttreten des Verbots 4,7 Millionen Konten deaktiviert wurden – eine große Zahl, wenn man bedenkt, dass es in dem Land nur 2,5 Millionen Kinder im Alter von 8 bis 15 Jahren gibt.
Andere glauben, dass viele Konten übersehen wurden. Jugendliche nutzen oft mehr als eine Webseite, einige haben mehrere Konten auf derselben Plattform (eines für die Eltern, ein anderes für Freunde). Einige der gesperrten Konten waren inaktiv.
Das Ergebnis ist, dass trotz der 4,7 Millionen Löschungen viele junge Menschen offenbar weiterhin in den sozialen Medien aktiv sind. "Alle, die ich kenne, haben wahrscheinlich einen Weg gefunden, das Verbot zu umgehen, und es hat sich nicht wirklich viel geändert", erklärt ein 14-Jähriger in Melbourne.
Einige Kinder könnten zu anderen Arten von Plattformen gewechselt sein, die nicht von Verboten betroffen sind, wie etwa Messaging-Apps und Gaming-Dienste. Das Problem ist, dass die schwerwiegendsten Online-Bedrohungen ihnen folgen werden.
"Die Probleme mit Kriminellen werden nicht verschwinden. Sie werden einfach dorthin wandern, wo die Kinder hingehen", prognostiziert Andy Burrows, Geschäftsführer der Molly Rose Foundation. Die Kampagnengruppe wurde in Gedenken an ein 14-jähriges britisches Mädchen gegründet, das sich unter anderem aufgrund depressiver Inhalte auf Instagram das Leben genommen hatte.
Burrows argumentiert, dass die gefährlichsten Plattformen für Kinder – verschlüsselte Messaging-Apps, Gaming-Plattformen und andere Online-Communities – von den meisten Social-Media-Verboten nicht erfasst werden. "Als jemand, der ... einige der dunkelsten Dinge gesehen hat, die man sich vorstellen kann, ist das die Bedrohung, die mich mehr als alles andere nachts wach hält", sagt er.

Das ist ein Grund, warum viele Kinderhilfsorganisationen, vielleicht überraschenderweise, pauschale Verbote ablehnen. Die Molly Rose Foundation ist eine von 42 Unterzeichnern eines öffentlichen Briefes in Großbritannien, der sich gegen ein Verbot ausspricht.
Sie argumentieren, dass solche Verbote nicht nur ein falsches Gefühl der Sicherheit vermitteln, sondern auch eine "Klippe" für 16-Jährige schaffen, die ohne Erfahrung mit sozialen Medien auf unverfälschte Apps losgelassen würden. "Bringt man Kindern das Schwimmen bei oder wirft man sie mit 16 ins kalte Wasser?", fragt Kathryn Modecki vom Kids Research Institute Australia.
Anstatt Kinder auszuschließen, sollten Technologieunternehmen dazu gezwungen werden, ihre Plattformen kinderfreundlicher zu gestalten, regen die Interessengruppen an.
Instagram, TikTok und YouTube haben "Teenager-Konten" eingeführt, die Sicherheitsfunktionen wie gefilterte Inhalte und Warnungen vor übermäßiger Nutzung bieten. Aber das australische Verbot lässt solche Produkte nicht zu und untergräbt damit jeden Anreiz, sie zu entwickeln und zu verbessern.
Technologieunternehmen werden von der Altersbeschränkungen unterschiedlich betroffen sein: Während nur einer von 20 Facebook-Nutzern unter 18 Jahre alt ist, ist laut Schätzungen des amerikanischen Forschungsunternehmens eMarketer jeder fünfte Snapchat-Nutzer minderjährig.
Die jüngsten Nutzer sind für Werbetreibende nicht besonders wertvoll. Seit 2023 hindert ein Streit mit den Regulierungsbehörden Meta daran, Anzeigen für unter 18-Jährige in der EU, seinem zweitgrößten Markt, zu schalten. Das hatte jedoch keine sichtbaren Auswirkungen auf das Geschäftsergebnis.
Dennoch möchte keine Plattform ihre jüngsten Nutzer verlieren. Zum einen führt die Nutzung durch Teenager später zu einer wertvolleren Nutzung durch Erwachsene. Darüber hinaus erkennen Tech-Unternehmen, dass Teenager Trends setzen und vielgesehene Inhalte erstellen. Charli D'Amelio, eine Amateur-Tänzerin, wurde mit 15 Jahren zur meistgefolgten Person auf TikTok.
Das größere Risiko für Technologieunternehmen liegt woanders. Am 6. Februar stellte die Europäische Kommission in einer vorläufigen Entscheidung fest, dass TikTok mit seinem „süchtig machenden Design” gegen das Gesetz über digitale Dienste verstößt. Verwiesen wurde auf Funktionen wie unendliches Scrollen, Autoplay, Push-Benachrichtigungen und personalisierte Empfehlungen – allesamt entscheidende Faktoren für den Erfolg der App.
Nachdem sie sich jahrelang mit den Inhalten von Apps herumgeschlagen haben, scheinen die Regulierungsbehörden plötzlich auch deren Design zu problematisieren – ein Ansatz, der für Tech-Unternehmen potenziell schwieriger zu handhaben ist, da er sowohl für ihr Angebot von zentraler Bedeutung ist als auch schwerer mit dem Argument der Meinungsfreiheit abzutun ist.
Burrows argumentiert, dass Social-Media-Unternehmen eher wie Finanzdienstleister reguliert werden sollten, mit der Verpflichtung, mehr Informationen offenzulegen und die Regulierungsbehörden zu benachrichtigen, bevor sie neue Funktionen oder Produkte auf den Markt bringen.
Solche Schutzmaßnahmen hätten möglicherweise den Chatbot „Grok” von X eingeschränkt. Gegen X laufen Ermittlungen wegen der Erstellung von Nacktbildern von Erwachsenen und Kindern ohne deren Wissen oder Zustimmung ermittelt. Wenn soziale Medien Teenagern weitreichenden Schaden zufügen, ist es schwer vorstellbar, dass dieser Schaden mit 16 Jahren aufhört.
Was ist zu tun? Anstatt die Altersgrenzen anzuheben, sollten die Regulierungsbehörden ihre Bemühungen verstärken, soziale Netzwerke für Teenager geeigneter zu machen. Im Idealfall würden sie Web-Unternehmen dazu zwingen, mehr Daten darüber preiszugeben, wie Teenager ihre Produkte nutzen – damit Forscher die Schäden besser messen und Wege zu ihrer Verhinderung finden können.

Sie sollten die Tech-Giganten auffordern, Funktionen zu überdenken, die Kinder länger als gesund ist online halten, wie etwa Schnittstellen, die endloses Scrollen ermöglichen, und Videos, die ohne Aufforderung abgespielt werden.
Sie sollten eine strengere Moderation der Inhalte verlangen, die jungen Nutzern angeboten werden. Dies erfordert größere Anstrengungen zur Überprüfung des Alters der Nutzer sozialer Medien.
Politiker sagen, dass ihre Verbote die einzig verantwortungsvolle Option sind. Tatsächlich scheinen sie jedoch eher eine Möglichkeit zu sein, sich vor der Fürsorge zu drücken, die Kinder verdienen.
Wenn die Regulierungsbehörden keine Wege finden, die sozialen Medien – die mittlerweile über zwei Jahrzehnte alt sind – zu zähmen, welche Hoffnung gibt es dann, Kinder neue Tools wie künstliche Intelligenz nutzen zu lassen? Junge Menschen haben ein Recht darauf, an neuen Technologien teilzuhaben. Erwachsene müssen versuchen, ihre Zeit im Internet so sicher und lohnend wie möglich zu gestalten.
"© 2026 The Economist Newspaper Limited. All rights reserved."
"From The Economist, translated by www.deepl.com, published under licence. The original article, in English, can be found on www.economist.com"