Eltern kontrollieren Kontakte und Einstellungen – doch die Nachrichten bleiben privat.
Reaktion auf exzessive Nutzung
Die Debatte um Kindersicherheit in sozialen Netzwerken hat sich verschärft. Minderjährige verbringen laut Berichten von Ende April wöchentlich über 40 Stunden auf Plattformen wie TikTok und WhatsApp – ein Ausmaß, das einem Vollzeitjob entspricht. Experten warnen: Das verdrängt zentrale Bestandteile einer gesunden Kindheit.
WhatsApp reagiert nun mit einem neuen Kontrollsystem. Die sogenannten „Parent-Managed Accounts“ sollen Kindern ab zehn Jahren einen geschützten Einstieg ermöglichen. Bislang lag das offizielle Mindestalter bei 13 oder 16 Jahren – in der Praxis umgangen durch falsche Altersangaben. Marktuntersuchungen zeigen: Vier von fünf Kindern unter 13 Jahren nutzen bereits soziale Medien.
Während Eltern den Messenger-Einstieg ihrer Kinder überwachen, bleibt die technische Sicherheit des Geräts oft eine gefährliche Schwachstelle. Dieser kostenlose Ratgeber zeigt, wie Sie das Smartphone in wenigen Minuten wirksam vor Hackern und Datenmissbrauch absichern. 5 Schutzmaßnahmen für das Smartphone jetzt entdecken
So funktionieren die Eltern-Konten
Die Einrichtung erfordert die physische Anwesenheit von Kind und Erziehungsberechtigtem. Beide Geräte werden durch Scannen eines QR-Codes verknüpft. Eine sechsstellige Eltern-PIN schützt alle Änderungen an Privatsphäre-Einstellungen und Kontaktfreigaben.
Das System bietet weitreichende Kontrollmöglichkeiten – ohne die Ende-zu-Ende-Verschlüsselung aufzugeben. Eltern legen fest, wer mit dem Kind kommunizieren darf und welchen Gruppenchats es beitreten kann. Jede Kontaktanfrage von Unbekannten muss freigegeben werden. Echtzeit-Benachrichtigungen informieren über neue Kontakte, Blockierungen oder Meldungen unangemessener Inhalte.
Privatsphäre bleibt gewahrt
Trotz der Überwachungsfunktionen: Die Nachrichteninhalte bleiben für Eltern unsichtbar. Meta betont, dass weder das Unternehmen noch die Erziehungsberechtigten private Chats lesen oder Anrufe mithören können. Ein Balanceakt zwischen Schutz vor Fremden und Privatsphäre innerhalb der Familie.
Zusätzlich erhalten Kinder Informationskarten bei Nachrichten von unbekannten Personen – das soll die Sensibilität für Online-Gefahren erhöhen.
Funktionseinschränkungen gegen Suchtgefahren
Die verwalteten Konten sind bewusst abgespeckt. Kinder haben keinen Zugriff auf öffentliche Kanäle, können keine Status-Updates posten oder Meta-KI-Tools nutzen. Selbstlöschende Nachrichten sind standardmäßig blockiert – das ermöglicht bessere Nachvollziehbarkeit bei Konflikten oder Mobbing.
Auch Werbung gibt es nicht. Meta will die App auf die Kernfunktionen Messaging und Telefonie konzentrieren. Die Reduktion soll die Verweildauer begrenzen, denn viele suchtfördernde Elemente fehlen. Ob das reicht? Aktuelle Analysen zeigen: Technische Sperren allein verhindern den Kontrollverlust bei der Bildschirmzeit nicht vollständig.
Geteiltes Echo bei Experten
Befürworter sehen einen längst überfälligen Schritt. „Kinder nutzen Messenger ohnehin – dann lieber in einem geschützten Rahmen“, argumentieren sie. Die Werkzeuge böten Eltern erstmals technische Mittel, um den Einstieg aktiv zu begleiten.
Kritiker vermuten eine langfristige Strategie: Meta binde eine noch jüngere Nutzerbasis an sein Ökosystem. Auch wenn keine Werbung geschaltet wird – die Nutzungsdaten bleiben wertvoll. Medienpädagogen geben zu bedenken: Technische Lösungen ersetzen keine Medienkompetenz. Ein verwaltetes Konto schützt vor Fremdkontakten, nicht aber vor Cybermobbing im eigenen Freundeskreis oder sozialem Druck in Klassen-Chats.
Wer den Datennutzungs-Strategien großer Konzerne skeptisch gegenübersteht, sucht oft nach sichereren Wegen für die digitale Kommunikation der Familie. Ein kostenloser Report zeigt, wie der Wechsel zu datenschutzfreundlichen Alternativen in nur 5 Minuten und völlig anonym gelingt. Sichere Messenger-Alternative kostenlos einrichten
Regulatorischer Druck als Treiber
Der Vorstoß erfolgt vor dem Hintergrund strengerer Gesetze weltweit. In Australien trat Ende 2025 der „Online Safety Amendment Act“ in Kraft – er verpflichtet Plattformen, Minderjährige unter 16 Jahren faktisch auszuschließen. Bei Verstößen drohen Bußgelder in Millionenhöhe. Auch in Europa und den USA wächst der Druck.
Branchenbeobachter werten die Einführung als Versuch, drohenden Verboten durch proaktive Maßnahmen zuvorzukommen. Ähnliche Modelle gibt es bereits für Instagram und den Facebook Messenger. Der Trend geht weg von reinen Zugangsbeschränkungen hin zu abgestuften Nutzererfahrungen unter elterlicher Aufsicht.
Ausblick
Die weltweite Einführung wird mehrere Monate dauern. Meta testet die Funktionen zunächst in ausgewählten Märkten, um Feedback zu sammeln. Für Eltern heißt das: Sie bleiben vorerst auf die Bildschirmzeit-Funktionen von Apple und Google angewiesen.
Ob die neuen Werkzeuge die exzessive Mediennutzung eindämmen? Experten sind skeptisch. Technische Limits wirken nur, wenn sie durch einen kontinuierlichen Dialog zwischen Eltern und Kindern begleitet werden. Die Infrastruktur für sicherere Kommunikation ist da – die Verantwortung für digitale Erziehung bleibt eine gesellschaftliche Aufgabe.

