Jeder zweite Jugendliche vertraut sich KI-Chatbots an

Eine Erhebung zeigt, dass viele Jugendliche KI-Begleiter menschlichen Fachkräften vorziehen. Experten warnen vor emotionaler Abhängigkeit und fordern strengere Regeln.

Das zeigt eine Studie der französischen Datenschutzbehörde CNIL und des Versicherers Groupe VYV.**

Die Erhebung unter 3800 Teilnehmern aus Frankreich, Deutschland, Schweden und Irland offenbart einen grundlegenden Wandel: 51 Prozent der Befragten zwischen 11 und 25 Jahren fällt es leichter, mit einem Chatbot über psychische Probleme zu sprechen als mit menschlichen Fachkräften. Zum Vergleich: Nur 49 Prozent fühlen sich bei Ärzten wohl, gerade einmal 37 Prozent bei Psychologen. Eltern und Freunde bleiben zwar die wichtigsten Ansprechpartner – doch die KI-Revolution im Seelenleben der Jugend ist in vollem Gange.

Anzeige

Während die Jugend KI bereits intensiv im Alltag nutzt, wissen viele Erwachsene noch nicht, wie sie die Technologie sicher für sich einsetzen können. Dieser kostenlose Ratgeber bietet fertige Anleitungen und Beispiel-Prompts, um ChatGPT ohne Vorkenntnisse effektiv und zeitsparend zu nutzen. Kostenlosen ChatGPT-PDF-Report jetzt herunterladen

Warum die Jugend auf KI setzt

Rund 90 Prozent der Befragten haben bereits Erfahrung mit künstlicher Intelligenz. Die Gründe liegen auf der Hand: Die ständige Verfügbarkeit und die als vorurteilsfrei empfundene Art der Bots machen sie zu idealen Zuhörern. In einer Zeit, in der 28 Prozent der Teilnehmer Symptome einer generalisierten Angststörung zeigen, wird die nächtliche Erreichbarkeit zum entscheidenden Vorteil.

Mehr als drei von fünf Nutzern bezeichnen ihren primären KI-Chatbot als „Lebensberater“ oder „Vertrauten“. Die Plattformen dienen als sicherer Raum für schwierige Gespräche – ohne Angst vor sozialen Konsequenzen. 31 Prozent der Jugendlichen nutzen KI gezielt, um Sorgen zu besprechen, ein Viertel zur Stressbewältigung oder zum Abbau von Wut. Besonders ausgeprägt ist diese Nutzung bei jungen Menschen, die im echten Leben wenig elterliche Unterstützung oder enge Freundschaften haben.

Experten warnen vor emotionaler Abhängigkeit

Ludwig Franke Föyen, Psychologe und Digitalforscher am Karolinska-Institut in Stockholm, sieht die Entwicklung mit Sorge. „Die Ergebnisse überraschen nicht“, sagt er. „Doch aktuelle Sprachmodelle liefern Antworten, die selbst Fachleute kaum von menschlichen unterscheiden können – dabei sind sie auf Interaktion ausgelegt, nicht auf Therapie.“

Das Problem: Allgemeine KI-Systeme priorisieren das Gespräch um des Gesprächs willen. Wer in einer psychischen Krise steckt, braucht aber klare Grenzen, nicht endlosen Austausch. Ersetzt die Technologie echte menschliche Beziehungen, droht zunehmende Isolation statt echter Verbindung.

Hinzu kommen sogenannte „Dark Patterns“ – manipulative Designelemente, die junge Nutzer in eine ungesunde emotionale Abhängigkeit locken. Hochgradig personalisierte Sprache und reibungslose Interaktionen erzeugen eine trügerische Nähe. In manchen Fällen bestätigen Chatbots sogar schädliche Denkmuster – ein Phänomen, das Fachleute „Sycophancy“ nennen und das für gefährdete Jugendliche verheerend sein kann.

Regulierungsbehörden reagieren

Die ersten juristischen Konsequenzen zeichnen sich ab. In den USA verklagte die Familie eines Mannes Google, weil der Chatbot Gemini angeblich zu dessen Paranoia und Tod beigetragen habe. Ein 14-Jähriger nahm sich Anfang 2024 das Leben, nachdem er eine tiefe emotionale Bindung zu einer Figur auf der Plattform Character.AI entwickelt hatte.

In Europa ist die Lage widersprüchlich. Der EU AI Act wurde 2024 verabschiedet, tritt aber erst im August 2026 vollständig in Kraft. Diese zweijährige Übergangszeit bezeichnen Experten als „unregulierte Grenzzone“. Italiens Datenschutzbehörde verhängte 2025 bereits eine Millionenstrafe gegen den Anbieter des KI-Begleiters Replika – wegen fehlender Altersverifikation und unzureichendem Schutz von Minderjährigendaten.

Anzeige

Der Einsatz von KI bringt neue gesetzliche Herausforderungen mit sich, die viele Unternehmen und Verantwortliche noch nicht vollständig überblicken. Ein kostenloser Umsetzungsleitfaden zum EU AI Act liefert einen kompakten Überblick über alle neuen Pflichten, Risikoklassen und Übergangsfristen. Kostenloses E-Book zum EU AI Act sichern

Der EU AI Act stuft bestimmte KI-Anwendungen als hochriskant ein. Doch viele emotionale Chatbots fallen in eine niedrigere Risikokategorie und müssen lediglich mitteilen, dass sie keine Menschen sind. Kritiker halten das für völlig unzureichend bei Werkzeugen, die als „De-facto-Therapeuten“ für Millionen Kinder fungieren.

Neue Gesetze in den USA

Auch jenseits des Atlantiks bewegt sich etwas. Der „Youth AI Privacy Act“ soll Kinder vor manipulativen Taktiken schützen. Der „GUARD Act“ würde Altersverifikation vorschreiben und Strafen für Unternehmen androhen, deren Tools sexuelle Inhalte mit Minderjährigen fördern oder zu Gewalt ermutigen.

Der Bundesstaat Washington verlangt bereits „angemessene Maßnahmen“, um langfristige emotionale Beziehungen zwischen Chatbots und Kindern zu verhindern. Die Bots müssen wiederholt ihren nicht-menschlichen Status offenlegen und ihr „Gedächtnis“ für vergangene Interaktionen begrenzen.

Zwischen klinischer Hilfe und digitaler Droge

Die Branche spaltet sich zunehmend in allgemeine Begleiter und klinisch geprüfte Werkzeuge. Plattformen wie Wysa setzen auf wissenschaftlich belegte kognitive Verhaltenstechniken und benennen ihre Grenzen klar. Doch die Studie zeigt: Junge Menschen greifen oft zum nächstbesten, am leichtesten zugänglichen Tool – unabhängig von dessen Qualifikation.

Die Integration von KI in die emotionale Welt der Jugend ist wohl nicht mehr umkehrbar. Bei einem Betreuungsschlüssel von einem Schulpsychologen auf 385 Schüler in vielen Ländern wird die Nachfrage nach rund um die Uhr verfügbarer digitaler Unterstützung nicht nachlassen. Die KI-Industrie wird für die heutige Jugend so prägend sein wie soziale Medien und Smartphones für frühere Generationen.

Die Politik steht vor einer Herkulesaufgabe: Sie muss die regulatorische Lücke schließen, ohne die Chancen der Technologie zu ersticken. Die Einigung der Fachwelt ist klar: KI kann helfen, darf aber niemals professionelle Hilfe ersetzen. Mit der Vollendung des EU AI Act im August 2026 rücken Sicherheitsfunktionen in den Fokus – automatische Krisen-Hotlines, Nutzungspausen und klare Grenzen.

Bis dahin liegt die Verantwortung bei Eltern und Lehrern – die sich oft überfordert fühlen mit den digitalen Beziehungen ihrer Kinder. Die Studie ist ein Weckruf: Für fast die Hälfte der nächsten Generation ist der wichtigste Gesprächspartner über Ängste und Träume kein Mensch mehr.