Die Tech-Giganten Meta und YouTube müssen sich ab dieser Woche in einem kalifornischen Gerichtssaal einer historischen Klage stellen. Der Vorwurf: Sie hätten ihre sozialen Netzwerke absichtlich so gestaltet, dass sie vor allem junge Nutzer in die Abhängigkeit treiben und so eine Jugend-Mental-Health-Krise mitverursachen. Dieser Prozess ist ein Prüfstein für eine neue Welle von Klagen, die Tech-Konzerne nicht für Nutzerinhalte, sondern für die Architektur ihrer Plattformen haftbar machen wollen.
Der Prozessauftakt erfolgt nur Tage, nachdem sich zwei weitere Angeklagte, Snap und TikTok, in außergerichtlichen Vergleichen mit undurchsichtigen Bedingungen aus der Affäre gezogen haben. Die Verfahren gegen die verbliebenen Riesen Meta (Eigentümer von Facebook und Instagram) und Google (Eigentümer von YouTube) werden voraussichtlich Aussagen von Top-Managern wie Meta-CEO Mark Zuckerberg enthalten. Parallel läuft seit Montag ein weiterer Prozess mit Geschworenen in New Mexico. Dort wirft der Generalstaatsanwalt des Bundesstaates Meta vor, mit seinem Plattform-Design wissentlich ein gefährliches Umfeld geschaffen zu haben, das die Ausbeutung von Kindern ermöglichte.
Im Zentrum der tausenden Klagen in den USA steht eine einfache, aber schwerwiegende These: Soziale Medien sind keine neutralen Informationskanäle, sondern sorgfältig konstruierte Produkte, die zwanghaftes Nutzungsverhalten fördern sollen. Die Kläger vergleichen die eingesetzten Techniken mit denen aus der Glücksspiel- und Tabakindustrie. Funktionen wie endloses Scrollen, algorithmische Empfehlungen und ständige Benachrichtigungen sollen demnach die Nutzerbindung maximieren – und damit den Profit.
Passend zum Thema Regulierung und Plattform-Design: Die neue EU-KI-Verordnung bringt umfangreiche Pflichten für Kennzeichnung, Risikoklassifizierung und Dokumentation von algorithmischen Systemen mit sich. Unser kostenloser Umsetzungsleitfaden erklärt praxisnah, welche Anforderungen besonders Entwickler, Anbieter und Betreiber von Empfehlungsalgorithmen jetzt erfüllen müssen – inkl. Checklisten und Fristen. Jetzt kostenlosen KI-Umsetzungsleitfaden herunterladen
Die Sammelklagen, die von Familien, Schulbezirken und Bundesstaaten eingereicht wurden, führen diese mutmaßlich absichtliche Gestaltung auf schwere psychische Folgen bei Jugendlichen zurück: Depressionen, Angststörungen, Körperbildstörungen und sogar Suizide. Interne Unternehmenskommunikationen, die in den Klageschriften auftauchen, deuten auf ein Bewusstsein für diese Risiken hin. So soll eine Instagram-Mitarbeiterin notiert haben, Nutzer würden die Plattform so exzessiv konsumieren, dass sie keinen psychologischen Belohnungseffekt mehr spüren könnten.
Jahrzehntelang schützte Section 230 des US-Kommunikationsdezentheitsgesetzes soziale Medien vor Haftung für nutzergenerierte Inhalte. Die aktuelle Klagewelle versucht nun, diesen mächtigen Schutz zu umgehen, indem sie die Unternehmen in ihrer Rolle als Produktdesigner angreift. Die Kläger argumentieren, der Schaden entstehe nicht durch fremde Äußerungen, sondern durch das fehlerhafte Design der Plattformen und falsche Sicherheitsversprechen der Konzerne.
Diese Strategie zeigt Wirkung. Gerichte zeigen zunehmend Skepsis, ob der Section-230-Schutz bei Klagen zur Plattformarchitektur greift. Jüngste Urteile legen nahe, dass die pauschale Immunität nicht gilt, wenn es um die eigenen Design-Entscheidungen eines Unternehmens geht. Ein Schuldspruch in den laufenden Prozessen könnte diesen lange etablierten Verteidigungswall erheblich schwächen und den Weg für eine Flut weiterer Produkthaftungsklagen ebnen.
Der Druck auf Big Tech ist kein Einzelfall. Eine Multi-District Litigation (MDL) im Nordbezirk Kaliforniens hat fast 2.200 Einzelklagen aus dem ganzen Land gebündelt. Diese Sammelklage umfasst Forderungen von Eltern, Interessenvertretungen und zahlreichen Schulbezirken – eine gewaltige, vereinte Herausforderung. Sechs wegweisende Testfälle aus dieser MDL sollen noch 2026 vor Gericht kommen.
Zusätzlich erhöht eine Koalition von Generalstaatsanwälten den Druck. Sie wirft Unternehmen wie Meta vor, schädliche Algorithmen für Minderjährige entwickelt zu haben. Der parallel in New Mexico laufende Prozess konzentriert sich speziell auf den Vorwurf, dass Meta bei seinen Design-Entscheidungen Engagement über den Schutz von Kindern gestellt und so Ausbeutung und Menschenhandel auf seinen Plattformen ermöglicht habe. Dieser mehrgleisige Angriff von Privatpersonen, Schulen und Bundesstaaten ist die bislang massivste und koordinierteste Herausforderung für das Geschäftsmodell der Social-Media-Branche.
Die Verschiebung der rechtlichen Strategie von der Inhaltsmoderation zur Produkthaftung markiert eine Zeitenwende. Jahrelang drehte sich die Debatte um Schäden durch Plattformen vor allem um die Frage, was Unternehmen entfernen sollten. Die aktuellen Klagen stellen diese Prämisse infrage. Das grundlegende Problem, so die neue Argumentation, sei das Geschäftsmodell selbst – ein Modell, das auf Datensammlung setzt, um Algorithmen zu füttern, die für maximale Nutzerbindung optimiert sind.
Experten sind sich einig: Ein Sieg der Kläger hätte seismische Auswirkungen. Er könnte eine grundlegende Neugestaltung der sozialen Netzwerke erzwingen, bei der das Wohl der Nutzer über Engagement-Kennzahlen gestellt werden müsste. Die geheimen Vergleiche von Snap und TikTok zeigen bereits, welches enorme rechtliche Risiko die Konzerne selbst sehen. Die verbleibenden Prozesse werden aufmerksam verfolgt werden. Die Enthüllung interner Dokumente und die Aussagen von Führungskräften könnten das öffentliche Image der Unternehmen weiter beschädigen und Forderungen nach regulatorischen Maßnahmen verstärken.
Die nun laufenden Prozesse werden voraussichtlich mehrere Wochen dauern, ihr Ausgang ist ungewiss. Unabhängig von den Urteilen haben die Klagen bereits erreicht, dass die internen Design-Philosophien der mächtigsten Tech-Konzerne der Welt unter ein beispielloses Mikroskop geraten. Ein Urteil zugunsten der Kläger würde wahrscheinlich zu erheblichen Schadensersatzzahlungen führen. Vor allem aber könnte es einen mächtigen Präzedenzfall schaffen: Soziale Medien wären dann Produkte, die denselben Haftungsstandards unterliegen wie jedes andere Konsumgut auch.
Diese rechtliche Belagerung findet vor dem Hintergrund zunehmender gesetzgeberischer Bemühungen statt, die Tech-Branche zu regulieren und Section 230 zu reformieren oder abzuschaffen. Die Beweise und Zeugenaussagen aus diesen Verfahren werden die politischen Debatten der kommenden Monate und Jahre maßgeblich beeinflussen. Sie entscheiden mit, ob sich die Architektur unserer digitalen Lebenswelt grundlegend ändern muss.
PS: Die EU-KI-Verordnung stellt Betreiber und Designer algorithmischer Systeme vor konkrete Pflichten – von Risikobewertung bis zur Dokumentation. Unser kompakter Leitfaden fasst die wichtigsten Schritte zusammen und zeigt, wie Sie Compliance strukturiert angehen können, damit Systeme nicht nur profitabel, sondern auch rechtssicher betrieben werden. EU-KI-Verordnung: Kompakten Leitfaden anfordern





