Design als Suchtmittel
Die meisten sozialen Netzwerke nutzen sogenannte Dark‑Pattern‑Funktionen, um die Aufmerksamkeit der Nutzer zu maximieren. Bei TikTok gehören dazu das endlose Scrollen, bei dem ein Video automatisch dem nächsten folgt, Autoplay‑Funktionen, die ohne Benutzereingabe starten, ständige Push‑Benachrichtigungen und ein hochgradig personalisierter Empfehlungsalgorithmus. Die EU‑Kommission hält solche Gestaltungselemente für suchtfördernd. In ihren vorläufigen Erkenntnissen zu TikTok stellte die Behörde fest, dass diese Features Nutzer zum kontinuierlichen Konsum verleiten und das Gehirn in einen „Autopilot‑Modus“ versetzen. TikTok habe die Risiken für die körperliche und psychische Gesundheit, insbesondere von Minderjährigen, nicht ausreichend bewertet und fehlende Schutzmechanismen wie wirksame Bildschirmzeit‑ oder Jugendschutzeinstellungen.
Die EU forderte Anfang Februar 2026 deshalb grundlegende Änderungen am TikTok‑Design. Nach Ansicht der Kommission muss das Unternehmen unter anderem seine „Infinite‑Scroll“‑Funktion deaktivieren, verpflichtende Bildschirm‑Pausen einbauen und seinen Empfehlungsalgorithmus überarbeiten. Andernfalls droht eine Geldbuße von bis zu 6 % des weltweiten Jahresumsatzes. Diese Forderungen basieren auf dem Digital Services Act (DSA), der seit Februar 2024 vollständig gilt und große Online‑Plattformen verpflichtet, Risiken wie Suchtgefahren zu analysieren, Minderjährige zu schützen und illegale Inhalte zu beseitigen.
Neuropsychologische Effekte
Warum wirken solche Funktionen so stark? Die EU‑Untersuchung und zahlreiche Studien erklären dies mit der Dopamin‑Ausschüttung im Gehirn. Jede unerwartete Belohnung – ein neues Video, ein Like oder eine positive Nachricht – löst einen kleinen Dopaminreiz aus. Der schnelle Wechsel von Inhalten („Surprise‑Effekt“) und die Personalisierung sorgen dafür, dass Nutzer immer wieder nach dem nächsten Stimulus suchen. Bei Jugendlichen sind diese Effekte besonders ausgeprägt: Selbstregulation und Impulskontrolle befinden sich noch in der Entwicklung, sodass Belohnungssysteme stärker ansprechen. Zudem zeigen Untersuchungen von Meta selbst, dass Jugendliche, die sich nach der Nutzung schlechter fühlen, auf Instagram etwa drei Mal mehr „Körper‑ und Essstörungs‑bezogene Inhalte“ sehen als andere Nutzer – ein Hinweis darauf, wie Algorithmen vulnerable Gruppen verstärken.
Wie Eltern reagieren können
Experten raten, die Social‑Media‑Nutzung der Kinder nicht pauschal zu verbieten, sondern begleitend zu regulieren. Dazu gehören:
- Klare Bildschirmzeiten festlegen: feste tägliche Zeitlimits und smartphonefreie Zeiten (z. B. während der Hausaufgaben oder vor dem Schlafen).
- Push‑Benachrichtigungen deaktivieren und Autoplay begrenzen, um das Endlos‑Prinzip zu durchbrechen.
- Elternmodus oder Familienfunktion nutzen: Viele Apps bieten Einstellungen, mit denen Eltern Dauer, Inhalte und Kontaktmöglichkeiten steuern können. TikTok ermöglicht im Familienmodus etwa die Begrenzung der täglichen Nutzungszeit.
- Offen über Algorithmen sprechen: Gemeinsame Gespräche über Empfehlungsalgorithmen, Werbung und Risiken stärken die Medienkompetenz.
Nutzerzahlen: Größer als man denkt
TikTok verzeichnet weltweit rund 1,59 Milliarden monatliche Nutzer, davon mehr als 260 Millionen im Europäischen Wirtschaftsraum. In Deutschland nutzen nach Unternehmensangaben rund 25,7 Millionen Menschen die App monatlich. Damit gehört TikTok zu den größten Online‑Plattformen der Welt, wobei die Nutzung bei Jugendlichen und jungen Erwachsenen besonders hoch ist.
DSA und deutsches Digitale‑Dienste‑Gesetz
Der Digital Services Act stellt einen neuen Rechtsrahmen dar. Er schafft Sorgfaltspflichten für digitale Plattformen, verlangt regelmäßige Risikoanalysen und ermöglicht bei Verstößen Strafen bis zu 6 % des Jahresumsatzes. Das Digitale‑Dienste‑Gesetz (DDG) überträgt diese Vorgaben in deutsches Recht und gibt der Bundesnetzagentur Befugnisse zur Durchsetzung. Die Behörde kann bei Verstößen Bußgelder verhängen und ist Anlaufstelle für Verbraucherbeschwerden. Damit sollen auch Markenpiraterie, fehlende Sicherheit oder Hassrede bekämpft werden.
US‑Prozesse gegen Social‑Media‑Konzerne
Während die EU regulatorisch vorgeht, laufen in den USA mehrere Verfahren, in denen Nutzende oder Bundesstaaten Tech‑Unternehmen wegen suchtfördernder Designs verklagen.
Supreme‑Court‑Entscheidung zu TikTok
Im Januar 2025 entschied der Oberste Gerichtshof der USA im Fall TikTok Inc. v. Garland über die Verfassungsmäßigkeit des Protecting Americans from Foreign Adversary Controlled Applications Act. Dieses Gesetz verbietet es US‑Unternehmen, Dienste für TikTok anzubieten, sofern die US‑Geschäftstätigkeit nicht von der chinesischen Muttergesellschaft ByteDance getrennt wird. TikTok und einige Nutzer hatten argumentiert, das Gesetz verletze das Recht auf freie Meinungsäußerung. Der Supreme Court stufte das Gesetz jedoch als inhaltsneutral ein und erklärte, es diene der nationalen Sicherheit, weil es Datenzugriffe durch China verhindern solle. Die Richter wendeten eine intermediate scrutiny an und stellten fest, dass das Gesetz einem wichtigen Regierungsinteresse diene und die Meinungsfreiheit nicht stärker einschränke als notwendig. Damit blieb die Pflicht zur Abspaltung bzw. zum Verkauf der US‑TikTok‑Sparte bestehen.
Kalifornischer Musterprozess wegen „Sucht‑Design“
Im Februar 2026 begann vor einem Superior Court in Los Angeles ein Pilotprozess, der prüfen soll, ob Social‑Media‑Plattformen wegen ihrer Gestaltung haftbar gemacht werden können. Klägerin ist eine 20‑jährige Frau (KGM), die Meta (Facebook/Instagram) und Google (YouTube) vorwirft, ihre Apps bewusst so gestaltet zu haben, dass sie Kinder süchtig machen. Ihr Anwalt argumentierte, interne Dokumente belegten, dass die Unternehmen „Maschinen gebaut haben, die das Gehirn von Kindern süchtig machen“. Die Klägerin macht schwere psychische Schäden geltend; Meta kontert, andere Lebensumstände seien maßgeblich und verweist auf eigene Sicherheitsfunktionen. TikTok und Snap haben sich in diesem Verfahren vorab verglichen; Meta‑CEO Mark Zuckerberg und andere Führungskräfte sollen als Zeugen aussagen.
Der Ausgang dieses Verfahrens ist wegweisend, weil Meta, Google, TikTok und Snap insgesamt mehrere tausend Klagen wegen der psychischen Folgen ihrer Plattformen ausgesetzt sind. Eine Verurteilung könnte die bisherige US‑Rechtsprechung, die Internetfirmen über Section 230 des Communications Decency Act vor Haftung für Nutzerinhalte schützt, deutlich abschwächen.
Prozess in New Mexico wegen sexueller Ausbeutung
Parallel dazu klagt der Bundesstaat New Mexico gegen Meta, weil das Unternehmen Minderjährige auf Facebook, Instagram und WhatsApp sexueller Ausbeutung ausgesetzt haben soll. Die Generalstaatsanwaltschaft wirft Meta vor, illegalen Inhalt zu fördern und Pädophile mit minderjährigen Nutzern zu vernetzen. Zugleich soll Meta seine Plattformen so gestaltet haben, dass Kinder möglichst lange online bleiben, was durch Funktionen wie endloses Scrollen und Auto‑Play süchtigmachendes Verhalten fördere. Meta weist die Vorwürfe zurück, beruft sich auf das Recht auf freie Meinungsäußerung und auf Section 230 und betont, dass es umfangreiche Sicherheitsmaßnahmen gebe.
Fazit
Die Debatte um suchtfördernde Social‑Media‑Designs findet auf beiden Seiten des Atlantiks statt. Während die EU im Rahmen des Digital Services Act versucht, durch verbindliche Vorgaben und hohe Strafen die Plattformen zu sichereren Angeboten zu zwingen, setzen US‑Gerichte auf den Hebel der Produkthaftung. Die Ergebnisse der laufenden Verfahren in Kalifornien und New Mexico könnten weltweit Auswirkungen haben. Für Eltern bleibt es entscheidend, die Nutzung der Plattformen aktiv zu begleiten, sinnvolle Grenzen zu setzen und mit ihren Kindern offen über Risiken und Algorithmen zu sprechen.



