Die süchtig machende Natur sozialer Medien und die negativen Auswirkungen auf unsere psychische Gesundheit – insbesondere für junge Menschen mit sich noch entwickelnden Gehirnen – sind längst kein neues Konzept mehr. Eine Generation von iPad-Kindern sieht sich alarmierend hohen Raten von Depressionen, Ängsten und Aufmerksamkeitsspannen gegenüber, die schneller schrumpfen als Wollsocken im heißen Trockner.
Doch Unternehmen wie Alphabet (zu denen Google und YouTube gehören) argumentieren, dass es nicht ihre Schuld sei und der Schutz von Kindern „schon immer zentral für ihre Arbeit“ gewesen sei.

Viele Amerikaner – und sogar ganze Schulbezirke – sehen das jedoch ganz anders. Nun stehen vier Social-Media-Giganten, Alphabet, Meta (Facebook/Instagram), ByteDance (TikTok) und Snap (SnapChat), einer Klagewelle gegenüber.
Zu ihrer Verteidigung argumentierten die Unternehmen, sie seien vor Strafverfolgung immun und forderten die Abweisung sämtlicher Ansprüche gegen sie. Sie beriefen sich auf den First Amendment der US-Verfassung sowie auf eine Bestimmung des bundesstaatlichen Communications Decency Act: Abschnitt 230 gewährt Social-Media-Unternehmen Immunität vor Haftung für alles, was Nutzer auf deren Plattformen veröffentlichen.
In einer bahnbrechenden Entscheidung am vergangenen Dienstag urteilte US-District-Richterin Yvonne Gonzalez Rogers gegen die vier Reiter der mentalen Health-pocalypse und verweigerte ihnen Schutz vor Klagen. Jetzt müssen sie sich der Verantwortung stellen.
Rogers sagt, dass es hier nicht einfach darum geht, dass Drittinhalte beeinflussbare Köpfe beeinflussen – die Unternehmen hätten eine gesetzliche Verantwortung, Produkte angemessen sicher zu gestalten und Nutzer vor bekannten Mängeln zu warnen. Indem sie es versäumten, den Nutzern zu helfen, ihre Bildschirmzeit zu begrenzen, ineffektive Altersverifikations-Tools verwendeten und Hürden für eine Kontolöschung schufen, können sich Social-Media-Entwickler nicht aus der Verantwortung ziehen und die Schuld allein auf die Inhaltsersteller abschieben.
Haben Sie als CX-Profi Ideen, wie Social-Media-Unternehmen für sicherere Erfahrungen ihrer Nutzer sorgen können? Wie wir bereits besprochen haben, ist das Schaffen von Vertrauen bei Ihrer Kundschaft superwichtig. Was sollten diese Unternehmen tun, um das Vertrauen der besorgten Eltern, Schulbehörden und sogar Gesetzgeber zurückzugewinnen?
Safety First: Welche Unternehmen machen es richtig?
Eine von Rogers' Anregungen, um die Kindersicherheit bei Social Media zu verbessern, war der Einsatz von Altersverifikations-Tools, die Eltern benachrichtigen, wenn ihre Kinder online sind – aber natürlich wird das alleine die ausgewachsene Krise der psychischen Gesundheit nicht beenden. Wo sonst können wir nach Beispielen für effektive Kinderschutzfunktionen in der digitalen Welt suchen?
Vielleicht sollte sich Herr Zuckerberg ein Beispiel an den Experten nehmen: Roblox.

Für diejenigen unter Ihnen, die sich in der Welt der Pre-Teen-Games nicht auskennen: Roblox ist eine Plattform, auf der Nutzer – hauptsächlich Kinder – eigene Videospiele erstellen und hochladen und die Kreationen anderer entdecken können. Das Spielen ist kostenlos, aber es gibt kostenpflichtige Features zum Freischalten zusätzlicher Inhalte. Wie viele große Social-Media-Kanäle erlaubt auch Roblox das Versenden von Freundschaftsanfragen und das Führen von Chats.
80 Prozent der Nutzer sind unter 16 Jahren. Mit 70,2 Millionen täglichen Usern und 214 Millionen monatlichen Nutzern zählt diese Gaming-Plattform in puncto Beliebtheit unter Kindern inzwischen zu Minecraft und Fortnite. Natürlich ist die Bilanz von Roblox in Sachen Kindersicherheit nicht makellos. Dennoch unternimmt das Unternehmen große Anstrengungen, um Sicherheits- und Schutzfunktionen durchzusetzen – darunter eine Fülle an Ressourcen für Eltern, damit sie die Aktivitäten ihrer Kinder effektiv überwachen können. Zudem gibt es zahlreiche unabhängige Foren, in denen sich Eltern Rat holen und Tipps austauschen, wie sie das Spielverhalten ihrer Kinder verantwortungsvoll begleiten können.
24/7 Kundenservice und Sicherheitshotlines
Roblox sorgt dafür, dass jederzeit jemand zur Verfügung steht, um elterliche Anliegen schnellstmöglich zu bearbeiten. Das ist unserer Meinung nach eine sehr solide CX-Strategie! Außerdem hat Roblox ein Trust & Safety Advisory Board zusammengestellt, bestehend aus einigen der weltweit führenden Experten im Bereich digitale Sicherheit.
Ein großes Moderatorenteam – und KI-Unterstützung
Jeder Inhalt, der auf Roblox hochgeladen wird, durchläuft eine strenge Sicherheitsprüfung. Derzeit beschäftigt das Unternehmen mehr als 1.600 Moderatoren, die unangemessene Inhalte in Spielen und Chats überwachen. Nach Einführung von Machine-Learning-Software zur Unterstützung der Moderationsmaßnahmen konnten sie eine Reduktion um 84 % bei der Zahl der Nutzer, die Richtlinienverletzungen ausgesetzt waren, verzeichnen.
Altersgerechte Inhaltsbewertungen
Einige der Spiele enthalten leichte Gewaltdarstellungen, daher kategorisiert Roblox die Inhalte entsprechend. Ein Spiel mit schwertschwingenden Rittern würde beispielsweise eine ab-13-Kennzeichnung bekommen, während harmlosere Spiele eine ab-9-Empfehlung erhalten.
Individuell anpassbare Elternkontrollen
Für Eltern, die nicht möchten, dass ihre Kinder Chatfunktionen nutzen, lassen sich diese deaktivieren oder einschränken. Wird das Chatten erlaubt, können Eltern Chatverläufe und Freundschaftsanfragen leicht einsehen. Sie können zudem den Zugang zu verschiedenen Spielen und Erfahrungen an Altersstufen anpassen sowie Ausgaben begrenzen, um böse Überraschungen auf der Kreditkartenabrechnung zu vermeiden.
Gemeinsam für den Schutz von Kindern
Was die Begrenzung von Nutzungszeiten und die Verhinderung einer handfesten Gaming-Sucht angeht, liegt natürlich ein großer Teil der Verantwortung bei den Eltern. Aber angesichts der Vielzahl an anpassbaren Ressourcen, Sicherheitsfunktionen und verfügbaren Support-Agents gibt Roblox Eltern die Werkzeuge und Informationen an die Hand, die sie brauchen, um das Spielerlebnis ihrer Kinder zu steuern. Keine komplizierten Hürden, keine endlos langen Wartezeiten – sondern einfache, optimierte Prozesse und ein hilfreiches Team von Customer-Experience-Profis, die bereit sind zu helfen.
Sie möchten mehr darüber erfahren, warum es wichtig ist, ethische digitale Produkte zu entwickeln, die auf das Wohlbefinden der Nutzer ausgerichtet sind? Hören Sie in diese Folge des Podcasts The Product Manager rein, in der wir mit Samantha Gonzalez (Director of Product Strategy bei DockYard, Inc.) über ethische Produktstrategien sprechen.
