Skip to main content

La nature addictive des réseaux sociaux et leur impact négatif sur notre santé mentale — en particulier pour les jeunes dont le cerveau est en développement — n’est plus vraiment un concept nouveau. Une génération d’enfants élevés à l’iPad fait face à des taux alarmants de dépression, d’anxiété, et à une durée d’attention qui rétrécit plus vite que des chaussettes en laine dans un sèche-linge brûlant.

Mais des entreprises comme Alphabet (qui gère Google et YouTube) soutiennent que ce n’est pas de leur faute, et que la protection des enfants a « toujours été au cœur de leur mission. »

sure jam GIF

Eh bien, beaucoup d’Américains — et même des districts scolaires entiers — ne sont absolument pas d’accord. Aujourd’hui, quatre géants des réseaux sociaux, Alphabet, Meta (Facebook/Instagram), ByteDance (TikTok) et Snap (SnapChat), font face à un déluge de poursuites judiciaires.

Unlock the CX Vault

Sign up for free to access all CX Lead articles, exclusive events, premium resources, our expert newsletter, and more!

Step 1 of 3

Name*
This field is hidden when viewing the form

Pour se défendre, les entreprises ont plaidé qu’elles étaient protégées contre les poursuites, demandant le rejet de toutes les plaintes à leur encontre. Invoquant le Premier Amendement de la Constitution américaine et une disposition de la loi fédérale sur la décence des communications, la Section 230 accorde une immunité aux sociétés de réseaux sociaux quant à la responsabilité du contenu publié par leurs utilisateurs sur leurs plateformes.

Dans une décision historique rendue mardi dernier, la juge fédérale Yvonne Gonzalez Rogers a statué contre les « quatre cavaliers de l’apocalypse sanitaire mentale », leur refusant la protection contre les litiges. Désormais, ils devront rendre des comptes.

Selon Rogers, le problème ne se limite pas au simple fait que du contenu tiers influence des esprits impressionnables — les entreprises ont la responsabilité légale de concevoir des produits raisonnablement sûrs et d'avertir les utilisateurs des défauts connus. En négligeant d’aider les utilisateurs à limiter leur temps d’écran, en utilisant des outils inefficaces de vérification de l’âge, et en rendant difficile la désactivation des comptes, les développeurs de réseaux sociaux ne peuvent pas se défausser sur les créateurs de contenu.

En tant que professionnel(le) de l’expérience client (CX), avez-vous des idées pour aider les réseaux sociaux à offrir des expériences plus sûres à leurs utilisateurs ? Comme nous en avons déjà discuté, établir une relation de confiance avec vos clients est ultra-important. Que devraient faire ces entreprises pour regagner la confiance des armées de parents inquiets, des conseils scolaires et même des législateurs ?

La sécurité d’abord : quelles entreprises montrent l’exemple ?

L’une des suggestions de Rogers pour rendre les réseaux sociaux plus sûrs pour les enfants était la mise en place d’outils de vérification de l’âge qui informent les parents quand leurs enfants sont en ligne — mais cela, à lui seul, ne mettra évidemment pas fin à une véritable crise de la santé mentale. Où peut-on trouver d’autres exemples de fonctionnalités efficaces pour la sécurité des enfants dans le numérique ?

Peut-être que M. Zuckerberg devrait prendre exemple sur les experts : Roblox.

roblox safety guide for parents photo

Pour ceux d’entre vous qui ne connaissent pas bien l’univers des jeux vidéo pour préadolescents, Roblox est une plateforme qui permet à ses utilisateurs — majoritairement des enfants — de créer et de mettre en ligne leurs propres jeux vidéo, et d’explorer les créations des autres. C’est gratuit, mais on peut débloquer des fonctionnalités payantes pour accéder à plus de contenu. Comme sur de nombreux réseaux sociaux, Roblox permet d’envoyer des demandes d’amis et de discuter en ligne.

Quatre-vingts pour cent de ses utilisateurs ont moins de 16 ans. Avec 70,2 millions d’utilisateurs quotidiens et 214 millions d’utilisateurs mensuels, cette plateforme de jeu tutoie Minecraft et Fortnite en termes de popularité auprès des enfants. Bien sûr, Roblox n’a pas un casier vierge en matière d’enjeux de sécurité des enfants. Toutefois, ils font de gros efforts pour appliquer des fonctionnalités de sécurité, avec de nombreuses ressources à disposition des parents pour leur permettre de surveiller efficacement l’activité de leurs enfants. Il existe également de nombreux forums tiers où les parents peuvent demander conseils et soutien pour aider leurs enfants à jouer de façon responsable.

Service client 24h/24 et 7j/7 et lignes d'assistance sécurité

Roblox s’assure qu’il y ait toujours quelqu’un pour répondre au plus vite aux préoccupations des parents. C’est, selon nous, une excellente stratégie CX ! Ils ont aussi constitué un conseil consultatif Trust & Safety qui rassemble des experts mondiaux de la sécurité numérique.

Une immense équipe de modérateurs, renforcée par l’IA

Chaque contenu mis en ligne sur Roblox passe des contrôles de sécurité rigoureux. L’entreprise emploie actuellement plus de 1 600 modérateurs pour surveiller les contenus et chats inappropriés. Après avoir mis en œuvre un logiciel d’apprentissage automatique pour renforcer ses mesures de modération, Roblox a observé une réduction de 84 % du nombre d’utilisateurs exposés à des violations de la politique.

Classement des contenus par tranche d’âge

Certaines activités contiennent des éléments de violence modérée, donc Roblox classe le contenu en conséquence. Par exemple, un jeu avec des chevaliers munis d’épées se verra attribuer une cote 13+, tandis que les jeux les plus doux obtiendront une étiquette 9+.

Contrôles parentaux personnalisables

Pour les parents qui ne souhaitent pas que leurs enfants utilisent la messagerie, il est possible de désactiver ou restreindre cette fonctionnalité. S’ils l’autorisent, les parents peuvent facilement surveiller les historiques de discussion et les demandes d’amis. Ils peuvent aussi personnaliser l’accès aux différents jeux et expériences en fonction de l’âge recommandé, et mettre des limites sur les dépenses pour éviter les mauvaises surprises sur leur relevé bancaire.

Coopérer pour mieux protéger les enfants

Bien sûr, en ce qui concerne la limitation du temps d’écran et la prévention d’une véritable addiction au jeu vidéo, la responsabilité reste en grande partie entre les mains des parents. Mais au vu de la palette d’outils personnalisables, des dispositifs de sécurité et du nombre d’agents de support disponibles, Roblox donne aux parents les moyens de contrôler les expériences de jeu de leurs enfants. Pas de procédures étonnamment complexes ni d’interminables délais d’attente : simplement des processus clairs, efficaces, et une équipe d’agents CX prête à aider.

Vous souhaitez en savoir plus sur l’importance de développer des produits numériques éthiques qui mettent le bien-être utilisateur au premier plan ? Découvrez cet épisode du podcast The Product Manager, où nous échangeons avec Samantha Gonzalez, directrice de la stratégie produit chez DockYard, Inc., pour parler de stratégies produit éthiques.