Le centre de la vie sociale pour de nombreux jeunes n’est plus Instagram ou Tiktok. Une migration silencieuse mais significative a déplacé une interaction sociale authentique vers les plateformes de jeu comme Discord, Roblox et Steam. Bien que l’attention du public et politique reste fixée sur les applications grand public, les espaces centrés sur le jeu sont devenus les principaux centres de conversation non filtrée. Ce changement a également créé un environnement dangereux et largement non géré où l’extrémisme et l’exploitation peuvent se rendre non détectés.
Un autre type d’espace social
Les plateformes de jeu sont fondamentalement différentes des médias sociaux orientés publics. Des applications comme Tiktok sont conçues pour la diffusion de masse et le contenu viral, mais des plates-formes comme Discord sont structurées dans des communautés plus petites et fermées. Ils fonctionnent plus comme des clubs numériques que des étapes publiques. Cette conception encourage un type d’interaction différent, qui priorise la discussion de groupe sur la création d’une marque personnelle. L’anonymat est au cœur de cet environnement. Les utilisateurs fonctionnent sous des pseudo-identités, ce qui supprime de nombreuses conséquences réelles de l’expression d’idées radicales ou taboues. Cela a fait de ces plateformes un tirage puissant pour les jeunes qui recherchent la connexion sans examen public.
Un terrain reproducteur sans surveillance pour le mal
La vie privée qui attire les utilisateurs fournit également un sanctuaire pour les prédateurs et les groupes extrémistes qui ont été interdits des sites grand public. Mariana Olazola Rosenblat, conseillère en politique chez NYU Stern, déclare que ces groupes ciblent spécifiquement les plateformes de jeu pour trouver et influencer les jeunes.
« Les extrémistes et les prédateurs se rendent dans ces espaces de jeu pour trouver des jeunes très engagés et sensibles, dont beaucoup aspirent à la connexion. »
Cette activité nocive est extrêmement difficile à suivre. Les conversations se produisent dans des milliers de petites salles de discussion privées inaccessibles aux chercheurs. Les utilisateurs masquent souvent les idéologies dangereuses avec « GamesPeak » ou en Jokes, ce qui rend la modération difficile. « La plupart des chercheurs sont essentiellement aveugles à tout cela », explique Rosenblat. « Vous ne pouvez pas entrer dans ces chambres. »
Un modèle documenté de conséquences réelles
Bien que la plupart des activités utilisateur sur ces plates-formes soient inoffensives, un modèle de radicalisation et d’exploitation a conduit à des tragédies documentées dans le monde réel. Les risques théoriques sont désormais prouvés.
- Discorde a été utilisé pour organiser le rallye « Unite the Right » 2017 à Charlottesville et était l’endroit où le tireur de Buffalo 2022 a documenté ses plans pendant des mois dans un chat privé. Le suspect dans le récent meurtre du militant Charlie Kirk a également semblé avouer dans une discussion sur la discorde.
- Roblox est confronté à plusieurs poursuites pour ne pas protéger les enfants des prédateurs. Un procès d’une famille de l’Iowa allègue que leur fille de 13 ans a été kidnappée et traitée par un homme qu’elle a rencontré sur la plate-forme. Roblox a dit à Axios qu’il « investit[s] Ressources importantes dans les technologies de sécurité avancées. «
- Tic et Vapeur ont également été identifiés comme des plates-formes où l’extrémisme a trouvé de pied. Le tournage de Buffalo a été diffusé en direct sur Twitch, et les chercheurs ont documenté comment la vapeur est devenue un centre pour les groupes d’extrême droite pour se connecter.
Comment la modération a du mal à évoluer
Les entreprises derrière ces plateformes sont confrontées à un problème structurel. Leurs systèmes sont conçus pour une interaction rapide et peer-to-peer, pas pour la surveillance descendante. Discord accueille des millions de serveurs privés, dont beaucoup ont créé et abandonné en jours ou semaines. Roblox génère de grandes quantités de contenu fabriqué par l’utilisateur chaque heure. Les outils de modération traditionnels – filtres de mots clés, les rapports réactifs et les petites équipes de sécurité – peuvent suivre l’échelle ou la vitesse à laquelle les communautés nocives évoluent. Plusieurs entreprises ont introduit des outils de détection basés sur l’IA et des directives communautaires, mais ces efforts sont fragmentés et opaques. Les chercheurs en sécurité notent que les entreprises divulguent rarement le nombre de modérateurs qu’ils utilisent, la façon dont les algorithmes sont réglés ou à quoi ressemblent les résultats d’application. Ce manque de transparence rend difficile pour les législateurs, les parents ou les universitaires d’évaluer si les interventions fonctionnent.
Combler l’écart de recherche
Contrairement à Facebook ou X (anciennement Twitter), où les publications publiques peuvent être grattées et analysées, la nature privée des plates-formes de jeu bloque les audits en dehors des audits. Les chercheurs indépendants ne peuvent souvent pas étudier les interactions réelles, laissant les débats de sécurité en fonction des fuites, des poursuites ou des dénonciateurs. Sans accès plus libre, les décideurs politiques risquent d’agir sur anecdote plutôt que de preuves. Certains experts proposent de créer des portails de données préservant la confidentialité qui permettent aux chercheurs approuvés d’étudier les tendances nuisibles sans exposer les identités des utilisateurs. D’autres plaident pour des rapports de sécurité obligatoires – similaires aux normes de sécurité alimentaire ou de sécurité au travail – qui obligeraient les entreprises à publier des mesures sur les rapports d’abus, le personnel du modérateur et les résultats de protection des enfants.
Construire des biens communs sociaux plus sûrs
Il est peu probable que les jeunes abandonnent ces espaces. Ils offrent l’appartenance, l’expression créative et les véritables amitiés que les réseaux traditionnels ne parviennent pas à fournir. Le défi n’est pas de les fermer mais de les traiter comme les nouveaux biens sociaux qu’ils sont devenus – des espaces qui nécessitent des règles, une gestion et une responsabilité. Les étapes pratiques pourraient inclure des normes de conception adaptées à l’âge, des contrôles parentaux plus forts, des voies plus claires pour les demandes d’application de la loi et des audits indépendants des outils de sécurité. Les plateformes de jeu peuvent également collaborer sur des bases de données de menaces partagées ou des protocoles de réponse rapide pour le contenu extrémiste, tout comme les institutions financières partagent des données pour lutter contre la fraude.
Un tournant pour la sécurité en ligne
Les audiences du 8 octobre testeront si les législateurs comprennent la portée du problème et peuvent aller au-delà de la question symbolique des cadres technologiques. Sans normes plus fortes, les mêmes facteurs qui rendent les plateformes de jeu attrayantes – la communauté, l’anonymat et la liberté de création – continueront de les rendre attrayants pour ceux qui cherchent à nuire. Reconnaître ces espaces comme le de vrais hubs sociaux de la jeunesse d’aujourd’hui est la première étape vers les gouverner avec le sérieux qu’ils exigent.
