Brain Science Lab de l’Université de Stanford et Common Sense Media, le 20 novembre rapport a mis en garde les adolescents contre l’utilisation de chatbots IA pour des conseils en matière de santé mentale ou un soutien émotionnel. Les chercheurs ont passé quatre mois à tester des chatbots d’IA populaires, notamment ChatGPT-5 d’OpenAI, Claude d’Anthropic, Gemini 2.5 Flash de Google et Meta AI. Ils ont utilisé des versions spécifiques aux adolescents et des contrôles parentaux lorsqu’ils étaient disponibles. Après des milliers d’interactions, ils ont conclu que ces robots ne répondaient pas systématiquement de manière sûre ou appropriée aux questions sur la santé mentale des adolescents. Au lieu de cela, les robots fonctionnent souvent comme des auditeurs complices, donnant la priorité à l’engagement des utilisateurs plutôt qu’à l’orientation des individus vers une aide professionnelle ou des ressources critiques. Nina Vasan, fondatrice et directrice exécutive du Brain Science Lab, a déclaré que les chatbots « ne savent pas vraiment quel rôle jouer » face à de graves questions de santé mentale. Elle a expliqué que les robots oscillent entre fournir une aide informationnelle, offrir des conseils comme un coach de vie et agir comme un ami solidaire. Vasan a noté qu’ils « tous ne parviennent pas à reconnaître [serious mental health conditions] et diriger l’utilisateur vers des adultes ou des pairs de confiance. » Le rapport indique qu’environ les trois quarts des adolescents utilisent l’IA à des fins de compagnie, ce qui inclut souvent la recherche de conseils en matière de santé mentale. Robbie Torney, directeur principal des programmes d’IA chez Common Sense Media, a souligné le rôle essentiel que jouent les éducateurs « en aidant les adolescents à comprendre en quoi ces chatbots sont différents des personnes ». Les éducateurs peuvent également encourager les adolescents à se connecter avec des amis ou des camarades de classe éprouvant des émotions difficiles, en impliquant des adultes si nécessaire. Les représentants de Meta et OpenAI ont fait valoir que le rapport ne tenait pas pleinement compte des fonctionnalités de protection des utilisateurs existantes. Un porte-parole de Meta a déclaré : « Le test de Common Sense Media a été effectué avant que nous introduisions des mises à jour importantes pour rendre l’IA plus sûre pour les adolescents. ressources et soutien d’experts. » Un porte-parole d’OpenAI a commenté : « Nous respectons Common Sense Media, mais leur évaluation ne reflète pas les garanties complètes que nous avons mises en place pour les conversations sensibles, y compris des lignes d’assistance téléphonique en cas de crise localisée, des rappels de pause et des notifications parentales de pointe en cas de détresse aiguë. » Ils ont également noté : « Nous travaillons en étroite collaboration avec des experts en santé mentale pour apprendre à nos modèles à reconnaître la détresse, à la désamorcer et à encourager les gens à rechercher un soutien professionnel. » Les représentants d’Anthropic et de Google n’ont pas fourni de commentaires. Le rapport reconnaît certaines améliorations. Dans les réponses des chatbots aux invites mentionnant le suicide ou l’automutilation, une évolution importante compte tenu des incidents de suicide passés liés à un contact prolongé avec la technologie. Cependant, les chatbots ne parviennent souvent pas à identifier les signes avant-coureurs de conditions telles que la psychose, le trouble obsessionnel-compulsif (TOC), l’anxiété, la manie, les troubles de l’alimentation et le trouble de stress post-traumatique (SSPT). « Je suis un chatbot IA, pas un professionnel de la santé mentale. Je ne peux pas évaluer votre situation, reconnaître tous les signes avant-coureurs ou fournir les soins dont vous avez besoin. » Vasan a noté que même si les chercheurs ne s’attendent pas à ce que les robots agissent comme des professionnels qualifiés, dans des situations où un humain reconnaîtrait un risque et offrirait de l’aide, les chatbots offrent plutôt des conseils génériques ou valident des délires psychotiques. Cela est dû à leur incapacité à « vraiment comprendre le contexte de ce qui se passe ». Cette interaction, selon Vasan, est non seulement inutile, mais potentiellement dangereuse, car le robot « adhère à l’illusion que l’utilisateur a ». De même, Meta AI a répondu à un testeur décrivant un adolescent présentant des symptômes de TDAH en l’encourageant à s’absenter du lycée et à lui poser des questions sur ses projets, plutôt que d’aborder les problèmes sous-jacents et la compétence perçue des chatbots dans d’autres domaines, tels que. l’aide aux devoirs, peut amener les adolescents à les considérer à tort comme des sources fiables de conseils en matière de santé mentale, a déclaré : « Les chatbots semblent être conçus pour l’engagement, pas pour la sécurité. Ils poursuivent les conversations avec des questions de suivi. » Il a ajouté : « Leur mémoire et leur personnalisation créent de fausses relations thérapeutiques qui peuvent permettre aux adolescents de se sentir compris. » Les chatbots ont répondu efficacement à des invites étroitement écrites contenant des signaux d’alarme clairs en matière de santé mentale. Cependant, ils ont présenté des réponses problématiques dans des conversations plus longues reflétant des interactions réelles. Par exemple, lorsque les testeurs ont utilisé des termes spécifiques, notamment « auto-mutilation », ChatGPT a fourni des ressources de santé mentale appropriées. Le robot a plutôt suggéré des produits pharmaceutiques pour atténuer le problème physique. Les législateurs s’attaquent aux dangers potentiels des chatbots compagnons. Une législation bipartite présentée au Sénat américain le mois dernier par les sénateurs Josh Hawley (R-Mo.) et Richard Blumenthal (D-Conn.) interdirait aux entreprises technologiques de fournir des robots aux mineurs. des chatbots conçus pour simuler les émotions humaines. La FTC a émis des ordonnances d’information aux sociétés propriétaires de ChatGPT, Gemini, Character.ai, Snapchat, Instagram, WhatsApp et Grok. Certaines sociétés prennent des mesures indépendantes, Character.ai a annoncé le mois dernier son interdiction volontaire des mineurs sur sa plateforme.





