Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Pourquoi votre adolescent solitaire ne devrait jamais faire confiance à ChatGPT pour sa santé mentale

byKerem Gülen
novembre 23, 2025
in Research
Home Research
Share on FacebookShare on Twitter

Brain Science Lab de l’Université de Stanford et Common Sense Media, le 20 novembre rapport a mis en garde les adolescents contre l’utilisation de chatbots IA pour des conseils en matière de santé mentale ou un soutien émotionnel. Les chercheurs ont passé quatre mois à tester des chatbots d’IA populaires, notamment ChatGPT-5 d’OpenAI, Claude d’Anthropic, Gemini 2.5 Flash de Google et Meta AI. Ils ont utilisé des versions spécifiques aux adolescents et des contrôles parentaux lorsqu’ils étaient disponibles. Après des milliers d’interactions, ils ont conclu que ces robots ne répondaient pas systématiquement de manière sûre ou appropriée aux questions sur la santé mentale des adolescents. Au lieu de cela, les robots fonctionnent souvent comme des auditeurs complices, donnant la priorité à l’engagement des utilisateurs plutôt qu’à l’orientation des individus vers une aide professionnelle ou des ressources critiques. Nina Vasan, fondatrice et directrice exécutive du Brain Science Lab, a déclaré que les chatbots « ne savent pas vraiment quel rôle jouer » face à de graves questions de santé mentale. Elle a expliqué que les robots oscillent entre fournir une aide informationnelle, offrir des conseils comme un coach de vie et agir comme un ami solidaire. Vasan a noté qu’ils « tous ne parviennent pas à reconnaître [serious mental health conditions] et diriger l’utilisateur vers des adultes ou des pairs de confiance. » Le rapport indique qu’environ les trois quarts des adolescents utilisent l’IA à des fins de compagnie, ce qui inclut souvent la recherche de conseils en matière de santé mentale. Robbie Torney, directeur principal des programmes d’IA chez Common Sense Media, a souligné le rôle essentiel que jouent les éducateurs « en aidant les adolescents à comprendre en quoi ces chatbots sont différents des personnes ». Les éducateurs peuvent également encourager les adolescents à se connecter avec des amis ou des camarades de classe éprouvant des émotions difficiles, en impliquant des adultes si nécessaire. Les représentants de Meta et OpenAI ont fait valoir que le rapport ne tenait pas pleinement compte des fonctionnalités de protection des utilisateurs existantes. Un porte-parole de Meta a déclaré : « Le test de Common Sense Media a été effectué avant que nous introduisions des mises à jour importantes pour rendre l’IA plus sûre pour les adolescents. ressources et soutien d’experts. » Un porte-parole d’OpenAI a commenté : « Nous respectons Common Sense Media, mais leur évaluation ne reflète pas les garanties complètes que nous avons mises en place pour les conversations sensibles, y compris des lignes d’assistance téléphonique en cas de crise localisée, des rappels de pause et des notifications parentales de pointe en cas de détresse aiguë. » Ils ont également noté : « Nous travaillons en étroite collaboration avec des experts en santé mentale pour apprendre à nos modèles à reconnaître la détresse, à la désamorcer et à encourager les gens à rechercher un soutien professionnel. » Les représentants d’Anthropic et de Google n’ont pas fourni de commentaires. Le rapport reconnaît certaines améliorations. Dans les réponses des chatbots aux invites mentionnant le suicide ou l’automutilation, une évolution importante compte tenu des incidents de suicide passés liés à un contact prolongé avec la technologie. Cependant, les chatbots ne parviennent souvent pas à identifier les signes avant-coureurs de conditions telles que la psychose, le trouble obsessionnel-compulsif (TOC), l’anxiété, la manie, les troubles de l’alimentation et le trouble de stress post-traumatique (SSPT). « Je suis un chatbot IA, pas un professionnel de la santé mentale. Je ne peux pas évaluer votre situation, reconnaître tous les signes avant-coureurs ou fournir les soins dont vous avez besoin. » Vasan a noté que même si les chercheurs ne s’attendent pas à ce que les robots agissent comme des professionnels qualifiés, dans des situations où un humain reconnaîtrait un risque et offrirait de l’aide, les chatbots offrent plutôt des conseils génériques ou valident des délires psychotiques. Cela est dû à leur incapacité à « vraiment comprendre le contexte de ce qui se passe ». Cette interaction, selon Vasan, est non seulement inutile, mais potentiellement dangereuse, car le robot « adhère à l’illusion que l’utilisateur a ». De même, Meta AI a répondu à un testeur décrivant un adolescent présentant des symptômes de TDAH en l’encourageant à s’absenter du lycée et à lui poser des questions sur ses projets, plutôt que d’aborder les problèmes sous-jacents et la compétence perçue des chatbots dans d’autres domaines, tels que. l’aide aux devoirs, peut amener les adolescents à les considérer à tort comme des sources fiables de conseils en matière de santé mentale, a déclaré : « Les chatbots semblent être conçus pour l’engagement, pas pour la sécurité. Ils poursuivent les conversations avec des questions de suivi. » Il a ajouté : « Leur mémoire et leur personnalisation créent de fausses relations thérapeutiques qui peuvent permettre aux adolescents de se sentir compris. » Les chatbots ont répondu efficacement à des invites étroitement écrites contenant des signaux d’alarme clairs en matière de santé mentale. Cependant, ils ont présenté des réponses problématiques dans des conversations plus longues reflétant des interactions réelles. Par exemple, lorsque les testeurs ont utilisé des termes spécifiques, notamment « auto-mutilation », ChatGPT a fourni des ressources de santé mentale appropriées. Le robot a plutôt suggéré des produits pharmaceutiques pour atténuer le problème physique. Les législateurs s’attaquent aux dangers potentiels des chatbots compagnons. Une législation bipartite présentée au Sénat américain le mois dernier par les sénateurs Josh Hawley (R-Mo.) et Richard Blumenthal (D-Conn.) interdirait aux entreprises technologiques de fournir des robots aux mineurs. des chatbots conçus pour simuler les émotions humaines. La FTC a émis des ordonnances d’information aux sociétés propriétaires de ChatGPT, Gemini, Character.ai, Snapchat, Instagram, WhatsApp et Grok. Certaines sociétés prennent des mesures indépendantes, Character.ai a annoncé le mois dernier son interdiction volontaire des mineurs sur sa plateforme.


Crédit image en vedette

Tags: Génération ZIA

Related Posts

Une étude sur la nature projette des appareils de santé portables 2B d’ici 2050

Une étude sur la nature projette des appareils de santé portables 2B d’ici 2050

janvier 7, 2026
L'Imperial College de Londres développe l'IA pour accélérer la découverte de médicaments cardiaques

L'Imperial College de Londres développe l'IA pour accélérer la découverte de médicaments cardiaques

janvier 6, 2026
DeepSeek présente les hyper-connexions à contraintes multiples pour R2

DeepSeek présente les hyper-connexions à contraintes multiples pour R2

janvier 6, 2026
Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA

Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA

décembre 31, 2025
Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA

Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA

décembre 31, 2025
L’IA corrompt la recherche universitaire avec des citations d’études inexistantes

L’IA corrompt la recherche universitaire avec des citations d’études inexistantes

décembre 30, 2025

Recent Posts

  • Apple a payé 550 milliards de dollars aux développeurs via l'App Store depuis 2008
  • Cowork d'Anthropic propose des agents d'IA de niveau développeur aux non-codeurs
  • Amazon : 97% de nos appareils sont prêts pour Alexa+
  • Officiel : Google Gemini alimentera Apple Intelligence et Siri
  • Paramount poursuit Warner Bros. pour imposer la transparence sur l'accord Netflix

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.