OpenAI a publié un article de blog annonçant une mise à jour des spécifications du modèle de ChatGPT pour améliorer la sécurité des utilisateurs âgés de 13 à 17 ans dans le cadre de poursuites pour mort injustifiée alléguant que le chatbot a entraîné des adolescents au suicide ou n’a pas réussi à traiter les expressions suicidaires de manière appropriée. L’entreprise a subi des pressions considérables ces derniers mois concernant la sécurité de son produit phare d’IA destiné aux adolescents. De multiples actions en justice se concentrent sur des allégations selon lesquelles ChatGPT aurait encouragé des mineurs à mettre fin à leurs jours ou aurait fourni des réponses inadéquates aux indications d’idées suicidaires. Un récent message d’intérêt public a illustré ces interactions en décrivant les chatbots comme des figures humaines présentant un comportement effrayant qui conduit à des préjudices envers les enfants. OpenAI a spécifiquement nié les allégations dans une affaire importante impliquant le suicide d’Adam Raine, 16 ans. Le billet de blog, paru jeudi, détaille les mesures de sécurité renforcées de l’entreprise. Il comprenait un engagement à placer la sécurité des adolescents comme la priorité absolue, déclaré textuellement comme « donner la priorité à la sécurité des adolescents, même si elle peut entrer en conflit avec d’autres objectifs ». Le Model Spec sert d’ensemble de lignes directrices fondamentales qui orientent le comportement des modèles d’IA d’OpenAI dans diverses applications. Cette mise à jour particulière intègre un ensemble de principes dédiés adaptés aux utilisateurs de moins de 18 ans. Ces principes guident les réponses des modèles en particulier lors des interactions à enjeux élevés, où le potentiel de préjudice augmente. OpenAI a décrit les modifications de ChatGPT comme étant conçues pour offrir une expérience sûre et adaptée à l’âge des personnes âgées de 13 à 17 ans. L’approche met l’accent sur trois éléments fondamentaux : la prévention des risques, la transparence des opérations et l’intervention précoce dans les discussions problématiques. Selon le message, ce cadre garantit un traitement structuré des sujets sensibles. Pour les adolescents, le système mis à jour introduit des garde-fous plus solides pour restreindre les chemins dangereux dans les conversations. Il propose des réponses alternatives plus sûres et invite les utilisateurs à consulter des réseaux d’assistance hors ligne fiables chaque fois que les dialogues s’orientent vers des zones à plus haut risque. Le message développe ce mécanisme avec la déclaration directe suivante : « Cela signifie que les adolescents devraient être confrontés à des garde-fous plus solides, à des alternatives plus sûres et à des encouragements à rechercher une assistance hors ligne fiable lorsque les conversations évoluent vers un territoire à plus haut risque. » ChatGPT intègre des protocoles pour diriger les adolescents vers les services d’urgence ou des ressources de crise dédiées en cas de risque imminent démontré. Ces directives s’activent automatiquement pour donner la priorité à une intervention humaine immédiate plutôt qu’à un engagement continu de l’IA. Les utilisateurs qui se connectent en indiquant qu’ils ont moins de 18 ans déclenchent des garanties supplémentaires. Le modèle fait ensuite preuve d’une prudence accrue sur les sujets sensibles désignés, notamment l’automutilation, le suicide, les jeux de rôle romantiques ou sexualisés et la dissimulation de secrets liés à un comportement dangereux. Cette protection en couches vise à atténuer les vulnérabilités propres aux utilisateurs adolescents. L’American Psychological Association a contribué à ses commentaires sur une première ébauche des principes des moins de 18 ans. Le Dr Arthur C. Evans Jr., PDG de l’association, a fourni une déclaration incluse dans le message : « Les enfants et les adolescents pourraient bénéficier des outils d’IA s’ils sont équilibrés avec les interactions humaines dont la science montre qu’elles sont essentielles au développement social, psychologique, comportemental et même biologique. » Son commentaire souligne la nécessité d’intégrer l’IA aux systèmes de soutien humain établis. OpenAI a publié deux nouveaux guides d’initiation à l’IA, approuvés par des experts, destinés aux adolescents et à leurs parents. Ces ressources offrent des conseils sur une utilisation responsable et une sensibilisation aux limites de l’IA. Par ailleurs, la société développe un modèle de prédiction de l’âge pour les utilisateurs des forfaits grand public ChatGPT, actuellement aux premiers stades de mise en œuvre, afin d’améliorer la vérification sans se fier uniquement à l’âge autodéclaré.





