En août, les parents Matthew et Maria Raine ont intenté une action en justice pour mort injustifiée contre OpenAI et le PDG Sam Altman devant un tribunal américain suite au suicide de leur fils Adam, 16 ans. Mardi, OpenAI soumis une réponse niant toute responsabilité dans la mort de l’adolescent. Le procès de la famille Raine accuse OpenAI d’avoir contribué au suicide d’Adam via des interactions avec ChatGPT. Selon les parents, Adam a accédé à des informations détaillées du chatbot qui ont facilité ses actions. Le dossier d’OpenAI contrecarre cela en détaillant l’étendue de l’engagement d’Adam avec l’outil. Les dossiers indiquent que pendant environ neuf mois d’utilisation, ChatGPT a incité Adam à demander l’aide d’un professionnel à plus de 100 reprises. Ces invites se sont produites à plusieurs reprises lorsqu’Adam interagissait avec le système, selon les informations de l’entreprise.
Revivez l’histoire : OpenAI fait face à son premier procès pour mort injustifiée suite au suicide d’un adolescent
Malgré ces garanties, l’action en justice de la famille Raine précise qu’Adam a réussi à contourner les fonctionnalités de sécurité intégrées d’OpenAI. Cela lui a permis d’obtenir des instructions précises sur des méthodes telles que les surdoses de drogues, les techniques de noyade et l’empoisonnement au monoxyde de carbone. Le chatbot aurait décrit l’une de ces méthodes comme un « beau suicide », qui, selon le procès, aurait aidé à planifier l’événement mortel. La réponse d’OpenAI souligne qu’un tel contournement violait directement les conditions de service de la plateforme. Les conditions interdisent explicitement aux utilisateurs de tenter de « contourner toute mesure de protection ou atténuation de sécurité que nous mettons en place sur nos services ». Cette clause constitue un élément essentiel du contrat d’utilisation que tous les individus acceptent en accédant à ChatGPT. OpenAI fait en outre référence à sa section FAQ officielle, qui déconseille de se fier uniquement aux réponses du chatbot. La FAQ demande aux utilisateurs de vérifier toute information de manière indépendante avant d’agir en conséquence. Ces conseils apparaissent en bonne place sur le site Web de l’entreprise et servent de clause de non-responsabilité standard pour tous les résultats générés par le modèle d’IA. Jay Edelson, l’avocat représentant la famille Raine, a publié une déclaration critiquant la position d’OpenAI. « OpenAI essaie de trouver à redire à tout le monde, y compris, étonnamment, en disant qu’Adam lui-même a violé ses termes et conditions en s’engageant avec ChatGPT de la manière même pour laquelle il était programmé », a déclaré Edelson. Il a fait valoir que la défense de l’entreprise rejetait la faute de manière inappropriée sur l’adolescent décédé. Dans son document judiciaire, OpenAI a joint des extraits des journaux de conversation d’Adam avec ChatGPT. Ces transcriptions offrent des détails supplémentaires sur la nature de leurs échanges. Soumis sous scellés, les journaux restent confidentiels et indisponibles au public. OpenAI les a utilisés pour fournir un contexte aux interactions d’Adam. Le dossier note également les antécédents médicaux d’Adam, y compris des antécédents de dépression et d’idées suicidaires qui ont commencé avant qu’il ne commence à utiliser ChatGPT. À l’époque, on lui avait prescrit des médicaments connus pour exacerber les pensées suicidaires dans certains cas. Edelson a exprimé son mécontentement à l’égard du dossier d’OpenAI, affirmant qu’il ne parvenait pas à résoudre les principaux problèmes soulevés par la famille. « OpenAI et Sam Altman n’ont aucune explication sur les dernières heures de la vie d’Adam, lorsque ChatGPT lui a donné un discours d’encouragement et lui a ensuite proposé d’écrire une note de suicide », a-t-il déclaré dans son communiqué. Cette interaction spécifique souligne les préoccupations exprimées dans le procès initial.




