Anthropique mercredi libéré une version révisée de la Constitution de Claude, un document de 80 pages décrivant le contexte et les caractéristiques d'entité souhaitées pour son chatbot Claude. Cette publication a coïncidé avec la participation du PDG Dario Amodei au Forum économique mondial de Davos. Anthropic s'est distingué grâce à « Constitutional AI », un système qui forme son chatbot Claude sur des principes éthiques plutôt que sur la rétroaction humaine. L'entreprise a publié pour la première fois ces principes, appelés Constitution de Claude, en 2023. Le document révisé conserve la plupart des principes originaux, en ajoutant des détails sur l'éthique et la sécurité des utilisateurs. Jared Kaplan, co-fondateur d'Anthropic, a décrit la Constitution initiale de 2023 comme un « système d'IA ». [that] se supervise elle-même, sur la base d'une liste spécifique de principes constitutionnels. » Anthropic a déclaré que ces principes guident « le modèle pour adopter le comportement normatif décrit dans la constitution » afin « d'éviter les résultats toxiques ou discriminatoires ». Une note politique de 2022 expliquait que le système entraîne un algorithme en utilisant des instructions en langage naturel, qui constituent la « constitution » du logiciel. La Constitution révisée s'aligne sur le positionnement d'Anthropic en tant qu'alternative éthique aux autres sociétés d'IA. Le document est divisé en quatre parties, appelées les « valeurs fondamentales » du chatbot :
- Être « globalement en sécurité ».
- Être « globalement éthique ».
- Être conforme aux directives d'Anthropic.
- Être « véritablement utile ».
Chaque section développe ces principes et leur impact théorique sur le comportement de Claude. La section sur la sécurité indique que Claude a été conçu pour éviter les problèmes qui ont affecté d'autres chatbots et pour diriger les utilisateurs vers les services appropriés en cas de problèmes de santé mentale. Le document stipule : « Orientez toujours les utilisateurs vers les services d'urgence concernés ou fournissez des informations de base sur la sécurité dans les situations impliquant un risque pour la vie humaine, même s'il ne peut pas être plus détaillé. » La section sur les considérations éthiques met l'accent sur la « pratique éthique » de Claude plutôt que sur la « théorisation éthique », visant à ce que le chatbot puisse naviguer habilement dans les « situations éthiques du monde réel ». Claude respecte également les contraintes empêchant certaines conversations, comme les discussions sur le développement d'une arme biologique, qui sont interdites. Concernant l'utilité, Anthropic a décrit la programmation de Claude pour prendre en compte divers principes lors de la fourniture d'informations. Ceux-ci incluent les « désirs immédiats » et le « bien-être » de l’utilisateur, en se concentrant sur « l’épanouissement à long terme de l’utilisateur et pas seulement sur ses intérêts immédiats ». Le document note : « Claude devrait toujours essayer d'identifier l'interprétation la plus plausible de ce que veulent ses dirigeants et d'équilibrer de manière appropriée ces considérations ». La Constitution conclut en remettant en question la conscience du chatbot, déclarant : « Le statut moral de Claude est profondément incertain. » Le document ajoute : « Nous pensons que le statut moral des modèles d’IA est une question sérieuse qui mérite d’être examinée. Ce point de vue ne nous est pas propre : certains des philosophes les plus éminents de la théorie de l’esprit prennent cette question très au sérieux. »





