Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Anthropic révise la Constitution de Claude avec de nouveaux principes d'éthique de sécurité

byEmre Çıtak
janvier 22, 2026
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Anthropique mercredi libéré une version révisée de la Constitution de Claude, un document de 80 pages décrivant le contexte et les caractéristiques d'entité souhaitées pour son chatbot Claude. Cette publication a coïncidé avec la participation du PDG Dario Amodei au Forum économique mondial de Davos. Anthropic s'est distingué grâce à « Constitutional AI », un système qui forme son chatbot Claude sur des principes éthiques plutôt que sur la rétroaction humaine. L'entreprise a publié pour la première fois ces principes, appelés Constitution de Claude, en 2023. Le document révisé conserve la plupart des principes originaux, en ajoutant des détails sur l'éthique et la sécurité des utilisateurs. Jared Kaplan, co-fondateur d'Anthropic, a décrit la Constitution initiale de 2023 comme un « système d'IA ». [that] se supervise elle-même, sur la base d'une liste spécifique de principes constitutionnels. » Anthropic a déclaré que ces principes guident « le modèle pour adopter le comportement normatif décrit dans la constitution » afin « d'éviter les résultats toxiques ou discriminatoires ». Une note politique de 2022 expliquait que le système entraîne un algorithme en utilisant des instructions en langage naturel, qui constituent la « constitution » du logiciel. La Constitution révisée s'aligne sur le positionnement d'Anthropic en tant qu'alternative éthique aux autres sociétés d'IA. Le document est divisé en quatre parties, appelées les « valeurs fondamentales » du chatbot :

  • Être « globalement en sécurité ».
  • Être « globalement éthique ».
  • Être conforme aux directives d'Anthropic.
  • Être « véritablement utile ».

Chaque section développe ces principes et leur impact théorique sur le comportement de Claude. La section sur la sécurité indique que Claude a été conçu pour éviter les problèmes qui ont affecté d'autres chatbots et pour diriger les utilisateurs vers les services appropriés en cas de problèmes de santé mentale. Le document stipule : « Orientez toujours les utilisateurs vers les services d'urgence concernés ou fournissez des informations de base sur la sécurité dans les situations impliquant un risque pour la vie humaine, même s'il ne peut pas être plus détaillé. » La section sur les considérations éthiques met l'accent sur la « pratique éthique » de Claude plutôt que sur la « théorisation éthique », visant à ce que le chatbot puisse naviguer habilement dans les « situations éthiques du monde réel ». Claude respecte également les contraintes empêchant certaines conversations, comme les discussions sur le développement d'une arme biologique, qui sont interdites. Concernant l'utilité, Anthropic a décrit la programmation de Claude pour prendre en compte divers principes lors de la fourniture d'informations. Ceux-ci incluent les « désirs immédiats » et le « bien-être » de l’utilisateur, en se concentrant sur « l’épanouissement à long terme de l’utilisateur et pas seulement sur ses intérêts immédiats ». Le document note : « Claude devrait toujours essayer d'identifier l'interprétation la plus plausible de ce que veulent ses dirigeants et d'équilibrer de manière appropriée ces considérations ». La Constitution conclut en remettant en question la conscience du chatbot, déclarant : « Le statut moral de Claude est profondément incertain. » Le document ajoute : « Nous pensons que le statut moral des modèles d’IA est une question sérieuse qui mérite d’être examinée. Ce point de vue ne nous est pas propre : certains des philosophes les plus éminents de la théorie de l’esprit prennent cette question très au sérieux. »


Crédit image en vedette

Tags: AnthropiqueEn vedette

Related Posts

Substack s'installe dans le salon avec le lancement de l'application bêta TV

Substack s'installe dans le salon avec le lancement de l'application bêta TV

janvier 23, 2026
JBL lance des amplis BandBox alimentés par l'IA

JBL lance des amplis BandBox alimentés par l'IA

janvier 23, 2026
Google déploie l'opt-in "Intelligence personnelle" pour les utilisateurs AI Pro et Ultra

Google déploie l'opt-in "Intelligence personnelle" pour les utilisateurs AI Pro et Ultra

janvier 23, 2026
Spotify lance des listes de lecture guidées basées sur l'IA

Spotify lance des listes de lecture guidées basées sur l'IA

janvier 22, 2026
Snap déploie un suivi granulaire du temps d'écran dans la mise à jour de Family Center

Snap déploie un suivi granulaire du temps d'écran dans la mise à jour de Family Center

janvier 22, 2026
Google Photos repense le partage avec un carrousel plein écran immersif

Google Photos repense le partage avec un carrousel plein écran immersif

janvier 22, 2026

Recent Posts

  • Barret Zoph dirigera le pivot commercial agressif d'OpenAI
  • Substack s'installe dans le salon avec le lancement de l'application bêta TV
  • LiveKit est valorisé à 1 milliard de dollars en tant que moteur du mode vocal de ChatGPT
  • Vimeo commence à licencier du personnel suite à l'acquisition de Bending Spoons
  • AWS et Prime Video frappés alors qu'Amazon prépare une nouvelle vague de licenciements

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.