Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Les utilisateurs de Claude doivent se retirer de la formation des données avant la date limite du 28 septembre

byEmre Çıtak
août 29, 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Anthropique est exécution De nouvelles procédures de traitement des données, obligeant tous les utilisateurs de Claude à décider d’ici le 28 septembre si leurs conversations peuvent être utilisées pour la formation du modèle d’IA. La société a donné des enquêtes sur son article de blog sur les changements de politique, mais les analyses externes ont tenté de déterminer les raisons des révisions.

Le changement de base implique que Anthropic cherche désormais à former ses systèmes d’IA à l’aide de conversations utilisateur et de séances de codage. Auparavant, Anthropic n’utilisait pas les données de chat des consommateurs pour la formation des modèles. Désormais, la rétention des données sera prolongée à cinq ans pour les utilisateurs qui ne se retirent pas de cet accord d’utilisation des données. Cela représente un changement significatif par rapport aux pratiques précédentes.

Auparavant, les utilisateurs des produits de consommation d’Anthropic ont été informés que leurs invites et les sorties de conversation résultantes seraient automatiquement supprimées des systèmes back-end d’Anthropic dans les 30 jours. L’exception s’est produite si les exigences légales ou politiques ont dicté une période de rétention plus longue ou si la contribution d’un utilisateur a été signalée pour violer les politiques de l’entreprise. Dans de tels cas, les entrées et sorties utilisateur pourraient être conservées jusqu’à deux ans.

Les nouvelles politiques s’appliquent spécifiquement aux utilisateurs de Claude Free, Pro et Max, y compris les utilisateurs de Claude Code. Les clients commerciaux utilisant Claude Gov, Claude pour le travail, Claude pour l’éducation ou ceux qui accédaient à la plate-forme via son API, sont exemptés de ces changements. Cela reflète une approche similaire adoptée par OpenAI, qui protège les clients d’entreprise des politiques de formation des données.

Anthropic a encadré le changement en déclarant que les utilisateurs qui ne se déshabillent pas «nous aideront à améliorer la sécurité des modèles, ce qui rend nos systèmes pour détecter le contenu nocif plus précis et moins susceptible de signaler les conversations inoffensives». La société a ajouté que ces données «aideront également les futurs modèles Claude à s’améliorer à des compétences telles que le codage, l’analyse et le raisonnement, conduisant finalement à de meilleurs modèles pour tous les utilisateurs».

Ce cadrage présente le changement de politique comme un effort de collaboration pour améliorer le modèle d’IA. Cependant, une analyse externe suggère que la motivation sous-jacente est plus complexe, enracinée dans des pressions concurrentielles au sein de l’industrie de l’IA. À savoir, anthropique, comme d’autres sociétés de modèles de grandes langues, nécessite des données substantielles pour former efficacement ses modèles d’IA. L’accès à des millions d’interactions Claude fournirait le contenu réel nécessaire pour améliorer la position d’Anthropic contre des concurrents tels qu’Openai et Google.

Les révisions politiques reflètent également les tendances de l’industrie plus larges concernant les politiques de données. Des entreprises comme Anthropic et Openai sont confrontées à un examen approfondi concernant leurs pratiques de conservation des données. OpenAI, par exemple, conteste actuellement une ordonnance du tribunal qui oblige l’entreprise à conserver indéfiniment toutes les conversations CHATGPT des consommateurs, y compris les chats supprimés. Cette commande découle d’un procès intenté par le New York Times et d’autres éditeurs.

En juin, le COO d’Openai Brad LightCap a décrit l’ordonnance du tribunal comme «une demande de balayage et inutile» qui «est fondamentalement en conflit avec les engagements de confidentialité que nous avons pris envers nos utilisateurs». L’ordonnance du tribunal a un impact sur les utilisateurs de ChatGpt gratuits, plus, pro et de l’équipe. Les clients des entreprises et ceux qui ont des accords de rétention de données zéro restent non affectés.

Les modifications fréquentes des politiques d’utilisation ont suscité la confusion entre les utilisateurs. De nombreux utilisateurs ne connaissent pas ces politiques en évolution. Le rythme rapide des progrès technologiques signifie que les politiques de confidentialité sont soumises à un changement. Les changements sont souvent communiqués brièvement au milieu d’autres annonces de l’entreprise.

La mise en œuvre par Anthropic de sa nouvelle politique suit un modèle qui soulève des préoccupations concernant la sensibilisation des utilisateurs. Les nouveaux utilisateurs pourront sélectionner leur préférence pendant le processus d’inscription. Cependant, les utilisateurs existants sont présentés avec une fenêtre contextuelle étiquetée «Mises à jour des termes et politiques des consommateurs» dans un grand texte, accompagné d’un bouton «Accepter» noir proéminent. Un commutateur à bascule plus petit pour les autorisations de formation est situé ci-dessous, en plus petite impression, et est automatiquement réglé sur la position «ON».

La conception soulève des préoccupations que les utilisateurs pourraient rapidement cliquer sur «accepter» sans se rendre compte qu’ils acceptent le partage de données. Cette observation a été initialement rapportée par le Verge. Les enjeux de sensibilisation des utilisateurs sont importants. Les experts ont constamment averti que la complexité entourant l’IA rend difficile l’obtention d’un consentement significatif des utilisateurs.

La Federal Trade Commission (FTC) est précédemment intervenue dans ces questions. La FTC a averti les sociétés d’IA contre «changer subrepticement ses conditions d’utilisation ou sa politique de confidentialité, ou enterrant une divulgation derrière les hyperliens, en législatif ou en petits caractères.» Cet avertissement suggère un conflit potentiel avec les pratiques qui peuvent ne pas fournir une sensibilisation ou un consentement adéquat.

Le niveau actuel de surveillance de la FTC sur ces pratiques reste incertain. La commission fonctionne actuellement avec seulement trois de ses cinq commissaires. Une enquête a été soumise à la FTC pour déterminer si ces pratiques sont actuellement en cours.


Crédit d’image en vedette

Tags: AnthropiqueclaudeEn vedette

Related Posts

Fuite: SM8550 pourrait se lancer comme Snapdragon 8 Elite Gen 5

Fuite: SM8550 pourrait se lancer comme Snapdragon 8 Elite Gen 5

août 29, 2025
WhatsApp Beta teste des messages disparus d’une heure

WhatsApp Beta teste des messages disparus d’une heure

août 29, 2025
Apple Laak taquine une nouvelle sangle croisée pour l’iPhone 17

Apple Laak taquine une nouvelle sangle croisée pour l’iPhone 17

août 29, 2025
MAI-1 formé à Microsoft sur 15 000 GPU Nvidia H100

MAI-1 formé à Microsoft sur 15 000 GPU Nvidia H100

août 29, 2025
Huawei Mate TV Launch pour le 4 septembre

Huawei Mate TV Launch pour le 4 septembre

août 29, 2025
Les installations de mise à jour de Windows 11 Oobe commencent septembre 2025

Les installations de mise à jour de Windows 11 Oobe commencent septembre 2025

août 29, 2025

Recent Posts

  • La nouvelle recherche révèle que l’IA préfère le contenu d’autres IA
  • Intel Deal nous donne 10% de participation pour garder la fonderie en interne
  • Les utilisateurs de Claude doivent se retirer de la formation des données avant la date limite du 28 septembre
  • Fuite: SM8550 pourrait se lancer comme Snapdragon 8 Elite Gen 5
  • WhatsApp Beta teste des messages disparus d’une heure

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.