Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Anthropic fait face à un essai sur les livres de formation d’IA piratés

byEmre Çıtak
juillet 29, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Un recours collectif contre Anthropic, alléguant que l’entreprise a utilisé des livres piratés de bibliothèques fantômes comme Libgen et Pilimi pour former ses modèles d’IA, pourrait entraîner des dommages-intérêts importants en matière de droit d’auteur, avec un juge fédéral en décision sur des essais séparés pour acquisition et formation, rapporte des rapports Fortune.

Anthropic, l’un des principaux laboratoires d’intelligence artificielle, fait face à une contestation judiciaire qui pourrait avoir un impact significatif sur sa situation financière. Le recours collectif se concentre sur l’utilisation présumée de livres piratés par l’entreprise pour former son modèle de grande langue, Claude. Cette action en justice pourrait entraîner des milliards de dollars de dommages-intérêts.

Les dossiers judiciaires indiquent qu’Anthropic a téléchargé des millions d’œuvres protégées par le droit d’auteur à partir de bibliothèques Shadow telles que Libgen et Pilimi. Ces téléchargements étaient prétendument utilisés pour former des modèles d’IA et construire une «bibliothèque centrale» de livres numériques, destinés à englober «tous les livres du monde» et à les préserver indéfiniment. Les plaignants, dont les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, soutiennent que des millions de ces œuvres ont été obtenues à partir de sites Web de piratage, constituant des violations directes de la loi sur le droit d’auteur.

Le juge William Alsup, présidant l’affaire, a récemment statué que la formation de modèles d’IA sur des livres acquis légalement est considéré comme une «utilisation équitable». Cette décision signifie que les entreprises de l’IA ne nécessitent pas de licence de titulaires de droits d’auteur pour une telle formation, un développement largement considéré comme une victoire importante pour le secteur de l’IA. Cependant, l’aspect non résolu de l’affaire concerne les méthodes d’Anthropic d’acquérir et de stocker les livres protégés par le droit d’auteur. Le juge Alsup a fait la distinction entre l’utilisation de matériaux acquis légalement acquis et de contenu piraté, informant anthropique qu’un procès distinct concernant «les copies piratées» et «les dommages qui en résultent» se dérouleraient.

Luke McDonagh, professeur agrégé de droit à LSE, a commenté la distinction entre les matériaux légalement obtenus et les matériaux piratés. Il a déclaré: «Le problème est que beaucoup de ces sociétés d’IA ont gratté des sites de piratage comme Libgen… où des livres ont été téléchargés sous forme électronique, généralement PDF, sans l’autorisation des auteurs, sans paiement.» McDonagh a élaboré que le point de vue du juge suggère que si Anthropic avait acheté des millions de livres numériques à une source légitime comme Amazon, la formation basée sur ces livres serait légale. Il a souligné que l’acte de téléchargement à partir de sites Web Pirate constitue le problème de base, car il implique à la fois l’acquisition d’une copie non autorisée et son utilisation ultérieure.

Ed Lee, professeur de droit à Santa Clara, a suggéré dans un article de blog que la décision du juge Alsup pourrait exposer Anthropic à «au moins le potentiel de responsabilité de fin de fin de entreprise». Il est peu probable que les plaignants démontrent des préjudices financiers directs, tels que les ventes perdues, et devraient donc subir des dommages-intérêts statutaires. Les dommages-intérêts statutaires varient de 750 $ à 150 000 $ par travail. Le montant spécifique dépend fortement de savoir si l’infraction est déterminée comme volontaire. Si le tribunal conclut qu’Anthropic a sciemment violé la loi sur le droit d’auteur, les amendes qui en résultent pourraient être substantielles, ce qui pourrait atteindre des milliards de dollars même à l’extrémité inférieure de l’échelle des dommages statutaires.


Anthropic veut maintenant que vous utilisiez son IA lorsque vous postulez pour un emploi


Le nombre précis d’œuvres incluses dans le recours collectif et si un jury trouve une contrefaçon volontaire restée indéterminée. Cependant, les dommages potentiels pourraient varier de centaines de millions à des dizaines de milliards de dollars. Lee postule que même à l’extrémité inférieure, des dommages entre 1 milliard de dollars et 3 milliards de dollars sont plausibles si seulement 100 000 travaux sont inclus dans le recours collectif. Ce chiffre rivaliserait avec les plus grands prix des dommages causés par le droit d’auteur et pourrait dépasser considérablement les revenus annuels actuels d’Anthropic de 4 milliards de dollars. Lee a en outre estimé que si un jury détermine l’anthropique volontairement piraté 6 millions de livres protégés par le droit d’auteur, la société pourrait être responsable pouvant atteindre 1,05 billion de dollars.

Anthropic n’a pas fourni de commentaire immédiat en réponse aux demandes de renseignements. Cependant, la société a précédemment déclaré son «désaccord respectueux» avec la décision de la Cour. Anthropic explore ses options, qui incluent la décision du juge Alsup potentiellement attrayante ou cherche à régler l’affaire. Le procès, notable en tant que premier recours collectif certifié contre une société d’IA concernant l’utilisation de documents protégés par le droit d’auteur, est prévu pour le 1er décembre. Le résultat de ce verdict pourrait influencer des litiges juridiques en cours similaires, tels que l’affaire très médiatisée impliquant OpenAI et un certain nombre d’auteurs et d’éditeurs.

Alors que les opinions judiciaires semblent favoriser des arguments d’utilisation équitable pour les sociétés d’IA, une divergence légale existe concernant l’acquisition d’œuvres protégées par le droit d’auteur à partir de sites fantômes non autorisés. Dans une récente affaire de droit d’auteur contre Meta, le juge Vince Chhabria a postulé que le but transformateur de l’utilisation de l’IA légitime efficacement le téléchargement non autorisé. McDonagh a expliqué que la décision du juge Chhabria a suggéré que l’application positive et transformatrice des travaux pourrait «corriger» l’acquisition problématique initiale. En revanche, le juge Alsup considère le téléchargement de livres des bibliothèques d’ombre non autorisées comme «intrinsèquement erronées». Il implique que même si l’utilisation de la formation en IA pouvait être considérée comme une utilisation équitable, l’acquisition initiale des travaux était illégitime et nécessiterait une compensation.

Un autre point de divergence entre les deux juges concerne si les résultats générés par l’IA pourraient être considérés comme compétitifs avec les travaux originaux protégés par le droit d’auteur utilisé dans leurs données de formation. Le juge Chhabria a reconnu que si une telle concurrence était prouvée, cela pourrait saper une défense à usage équitable. Cependant, dans l’affaire Meta, il a déterminé que les plaignants n’avaient pas fourni de preuves suffisantes de préjudice du marché. À l’inverse, le juge Alsup a conclu que les sorties de l’IA génératrices ne rivalisent pas du tout avec les œuvres originales.

Le paysage juridique entourant les entreprises d’IA et les œuvres protégées par le droit d’auteur est également devenue de plus en plus politisée. L’administration actuelle préconise des protections larges à usage équitable pour les sociétés d’IA utilisant du matériel protégé par le droit d’auteur pour la formation. Cette position fait partie d’un effort pour maintenir le leadership américain dans le développement de l’intelligence artificielle.

McDonagh a exprimé l’opinion selon laquelle le procès contre Anthropic est peu susceptible de se traduire par la faillite de l’entreprise. Il a suggéré que le gouvernement américain serait peu susceptible de permettre une décision qui démantera efficacement une entreprise d’IA. En outre, il a noté que les juges démontrent généralement une aversion à l’émission de décisions qui pourraient entraîner la faillite, à moins qu’une base juridique forte nécessite un tel résultat. Les tribunaux ont été observés pour tenir compte de l’impact potentiel sur une entreprise et ses parties prenantes lors de la publication des décisions qui pourraient entraîner une liquidation. McDonagh a déclaré: «La Cour suprême des États-Unis, pour le moment, semble tout à fait amicale avec l’agenda Trump, il est donc très probable qu’en fin de compte, cela n’aurait pas été le genre de scénario apocalyptique de l’anthropique au pouvoir en vertu du droit d’auteur.» Il a ajouté: «Anthropic est désormais apprécié, selon différentes estimations, entre 60 et 100 milliards de dollars. Ainsi, payer quelques milliards de milliards aux auteurs ne ferait nullement failli l’organisation.»


Crédit d’image en vedette

Tags: AnthropiqueIA

Related Posts

Un test de fuite de batterie Samsung de 20 000 mAh révèle un gonflement majeur

Un test de fuite de batterie Samsung de 20 000 mAh révèle un gonflement majeur

janvier 2, 2026
Apple Fitness+ dévoile ses projets majeurs pour 2026 dans la nouvelle bobine Instagram

Apple Fitness+ dévoile ses projets majeurs pour 2026 dans la nouvelle bobine Instagram

janvier 2, 2026
OpenAI explore la priorisation des publicités sponsorisées dans les réponses ChatGPT

OpenAI explore la priorisation des publicités sponsorisées dans les réponses ChatGPT

janvier 2, 2026
Samsung dévoile le projecteur Freestyle+ avant le CES 2026

Samsung dévoile le projecteur Freestyle+ avant le CES 2026

janvier 2, 2026
Airloom présentera des éoliennes de style montagnes russes au CES 2026

Airloom présentera des éoliennes de style montagnes russes au CES 2026

janvier 2, 2026
WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

décembre 30, 2025

Recent Posts

  • Nvidia s'efforce de combler le déficit de 2 millions de puces des géants chinois de la technologie
  • Les grosses batteries font grimper les ventes de Honor à 71 millions en 2025
  • Un test de fuite de batterie Samsung de 20 000 mAh révèle un gonflement majeur
  • Apple Fitness+ dévoile ses projets majeurs pour 2026 dans la nouvelle bobine Instagram
  • OpenAI explore la priorisation des publicités sponsorisées dans les réponses ChatGPT

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.