Un recours collectif contre Anthropic, alléguant que l’entreprise a utilisé des livres piratés de bibliothèques fantômes comme Libgen et Pilimi pour former ses modèles d’IA, pourrait entraîner des dommages-intérêts importants en matière de droit d’auteur, avec un juge fédéral en décision sur des essais séparés pour acquisition et formation, rapporte des rapports Fortune.
Anthropic, l’un des principaux laboratoires d’intelligence artificielle, fait face à une contestation judiciaire qui pourrait avoir un impact significatif sur sa situation financière. Le recours collectif se concentre sur l’utilisation présumée de livres piratés par l’entreprise pour former son modèle de grande langue, Claude. Cette action en justice pourrait entraîner des milliards de dollars de dommages-intérêts.
Les dossiers judiciaires indiquent qu’Anthropic a téléchargé des millions d’œuvres protégées par le droit d’auteur à partir de bibliothèques Shadow telles que Libgen et Pilimi. Ces téléchargements étaient prétendument utilisés pour former des modèles d’IA et construire une «bibliothèque centrale» de livres numériques, destinés à englober «tous les livres du monde» et à les préserver indéfiniment. Les plaignants, dont les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, soutiennent que des millions de ces œuvres ont été obtenues à partir de sites Web de piratage, constituant des violations directes de la loi sur le droit d’auteur.
Le juge William Alsup, présidant l’affaire, a récemment statué que la formation de modèles d’IA sur des livres acquis légalement est considéré comme une «utilisation équitable». Cette décision signifie que les entreprises de l’IA ne nécessitent pas de licence de titulaires de droits d’auteur pour une telle formation, un développement largement considéré comme une victoire importante pour le secteur de l’IA. Cependant, l’aspect non résolu de l’affaire concerne les méthodes d’Anthropic d’acquérir et de stocker les livres protégés par le droit d’auteur. Le juge Alsup a fait la distinction entre l’utilisation de matériaux acquis légalement acquis et de contenu piraté, informant anthropique qu’un procès distinct concernant «les copies piratées» et «les dommages qui en résultent» se dérouleraient.
Luke McDonagh, professeur agrégé de droit à LSE, a commenté la distinction entre les matériaux légalement obtenus et les matériaux piratés. Il a déclaré: «Le problème est que beaucoup de ces sociétés d’IA ont gratté des sites de piratage comme Libgen… où des livres ont été téléchargés sous forme électronique, généralement PDF, sans l’autorisation des auteurs, sans paiement.» McDonagh a élaboré que le point de vue du juge suggère que si Anthropic avait acheté des millions de livres numériques à une source légitime comme Amazon, la formation basée sur ces livres serait légale. Il a souligné que l’acte de téléchargement à partir de sites Web Pirate constitue le problème de base, car il implique à la fois l’acquisition d’une copie non autorisée et son utilisation ultérieure.
Ed Lee, professeur de droit à Santa Clara, a suggéré dans un article de blog que la décision du juge Alsup pourrait exposer Anthropic à «au moins le potentiel de responsabilité de fin de fin de entreprise». Il est peu probable que les plaignants démontrent des préjudices financiers directs, tels que les ventes perdues, et devraient donc subir des dommages-intérêts statutaires. Les dommages-intérêts statutaires varient de 750 $ à 150 000 $ par travail. Le montant spécifique dépend fortement de savoir si l’infraction est déterminée comme volontaire. Si le tribunal conclut qu’Anthropic a sciemment violé la loi sur le droit d’auteur, les amendes qui en résultent pourraient être substantielles, ce qui pourrait atteindre des milliards de dollars même à l’extrémité inférieure de l’échelle des dommages statutaires.
Anthropic veut maintenant que vous utilisiez son IA lorsque vous postulez pour un emploi
Le nombre précis d’œuvres incluses dans le recours collectif et si un jury trouve une contrefaçon volontaire restée indéterminée. Cependant, les dommages potentiels pourraient varier de centaines de millions à des dizaines de milliards de dollars. Lee postule que même à l’extrémité inférieure, des dommages entre 1 milliard de dollars et 3 milliards de dollars sont plausibles si seulement 100 000 travaux sont inclus dans le recours collectif. Ce chiffre rivaliserait avec les plus grands prix des dommages causés par le droit d’auteur et pourrait dépasser considérablement les revenus annuels actuels d’Anthropic de 4 milliards de dollars. Lee a en outre estimé que si un jury détermine l’anthropique volontairement piraté 6 millions de livres protégés par le droit d’auteur, la société pourrait être responsable pouvant atteindre 1,05 billion de dollars.
Anthropic n’a pas fourni de commentaire immédiat en réponse aux demandes de renseignements. Cependant, la société a précédemment déclaré son «désaccord respectueux» avec la décision de la Cour. Anthropic explore ses options, qui incluent la décision du juge Alsup potentiellement attrayante ou cherche à régler l’affaire. Le procès, notable en tant que premier recours collectif certifié contre une société d’IA concernant l’utilisation de documents protégés par le droit d’auteur, est prévu pour le 1er décembre. Le résultat de ce verdict pourrait influencer des litiges juridiques en cours similaires, tels que l’affaire très médiatisée impliquant OpenAI et un certain nombre d’auteurs et d’éditeurs.
Alors que les opinions judiciaires semblent favoriser des arguments d’utilisation équitable pour les sociétés d’IA, une divergence légale existe concernant l’acquisition d’œuvres protégées par le droit d’auteur à partir de sites fantômes non autorisés. Dans une récente affaire de droit d’auteur contre Meta, le juge Vince Chhabria a postulé que le but transformateur de l’utilisation de l’IA légitime efficacement le téléchargement non autorisé. McDonagh a expliqué que la décision du juge Chhabria a suggéré que l’application positive et transformatrice des travaux pourrait «corriger» l’acquisition problématique initiale. En revanche, le juge Alsup considère le téléchargement de livres des bibliothèques d’ombre non autorisées comme «intrinsèquement erronées». Il implique que même si l’utilisation de la formation en IA pouvait être considérée comme une utilisation équitable, l’acquisition initiale des travaux était illégitime et nécessiterait une compensation.
Un autre point de divergence entre les deux juges concerne si les résultats générés par l’IA pourraient être considérés comme compétitifs avec les travaux originaux protégés par le droit d’auteur utilisé dans leurs données de formation. Le juge Chhabria a reconnu que si une telle concurrence était prouvée, cela pourrait saper une défense à usage équitable. Cependant, dans l’affaire Meta, il a déterminé que les plaignants n’avaient pas fourni de preuves suffisantes de préjudice du marché. À l’inverse, le juge Alsup a conclu que les sorties de l’IA génératrices ne rivalisent pas du tout avec les œuvres originales.
Le paysage juridique entourant les entreprises d’IA et les œuvres protégées par le droit d’auteur est également devenue de plus en plus politisée. L’administration actuelle préconise des protections larges à usage équitable pour les sociétés d’IA utilisant du matériel protégé par le droit d’auteur pour la formation. Cette position fait partie d’un effort pour maintenir le leadership américain dans le développement de l’intelligence artificielle.
McDonagh a exprimé l’opinion selon laquelle le procès contre Anthropic est peu susceptible de se traduire par la faillite de l’entreprise. Il a suggéré que le gouvernement américain serait peu susceptible de permettre une décision qui démantera efficacement une entreprise d’IA. En outre, il a noté que les juges démontrent généralement une aversion à l’émission de décisions qui pourraient entraîner la faillite, à moins qu’une base juridique forte nécessite un tel résultat. Les tribunaux ont été observés pour tenir compte de l’impact potentiel sur une entreprise et ses parties prenantes lors de la publication des décisions qui pourraient entraîner une liquidation. McDonagh a déclaré: «La Cour suprême des États-Unis, pour le moment, semble tout à fait amicale avec l’agenda Trump, il est donc très probable qu’en fin de compte, cela n’aurait pas été le genre de scénario apocalyptique de l’anthropique au pouvoir en vertu du droit d’auteur.» Il a ajouté: «Anthropic est désormais apprécié, selon différentes estimations, entre 60 et 100 milliards de dollars. Ainsi, payer quelques milliards de milliards aux auteurs ne ferait nullement failli l’organisation.»





