Le professeur de Stanford, Jeff Hancock, est accusé d’avoir cité une étude inexistante dans son témoignage concernant le projet de loi du Minnesota sur les deepfakes. Cet incident a été mis en lumière par les avocats du plaignant dans une affaire contre le YouTuber conservateur Christopher Kohls. Le contexte implique un débat politique sur la liberté d’expression et la légalité des deepfakes lors des élections.
Le témoignage de Hancock a été utilisé par le procureur général du Minnesota, Keith Ellison, pour défendre le projet de loi, suggérant que les deepfakes menacent l’intégrité politique.
Les allégations indiquent que la déclaration de Hancock incluait une référence à une fausse étude intitulée « L’influence des vidéos Deepfake sur les attitudes et les comportements politiques », qui, selon l’équipe juridique du plaignant, n’existe pas dans la revue qu’elle aurait été publiée. Ils soutiennent que cette citation est probablement une création d’un modèle de langage d’IA, susceptible de miner la crédibilité de l’ensemble de sa déclaration.
Les avocats du plaignant ont souligné que la citation n’apparaît dans aucune base de données académique, ce qui soulève d’importantes questions quant à son authenticité. Ils conclu:
« La déclaration du professeur Hancock devrait être exclue dans son intégralité car au moins une partie est basée sur du matériel fabriqué probablement généré par un modèle d’IA ».
Le rôle de l’IA dans ce drame judiciaire
Les implications de ces allégations s’étendent au-delà de cette affaire. Ils remettent en question la fiabilité du contenu généré par l’IA dans des contextes juridiques, une préoccupation qui fait écho aux événements récents où des avocats ont été sanctionnés pour avoir utilisé des citations fabriquées dans des documents juridiques. Le dossier judiciaire souligne que la véracité des témoignages d’experts peut être gravement affectée par le potentiel de l’IA à produire des inexactitudes, souvent appelées «hallucinations.»
Hancock possède une expérience bien documentée dans les études sur la désinformation, ayant contribué à des recherches significatives dans le domaine et produit des débats publics populaires sur le sujet. Pourtant, il n’a pas encore commenté publiquement les allégations formulées contre son témoignage.
Le deepfake viral de Kamala Harris et ses implications
Des enquêtes sur la validité des déclarations utilisées dans cette affaire judiciaire sont en cours, ce qui soulève des inquiétudes quant aux applications futures des témoignages d’experts influencés par les données générées par l’IA.
La législation du Minnesota sur les deepfakes, actuellement examinée, vise à imposer des contraintes juridiques sur la distribution et la création de deepfakes en période électorale. Les opposants au projet de loi soutiennent que le cadre juridique pourrait porter atteinte aux droits constitutionnels à la liberté d’expression, invoquant des inquiétudes concernant la censure et les implications pour l’expression numérique. Au fur et à mesure que cette affaire se déroule, une analyse plus approfondie est attendue concernant l’intersection de la technologie, des normes juridiques et du droit à la liberté d’expression.
Il reste à voir comment le tribunal répondra aux allégations entourant le témoignage de Hancock et si cela créera un précédent quant à la manière dont le contenu généré par l’IA sera traité dans les procédures judiciaires. La communauté juridique suit de près cette affaire pour ses implications sur la législation à venir relative au contenu numérique et à la désinformation dans des contextes politiques.
Crédit image en vedette: rorozoa/Freepik