OpenAI introduit un outil de détection spécifiquement pour le contenu produit par son générateur d’images largement utilisé, DALL-E. La startup leader de l’IA admet cependant que cet outil ne représente qu’une fraction des ressources nécessaires pour lutter efficacement contre la propagation des médias synthétiques avancés, communément appelés deepfakes.
OpenAI développe un « détecteur de deepfake »
Mardi, selon Le New York Times, OpenAI a annoncé son intention de distribuer ce nouvel outil de détection des deepfakes à un groupe sélectionné de chercheurs en désinformation. Cela leur permettra d’évaluer l’efficacité de l’outil dans des scénarios réels et d’identifier les domaines potentiels d’amélioration.
OpenAI a rapporté que son nouvel outil peut identifier avec précision 98,8 % des images produites par DALL-E 3, l’itération la plus récente de son générateur d’images. Cependant, l’outil n’est pas équipé pour reconnaître les images d’autres générateurs largement utilisés, tels que Midjourney et Stability. Étant donné le caractère probabiliste de cette détection des deepfakes technologie, atteindre la perfection est inaccessible. Par conséquent, OpenAI, ainsi que diverses autres organisations, notamment des organisations à but non lucratif et des établissements universitaires, explorent des stratégies supplémentaires pour relever ce défi.
À l’instar de grandes entreprises technologiques comme Google et Meta, OpenAI a rejoint le comité directeur de la Coalition for Content Provenance and Authenticity (C2PA). Ce groupe vise à établir une norme s’apparentant à une « étiquette nutritionnelle » pour les contenus numériques, qui détaillerait les origines et les modifications des images, vidéos, clips audio et autres fichiers, y compris ceux modifiés par l’IA.
OpenAI développe également des techniques pour intégrer des « filigranes » dans l’audio généré par l’IA afin de faciliter une identification immédiate. L’entreprise s’efforce de garantir que ces filigranes résistent à la suppression, améliorant ainsi la traçabilité du contenu synthétique.
L’industrie fait l’objet d’une surveillance croissante pour gérer les résultats de ses technologies de manière responsable. Les experts exhortent les entreprises à empêcher la création de contenus trompeurs et préjudiciables et à développer des méthodes pour suivre leurs origines et leur distribution.
Avec les élections clés qui auront lieu dans le monde cette année, la demande d’outils efficaces pour retracer les origines du contenu généré par l’IA s’est intensifiée. Récemment, des contenus audio et visuels manipulés ont déjà influencé des événements politiques et des élections dans des pays comme la Slovaquie, Taiwan et l’Inde.
Bien que le nouveau détecteur de deepfake d’OpenAI offre un moyen d’atténuer ces problèmes, il ne s’agit pas d’une solution complète. Comme l’a déclaré Mme Agarwal, il n’existe pas de solution définitive dans la lutte contre les deepfakes ; cela reste un défi complexe qui nécessite des approches multiformes.
Crédit image en vedette : Jonathan Kemper/Unsplash