Recherche menée par le BBC a constaté que quatre chatbots d’intelligence artificielle majeure (IA) – Chatgpt d’Openai, le copilote de Microsoft, les Gémeaux de Google et la perplexité AI – résument inexactement les reportages. L’étude a impliqué ces chatbots résumant 100 actualités provenant du site Web de la BBC.
BBC Exclusive: les chatbots AI déforment les résumés des nouvelles
La BBC a rapporté que les réponses produites par les chatbots d’IA contenaient des «inexactitudes importantes» et des distorsions. Deborah Turness, PDG de BBC News and Current Affairs, notée dans un article de blog Que même si l’IA offre des «opportunités infinies», les développeurs «jouent avec le feu», ce qui soulève des préoccupations selon lesquelles les titres par IA-Distorted pourraient causer des dommages réels.
Tout au long de l’étude, qui impliquait des notes de journalistes qui étaient des experts dans les sujets respectifs des articles, il a été constaté que 51% des réponses de l’IA avaient des problèmes substantiels. Parmi les réponses générées par l’AI qui ont fait référence au contenu de la BBC, 19% contenaient des erreurs factuelles, y compris des déclarations, des nombres et des dates incorrects. De plus, 13% des devis attribués aux articles de la BBC ont été modifiés ou déformés.
Certaines inexactitudes spécifiques identifiées dans l’étude comprenaient des Gémeaux déclarant que le National Health Service (NHS) du Royaume-Uni ne recommandait pas le vapotage pour arrêter de fumer, alors qu’en fait il le fait. Chatgpt et Copilot ont affirmé de manière inexacte que les anciens dirigeants Rishi Sunak et Nicola Sturgeon étaient toujours en fonction, malgré leurs départs. Perplexity a mal cité la BBC News, suggérant que l’Iran a agi avec «retenue» concernant les actions d’Israël.
L’étude a souligné que le copilote de Microsoft et les Gémeaux de Google présentaient des problèmes plus importants par rapport au chatppt d’Openai et Perplexité AI. La BBC avait temporairement levé des restrictions sur son accès au contenu à ces systèmes d’IA pendant la phase de test en décembre 2024.
Openai élimine le cluster iranien en utilisant le chatppt pour élaborer de fausses nouvelles
Le directeur du programme de la BBC pour Geteative IA, Pete Archer, a souligné que les éditeurs devraient contrôler comment leur contenu est utilisé et que les entreprises d’IA doivent divulguer comment leurs assistants traitent les nouvelles, y compris les taux d’erreur. Openai a répliqué qu’ils collaborent avec des partenaires pour améliorer la précision des citations en ligne et respecter les préférences des éditeurs.
À la suite de l’étude, Turness a exhorté les entreprises technologiques à résoudre les problèmes identifiés, similaire à la façon dont Apple a répondu aux plaintes précédentes de la BBC concernant les résumés de nouvelles alimentés par l’IA. Elle a incité un effort de collaboration entre l’industrie technologique, les organisations de presse et le gouvernement à remédier aux inexactitudes qui peuvent éroder la confiance du public dans l’information.
L’étude a en outre noté la tendance de la perplexité AI à modifier les déclarations des sources et a révélé que Copilot s’appuyait sur des articles obsolètes pour ses résumés d’actualités. Dans l’ensemble, la BBC vise à engager une conversation plus large autour de l’environnement réglementaire pour l’IA afin d’assurer une diffusion précise des nouvelles.
En réponse aux résultats, Turness a posé une question critique concernant la conception des technologies de l’IA pour favoriser la précision de la consommation d’actualités. Elle a déclaré que le potentiel de distorsion, semblable à la désinformation, menace la confiance du public dans tous les médias d’information.
Crédit d’image en vedette: Kerem gülen / idéogramme