Une étude récente menée par Newsguard révèle que des chatbots d’IA proéminents génèrent de fausses informations dans environ une réponse sur trois. L’analyse a évalué la précision des dix chatbots d’intelligence artificielle (IA) les plus utilisés actuellement disponibles. Newsguard, une entreprise spécialisée dans les notes de source d’information, a déterminé que les chatbots d’IA fournissent de plus en plus de réponses même lorsqu’ils manquent d’informations suffisantes, un changement par rapport à leur comportement en 2024. Ce changement a entraîné une prévalence plus élevée de déclarations fausses ou trompeuses générées par ces systèmes d’IA. Le rapport Newsguard identifie des chatbots spécifiques avec les taux les plus élevés de génération de fausses réclamations. L’IP de l’inflexion de l’IA a montré le taux le plus élevé, avec 57% de ses réponses contenant des informations inexactes. Après PI, la perplexité AI s’est avérée générer de fausses réclamations dans 47% de ses réponses. Des chatbots largement utilisés tels que le chatppt d’Openai et le lama de Meta ont également démontré des taux importants de génération de mensonges. L’étude a révélé que Chatgpt et Llama diffusent de fausses informations dans 40% de leurs réponses. De même, le copilote de Microsoft et Le Chat de Mistral ont montré des taux comparables, avec environ 35% de leurs réponses contenant de fausses réclamations. À l’inverse, le rapport a identifié les chatbots d’IA avec les taux les plus bas de génération d’informations inexactes. Il a été observé que le claude d’Anthropic avait le taux le plus bas, avec seulement 10% de ses réponses contenant des mensonges. Les Gémeaux de Google ont également obtenu relativement bien, avec 17% de ses réponses contenant de fausses réclamations. L’étude a mis en évidence une augmentation notable de la génération de mensonges par perplexité AI. En 2024, les recherches de Newsguard ont indiqué que la perplexité AI n’a généré aucune fausse réclamation dans ses réponses. Cependant, la récente étude menée en août 2025 a révélé une augmentation significative, avec 46% des réponses de la perplexité de l’IA contenant de fausses informations. Le rapport de Newsguard ne spécifie pas les facteurs sous-jacents contribuant à la baisse apparente de la qualité des réponses de la perplexité sur l’IA. Le rapport mentionne que la seule explication disponible est les plaintes des utilisateurs trouvées sur un forum Reddit dédié discutant du chatbot. Ces préoccupations des utilisateurs suggèrent une diminution perçue de la précision et de la fiabilité des réponses de la perplexité sur l’IA. Contrairement aux fluctuations observées dans d’autres chatbots, Mistral de France a démontré un taux cohérent de génération de mensonges. Les recherches de Newsguard ont indiqué que le taux de génération de fausses réclamations de Mistral est resté stable à 37% en 2024 et à la période de référence en cours. Ces résultats récents suivent un rapport précédent du journal français Les Echos, qui a enquêté sur la tendance de Mistral à répéter de fausses informations. Les Echos a constaté que Mistral a disséminé des informations inexactes sur la France, le président Emmanuel Macron et la première dame Brigitte Macron dans 58% de ses réponses en anglais et 31% de ses réponses en langue française. En ce qui concerne le rapport LES Echos, Mistral a attribué les problèmes identifiés à ses assistants de Chat. La société a déclaré que les assistants de chat LE connectés à la recherche sur le Web et ceux qui opéraient indépendamment de la recherche sur le Web contribuaient à la diffusion d’informations inexactes. Euronews a ensuite contacté les sociétés mentionnées dans le rapport Newsguard, demandant des commentaires sur les conclusions. Au moment de la publication du rapport, Euronews n’avait ensuite reçu aucune réponse immédiate des sociétés. Le rapport de Newsguard a également souligné les cas où les chatbots ont cité des sources affiliées à des campagnes de propagande étrangère. Plus précisément, le rapport mentionne les cas où les chatbots ont fait référence aux récits provenant des opérations d’influence russe, tels que Storm-1516 et Pravda. À titre d’illustration, l’étude a examiné les réponses des chatbots à une réclamation concernant le chef du Parlement moldave Igor Grosu. La réclamation a allégué que Grosu « a comparé les Moldouxs à un » troupeau de moutons « . » Le Newsguard a identifié cette affirmation comme provenant d’un reportage fabriqué qui imitait le média roumain Digi24 et a incorporé un clip audio généré par l’AI supposant être la voix de Grosu. Le rapport du Newsguard a révélé que Mistral, Claude, le Pi, le copilote, la méta et la perplexité de l’inflexion ont répété la fausse réclamation concernant Igor Grosu comme factuelle. Dans certains cas, ces chatbots ont fourni des liens vers des sites associés au réseau PRAVDA en tant que sources pour l’information. Ces résultats contredisent les récentes annonces de sécurité et de précision des sociétés d’IA. Par exemple, OpenAI a affirmé que son dernier modèle, ChatGPT-5, est «résistant aux hallucinations», ce qui implique sa capacité à éviter de générer des informations fausses ou fabriquées. De même, l’annonce de Google concernant Gemini 2.5 a revendiqué des capacités de raisonnement et de précision améliorées. Malgré ces assurances, le rapport de Newsguard conclut que les modèles d’IA continuent de présenter des lacunes dans les domaines précédemment identifiés. Les résultats indiquent que ces modèles ont du mal à répéter les mensonges, à naviguer sur des vides de données, à être trompés par des sites Web liés à l’étranger et à traiter les événements de coups d’information. La méthodologie de Newsguard pour évaluer les chatbots impliqués leur présentant 10 fausses affirmations distinctes. Les chercheurs ont utilisé trois styles rapides différents: les invites neutres, les invites de tête qui présupposaient la fausse affirmation étaient vraies et des invites malveillantes conçues pour contourner les garde-corps de sécurité. Les chercheurs ont ensuite évalué si le chatbot a répété la fausse réclamation ou n’a pas réussi à le démystifier en refusant de répondre à l’invite. Cette évaluation a permis à Newsguard de quantifier la fréquence à laquelle différents modèles d’IA ont diffusé de fausses informations.