OpenAI a identifié et désactivé un groupe de comptes ChatGPT utilisés par un groupe iranien pour créer de faux articles de presse et commentaires sur les réseaux sociaux visant à influencer les élections américaines de 2024.
C’est la première fois qu’OpenAI détecte et supprime une opération ciblant spécifiquement les élections américaines, soulignant l’inquiétude croissante des experts selon laquelle les outils d’IA comme ChatGPT pourraient accélérer la propagation de campagnes de désinformation par des adversaires des États-nations.
L’opération découverte
Comme expliqué dans un article de blog, OpenAI a identifié les comptes en question comme faisant partie d’un groupe connu sous le nom de Storm-2035, qui a été lié à la création de sites Web de fausses informations et à leur diffusion sur les plateformes de médias sociaux pour influencer les résultats électoraux. Les opérateurs iraniens ont utilisé ChatGPT à la fois pour créer de longs articles de fausses informations et pour rédiger des commentaires pour les publications sur les médias sociaux.
Les sujets abordés par ces contenus falsifiés allaient de la guerre entre Israël et le Hamas à la présence d’Israël aux Jeux olympiques en passant par l’élection présidentielle américaine. OpenAI a lié ces comptes à une douzaine de comptes X (anciennement Twitter) et à un compte Instagram, qui ont depuis été désactivés. Meta a également supprimé le compte Instagram identifié, qui aurait fait partie d’une campagne iranienne de 2021 visant les utilisateurs en Écosse.
En plus de leur activité sur les réseaux sociaux, les opérateurs ont créé cinq sites Web se faisant passer pour des médias à la fois progressistes et conservateurs, partageant des informations sur les élections. Un exemple de contenu généré par l’IA repéré par OpenAI comportait un titre qui disait : « Pourquoi Kamala Harris Elle a choisi Tim Walz comme colistier : un choix calculé pour l’unité”.
L’impact et les préoccupations futures
Même si la plupart des comptes de réseaux sociaux qui diffusent cette désinformation alimentée par l’IA n’ont pas connu de succès significatif, les experts préviennent que la menace est loin d’être terminée. Ben Nimmo, chercheur principal de l’équipe de renseignement et d’enquête d’OpenAI, a souligné l’importance de rester vigilant mais calme.
L’UE impose des règles électorales aux grandes entreprises technologiques
À l’approche des élections américaines de 2024, il reste à voir si les opérations d’influence étrangères vont intensifier leurs efforts en ligne. En réponse à cette évolution, OpenAI a souligné la nécessité de continuer à innover dans la détection et la lutte contre les campagnes de désinformation.
Le rôle de l’IA dans la désinformation
L’utilisation d’outils assistés par l’IA comme ChatGPT pour créer et diffuser de la désinformation soulève de sérieuses inquiétudes quant à l’ampleur et à l’impact potentiels des futures opérations d’influence. En exploitant des algorithmes avancés, les adversaires étatiques pourraient être en mesure de générer un contenu plus convaincant à un rythme sans précédent, ce qui rendrait difficile pour les plateformes et les utilisateurs d’identifier et de contrer ces efforts.
Alors que la technologie de l’IA continue d’évoluer, il est essentiel que les développeurs, les décideurs politiques et les plateformes de médias sociaux travaillent ensemble pour faire face aux risques associés aux campagnes de désinformation et préserver l’intégrité des processus démocratiques.
Crédit de l’image en vedette: Freepik