Lundi, le bureau du procureur général du New Hampshire a commencé à enquêter sur des incidents impliquant de faux appels de Biden, qui auraient utilisé une intelligence artificielle avancée pour reproduire la voix du président Joe Biden.
Ces appels visaient à dissuader les électeurs du New Hampshire de participer aux élections primaires de mardi. Le procureur général John Formella a identifié le message, envoyé dimanche à plusieurs électeurs, comme une tentative probablement illégale visant à entraver et à supprimer la participation électorale. Il a conseillé aux électeurs de « ne pas tenir compte du contenu de ce message ».
Que disent les faux appels de Biden ?
Selon un The Associated Press Dans cet article, l’un des enregistrements fait écho à la voix de Biden, y compris sa phrase caractéristique : « Quelle bande de conneries ». Le message suggère aux électeurs de « conserver leur vote pour les élections de novembre ».
Il prétend faussement : « Voter ce mardi ne fera que permettre aux Républicains de réélire Donald Trump. Votre vote fait une différence en novembre, pas ce mardi.
Il est important de noter que la participation aux primaires de mardi n’empêche pas les électeurs de voter aux élections générales de novembre. Alors que Biden ne fait pas activement campagne dans le New Hampshire et que son nom ne figure pas sur le bulletin de vote des primaires – après avoir donné la priorité à la Caroline du Sud pour les primaires démocrates – ses partisans orchestrent une campagne écrite pour lui dans l’État.
L’origine de ces appels, qui semblent provenir du téléphone portable personnel de Kathy Sullivan, ancienne présidente du Parti démocrate de l’État et organisatrice de Granite for America (un super-PAC soutenant la campagne écrite de Biden), reste inconnue. Après avoir reçu des informations faisant état de ces appels dimanche soir, Sullivan a rapidement informé les autorités et déposé une plainte auprès du procureur général.
«Cet appel renvoie à mon numéro de téléphone portable personnel sans ma permission. Il s’agit d’une ingérence électorale pure et simple, et clairement d’une tentative de me harceler ainsi que d’autres électeurs du New Hampshire qui prévoient d’écrire à Joe Biden mardi », a-t-elle déclaré.
L’ampleur de l’incident des faux appels de Biden reste incertaine, mais un porte-parole de Sullivan a mentionné avoir entendu au moins une douzaine de personnes qui ont reçu l’appel. En réponse, le bureau du procureur général du New Hampshire exhorte les destinataires de cet appel à contacter par courrier électronique l’unité du droit électoral du ministère de la Justice de l’État.
Gail Huntley, une démocrate de 73 ans originaire de Hancock, dans le New Hampshire, a l’intention d’écrire au nom de Biden lors des prochaines élections de mardi. Elle a raconté avoir reçu l’appel vers 18 h 25 dimanche. Alors qu’Huntley pensait initialement que la voix était celle de Biden, elle a rapidement discerné la nature trompeuse de l’appel, car le contenu semblait incongru. Au départ, elle pensait que ses déclarations avaient été sorties de leur contexte.
«Je n’y avais pas pensé à ce moment-là, ce n’était pas sa vraie voix. C’est dire à quel point c’était convaincant », a fait remarquer Huntley. Elle a exprimé à la fois son choc et son manque de surprise face à la propagation de ces contrefaçons générées par l’IA dans son État.
La secrétaire de presse de la Maison Blanche, Karine Jean-Pierre, a confirmé lundi que l’appel « était effectivement faux et n’avait pas été enregistré par le président ». En outre, la directrice de campagne de Biden, Julie Chavez Rodriguez, a déclaré dans un communiqué que la campagne « discute activement d’actions supplémentaires à prendre immédiatement ».
Julie Chavez Rodriguez, directrice de campagne de Biden, a fortement souligné la position de la campagne contre l’ingérence électorale : « La diffusion de désinformations pour supprimer le vote et saper délibérément des élections libres et équitables ne tiendra pas, et lutter contre toute tentative de saper notre démocratie continuera d’être une priorité. priorité pour cette campagne », a-t-elle affirmé.
Le récent incident impliquant l’utilisation d’une technologie avancée d’IA générative pour supprimer les électeurs dans le New Hampshire signale une tendance inquiétante. Les experts tirent la sonnette d’alarme : l’année 2024 pourrait connaître une montée sans précédent de la désinformation liée aux élections à l’échelle mondiale, alimentée par une telle technologie.
Le problème des deepfakes
Des deepfakes d’IA générative ont déjà fait surface dans les publicités de campagne pour la présidentielle de 2024. Cette technologie a également été exploitée pour diffuser de la désinformation lors de diverses élections à travers le monde au cours de l’année dernière, affectant des pays comme la Slovaquie, l’Indonésie et Taiwan. Les appels Deepfake Biden ne sont pas les premiers cas d’utilisation abusive de cette technologie.
Hany Farid, un expert renommé en criminalistique numérique à l’Université de Californie à Berkeley, qui a analysé l’enregistrement de l’appel, a confirmé son caractère artificiel, le décrivant comme un deepfake de mauvaise qualité. Farid s’est dit préoccupé par la potentielle militarisation de l’IA générative lors des prochaines élections, considérant cet incident comme un précurseur des défis futurs.
Comment fonctionnent les générateurs de voix IA ?
Générateurs de voix IA, ou systèmes de synthèse vocale (TTS), sont une technologie fondamentale dans la création de voix synthétiques réalistes, telles que celles utilisées dans les appels deepfake de Biden. Ces systèmes exploitent des algorithmes d’intelligence artificielle pour convertir un texte écrit en mots prononcés. Utilisant des modèles avancés d’apprentissage en profondeur et des techniques de traitement du langage naturel, ils sont capables de générer des voix de type humain avec des tons, des accents et des inflexions émotionnelles variés. La sophistication des générateurs de voix IA a atteint un point où ils peuvent produire un discours très réaliste et expressif, ce qui rend difficile la distinction avec les vraies voix humaines.
Dans le contexte des deepfakes, les générateurs de voix IA ont joué un rôle central. Cela est évident dans des scénarios tels que les appels deepfakes de Biden, où des algorithmes d’IA ont été utilisés pour imiter la voix de personnalités publiques comme le président Joe Biden. L’émergence de Outils de génération de voix de célébrités IAtel que Turbo fade, illustre les progrès significatifs réalisés dans ce domaine. Ces outils facilitent non seulement les appels téléphoniques IA, mais contribuent également à l’évolution du paysage des médias vocaux. Pour ceux qui souhaitent explorer cette technologie innovante, une enquête sur meilleurs outils d’IA voix-vidéo disponibles peuvent fournir un aperçu plus approfondi de ses applications potentielles.
Crédit image en vedette : La maison Blanche