À mesure que la technologie DeepFake progresse, les préoccupations concernant la désinformation et le vol d’identité augmentent, soulignées par une récente étude IPROOV révélant que la plupart des individus ont du mal à faire la distinction entre le contenu réel et généré par l’IA.
Le étude impliquaient 2 000 participants à travers le Royaume-Uni et les États-Unis, les exposant à un mélange d’images et de vidéos authentiques et DeepFake. Alarmant, seulement 0,1% des participants, totalisant seulement deux individus, pouvaient faire la différence avec précision entre les stimuli réels et profonds.
Les personnes âgées sont devenues particulièrement vulnérables à la tromperie générée par l’AI. Environ 30% des participants âgés de 55 à 64 ans et 39% de ceux de plus de 65 ans ont déclaré n’avoir jamais entendu parler de DeepFakes avant l’étude. Bien que les plus jeunes participants (âgés de 18 à 34 ans) aient montré une plus grande confiance en leur capacité à détecter les foldages profonds, leurs performances réelles ne reflétaient pas l’amélioration.
Défis de détection DeepFake
L’étude a indiqué que la détection de vidéos DeepFake était beaucoup plus difficile que d’identifier les images. Les participants étaient 36% moins susceptibles d’identifier avec précision une vidéo synthétique par rapport à une image synthétique, ce qui soulève des préoccupations concernant le potentiel de fraude vidéo, comme l’identité lors des appels vidéo.
Les plateformes de médias sociaux ont été identifiées comme des sources majeures de contenu DeepFake. Près de la moitié des participants (49%) ont cité des méta-plateformes, dont Facebook et Instagram, comme les sites les plus courants pour DeepFakes, tandis que 47% ont souligné Tiktok.
Andrew Bud, fondateur et PDG d’Iproov, a commenté les résultats, notant la vulnérabilité accrue des organisations et des consommateurs à la fraude à l’identité à l’ère Deepfake. Il a déclaré: «Les criminels exploitent l’incapacité des consommateurs à distinguer les réalisations réelles des fausses images, mettant en danger les informations personnelles et la sécurité financière.» Malgré les résultats alarmants, l’étude a révélé que seulement 20% des répondants signaleraient un Deepfake en ligne présumé.
À mesure que Deepfakes deviennent de plus en plus sophistiqués, Iproov suggère que la perception humaine seule est insuffisante pour une détection fiable. Bud a souligné la nécessité de solutions de sécurité biométriques avec une détection de vivacité pour lutter contre la menace posée en convaincant le matériel defake profondément.
Les recherches d’Iproov présentent un besoin urgent d’organisations pour protéger leurs clients en intégrant des mesures de sécurité robustes. Bud estime que l’utilisation de la biométrie faciale avec une détection de vivacité offre un facteur d’authentification digne de confiance qui priorise à la fois la sécurité et le contrôle individuel.
Selon l’étude, seulement 22% des consommateurs avaient entendu parler de Deepfakes avant de participer. En outre, de nombreuses personnes ont présenté une confiance excessive importante concernant leurs compétences en détection, plus de 60% pensant qu’ils pouvaient identifier les Fakes Deep, malgré une majorité de majorité. Parmi les jeunes adultes, ce faux sentiment de sécurité était particulièrement répandu.
Les résultats ont également indiqué une baisse de la confiance envers les plateformes de médias sociaux après que les utilisateurs ont eu connaissance de DeepFakes, 49% déclarant une diminution de la confiance. Pendant ce temps, 74% des participants ont exprimé leurs préoccupations concernant les ramifications sociétales des Fakes Deep, en particulier la propagation de la désinformation, ce qui était une préoccupation majeure pour 68% des répondants. Cette appréhension était notamment forte parmi les générations plus âgées, où jusqu’à 82% des personnes âgées de 55 ans et plus exprimaient des craintes concernant la fausse diffusion d’informations.
Pourquoi les petits modèles d’IA ne peuvent pas suivre les grands
Moins d’un tiers des personnes interrogées (29%) ont indiqué qu’elles ne prendraient aucune mesure lors de la rencontre d’un Fake soupçonné. L’absence d’engagement est en partie due à 48% des répondants déclarant qu’ils ne savent pas comment signaler Deepfakes, tandis qu’un quart a admis une indifférence envers les foldages profonds suspectés. Seulement 11% d’analyser de manière critique les sources et le contexte pour déterminer l’authenticité de l’information, créant un paysage où de nombreuses personnes restent très sensibles à la tromperie.
Le professeur Edgar Whitley, un expert de l’identité numérique, a averti que les organisations ne pouvaient pas se fier uniquement au jugement humain pour détecter les fesses profondes et doivent explorer d’autres méthodes d’authentification des utilisateurs.
La prévalence croissante de Foasfakes pose des défis importants dans le paysage numérique. Le rapport de renseignement sur les menaces en 2024 d’IPROOV a indiqué une augmentation stupéfiante de 704% des échanges de visage, mettant l’accent sur leur rôle d’outils pour les cybercriminels à la recherche d’un accès non autorisé à des données sensibles. Cette tendance met en évidence le besoin urgent d’une sensibilisation accrue et des solutions technologiques pour contrecarrer les menaces liées à Deep Fake.
Crédit d’image en vedette: Kerem gülen / idéogramme