Le conseil de surveillance de Meta a suggéré qu’une fausse vidéo clairement fabriquée de Joe Biden ne devrait pas être supprimée de Facebook, soulignant la nécessité pour Meta de revoir et potentiellement d’élargir sa politique quelque peu restrictive sur les médias manipulés. Cette vidéo, qui n’utilisait pas d’outils de montage d’IA ni ne montrait le président Biden prononçant des déclarations qu’il n’avait jamais faites, a été jugée comme étant manifestement modifiée et donc peu susceptible de tromper le public, conformément aux directives existantes de Meta.
Quelle est l’histoire derrière la fausse vidéo de Joe Biden ?
La vidéo controversée, apparue sur Facebook en mai 2023, est issue d’un clip publié en octobre précédent. Il a capturé un moment entre le président et sa petite-fille, qui votait pour la première fois, échangeant des autocollants « J’ai voté ».

La séquence originale montre Biden plaçant affectueusement un autocollant au-dessus de la poitrine de sa petite-fille et lui donnant un baiser sur la joue. Cependant, la fausse vidéo de Joe Biden a modifié cet échange innocent pour insinuer faussement une conduite inappropriée de la part de Biden, en boucle sur sept secondes avec des paroles explicites de « Simon Says » de Pharoahe Monch, et accompagnées d’une légende qualifiant Biden de « pédophile malade » et critiquant ses partisans.
Initialement supprimé automatiquement lors de sa publication, le retrait de la vidéo a fait l’objet d’un appel de la part de l’utilisateur qui a mis en ligne la vidéo, ce qui a conduit un évaluateur humain à évaluer qu’elle ne contrevenait pas aux politiques stipulées par Meta, ce qui a entraîné la réintégration de la vidéo sur Facebook.
Le Conseil de surveillance, tout en permettant à la vidéo de rester accessible, a critiqué les directives actuelles concernant les médias manipulés, les qualifiant de trop restrictives. Les politiques interdisent actuellement uniquement la modification de vidéos pour montrer des individus disant des choses qu’ils n’ont jamais dites, sans aborder les manipulations visuelles des actions, et se limitent au contenu généré par l’IA. Le Conseil a souligné le manque de justification claire de la politique, sa nature déroutante et ambiguë pour les utilisateurs, et son incapacité à identifier et atténuer de manière adéquate les dommages potentiels, recommandant une révision approfondie de la politique.
Alors que Meta étudie les recommandations du Conseil de surveillance, promettant une réponse publique dans les 60 jours, les implications plus larges pour la gouvernance du contenu et les ajustements politiques avant les élections de 2024 restent incertaines.
La question entourant la fausse vidéo de Joe Biden sur Facebook a déclenché un débat critique sur la frontière ténue entre la liberté d’expression et le potentiel de préjudice dans les espaces numériques. Cet incident met non seulement en évidence les complexités liées à la modération du contenu sur les plateformes de médias sociaux, mais met également en évidence les défis auxquels les entreprises technologiques sont confrontées pour lutter contre la manipulation des médias. La décision du conseil de surveillance de Meta d’autoriser la vidéo à rester, malgré ses modifications trompeuses, souligne un moment charnière pour la gouvernance numérique et les considérations éthiques qui y sont liées.

Au cœur de cette controverse se trouve la question plus large de la responsabilité. Les géants des médias sociaux comme Meta ont pour mission monumentale de protéger la place publique numérique de la désinformation et des contenus préjudiciables, tout en respectant les principes de la liberté d’expression. La critique du Conseil de surveillance de la politique médiatique manipulée actuelle de Meta, la qualifiant de « trop étroite », suggère un besoin urgent de politiques à la fois globales et adaptables au paysage changeant de la création et de la distribution de contenu numérique.
Les appels deepfakes de Biden créés par l’IA ciblent les électeurs
La nature nuancée de ce cas spécifique de fausse vidéo de Joe Biden soulève des considérations importantes sur le discernement des utilisateurs et le rôle des plateformes dans la conservation du contenu. Cependant, la décision risque également de créer un précédent où la barre pour ce qui constitue une manipulation préjudiciable pourrait devenir ambiguë, permettant potentiellement à des contenus trompeurs de proliférer sous couvert d’une fausseté évidente.

L’appel du Conseil en faveur d’une refonte de la politique reflète un consensus croissant selon lequel les lignes directrices actuelles sont insuffisantes pour répondre à la gamme sophistiquée de technologies de manipulation de contenu, y compris, mais sans s’y limiter, l’IA. À mesure que les vidéos manipulées deviennent plus convaincantes et plus répandues, la nécessité de politiques claires et efficaces qui protègent les individus contre la diffamation et le public contre la désinformation devient de plus en plus impérative.
Alors que Meta examine les recommandations du Conseil de surveillance, le résultat de cette délibération aura sans aucun doute des implications significatives sur les pratiques de modération de contenu à l’échelle du secteur. Le faux cas vidéo de Joe Biden illustre les défis critiques à l’intersection de la technologie, de l’éthique et de la gouvernance à l’ère numérique, appelant à une réévaluation de la manière dont les plateformes de médias sociaux peuvent mieux naviguer dans l’équilibre délicat entre la protection de la liberté d’expression et la prévention des préjudices.
Crédit image en vedette : Markus Spiske/Unsplash