Netflix a récemment fait sensation en incorporant des images apparemment générées par l’IA dans un documentaire centré sur Jennifer Pan, une figure clé d’une célèbre affaire de meurtre contre rémunération qui s’est déroulée au Canada en 2010.
Futurisme a été le premier à découvrir cette évolution et, selon le rapport, Netflix a utilisé ces images prétendument pour transmettre les traits de personnalité de Pan, tels que décrits par un ancien ami de lycée nommé Nam Nguyen. Le documentaire, intitulé «What Jennifer Did», présente ces images autour de 28 minutes.
Cependant, les téléspectateurs ont rapidement remarqué que ces images portaient toutes les caractéristiques d’une IA, présentant des particularités telles que des mains et des traits du visage déformés, ainsi que des éléments d’arrière-plan inhabituels. Parmi les anomalies notables figuraient des dents de devant allongées et des objets déformés, suggérant qu’il ne s’agissait pas de véritables photographies mais plutôt de produits de l’intelligence artificielle.

Ces images étaient censées montrer sa personnalité telle que décrite par un ami, mais elles semblent étranges, avec des traits étranges comme des mains tordues et des traits de visage étranges.

Utiliser ce type de technologie pour représenter une personne réelle dans une série de véritables crimes est surprenant. Bien que nous ayons déjà vu de fausses choses créées par l’IA dans des émissions, son utilisation pour créer des images d’une personne réelle est inquiétante. Il ne s’agit pas simplement d’inventer une histoire pour s’amuser ; c’est jouer avec la vérité d’un événement réel.
Le contenu généré par l’IA présente des risques et des défis importants. L’un des principaux risques est l’érosion de la confiance et de l’authenticité dans la représentation médiatique. Comme l’a démontré l’incident du documentaire Netflix, l’utilisation d’images générées par l’IA brouille la frontière entre réalité et fiction, sapant ainsi la crédibilité du récit et des reportages factuels. Les téléspectateurs peuvent remettre en question l’intégrité du contenu et avoir du mal à faire la distinction entre les représentations authentiques et manipulées, ce qui entraîne une perte de confiance dans les plateformes médiatiques.
La prolifération des contenus générés par l’IA exacerbe les problèmes de désinformation et de désinformation. À une époque où les fausses nouvelles et la manipulation numérique sont monnaie courante, la facilité avec laquelle l’IA peut générer des images et des vidéos convaincantes menace de tromper et de manipuler davantage le public. Des acteurs malveillants pourraient exploiter cette technologie pour diffuser de faux récits, semer la discorde ou même inciter à la violence.
L’utilisation de l’IA pour créer des images ou des vidéos réalistes d’individus à leur insu ou sans leur consentement soulève de profondes questions sur le consentement, l’autonomie et les droits numériques. Sans mesures de protection et réglementations solides, les individus peuvent se retrouver involontairement représentés ou manipulés de manière à porter atteinte à leur vie privée et à leur dignité.
Crédit image en vedette : Vues Venti/Unsplash