Un juge de l’État de Washington s’est prononcé contre l’admission de preuves vidéo « améliorées par l’IA » dans une affaire de triple homicide, une décision qui souligne le scepticisme entourant la croyance selon laquelle les filtres de l’IA peuvent révéler des informations visuelles cachées. Le juge Leroy McCullough du comté de King a expliqué dans sa récente décision que la technologie d’IA utilisée utilise « des méthodes opaques pour représenter ce que le modèle d’IA « pense » devrait être montré », comme le rapporte le rapport. Actualités NBC mardi.
« Cette Cour estime que l’admission de ces preuves renforcées par Al conduirait à une confusion des questions et à une confusion des témoignages oculaires, et pourrait conduire à un procès long dans le cadre d’un procès sur le processus non révisable par les pairs utilisé par le modèle d’IA », a déclaré McCullough.
Les vidéos améliorées par l’IA ne peuvent pas constituer des preuves selon le tribunal
Essentiellement un Photo améliorée par l’IA fait référence à une image qui a été modifiée, améliorée ou altérée à l’aide de technologies d’intelligence artificielle. Ces améliorations peuvent inclure une gamme d’ajustements tels que l’augmentation de la résolution, la restauration de photographies endommagées ou anciennes, la colorisation des images en noir et blanc, la suppression du bruit et des objets indésirables, ou même la modification des expressions faciales et de l’éclairage. Les algorithmes d’IA analysent le contenu de la photo et appliquent les modifications pour obtenir l’effet souhaité, créant souvent un résultat plus raffiné, de haute qualité ou visuellement attrayant que l’original.
La procédure judiciaire concerne Joshua Puloka, 46 ans, accusé d’avoir abattu trois personnes et d’en avoir blessé deux dans un bar près de Seattle en 2021. La défense a tenté d’utiliser la vidéo d’un téléphone portable d’un passant, artificiellement améliorée, sans que les bénéfices attendus de ces images n’aient été précisés. Un novice en matière d’amélioration vidéo des affaires pénales, utilisant la technologie d’IA de Topaz Labs au Texas, a été employé par l’équipe juridique de Puloka pour améliorer la clarté de la vidéo. Cet incident met en lumière les idées fausses courantes sur la capacité de l’IA à clarifier les données visuelles. En réalité, les outils d’IA ajoutent souvent des détails non originaux aux images plutôt que de clarifier ceux qui existent déjà.
La montée en puissance des produits de marque « IA » a semé la confusion dans le public quant à leurs véritables capacités. Même les utilisateurs avertis sont induits en erreur par le résultat humain de grands modèles de langage comme ChatGPT, le prenant pour une pensée complexe. Cependant, ces modèles prédisent principalement les mots ultérieurs pour imiter une conversation humaine, sans s’engager dans un raisonnement approfondi.
Malgré des investissements importants dans la technologie de l’IA, nombreux sont ceux qui surestiment sa sophistication, attribuant les erreurs à des préjugés ou à des contrôles trop stricts. Pourtant, ces défauts tiennent davantage aux limites de la technologie qu’à autre chose. Conscient des limites de cette technologie, un juge de Washington s’est prononcé contre l’utilisation de preuves améliorées par l’IA, soulignant son incapacité à véritablement améliorer la compréhension des images originales. Cette décision contraste avec une tendance croissante à accepter le contenu généré par l’IA dans des contextes juridiques, soulignant la nécessité d’une compréhension plus approfondie des capacités et des limites de l’IA.
Crédit image en vedette : Saúl Bucio/Unsplash