Les experts préviennent que Deepseek, une IA générative développée en Chine, a échoué à plusieurs tests de sécurité, ce qui soulève des préoccupations concernant les risques pour les utilisateurs. Le fournisseur de sécurité de la Silicon Valley Appsoc a découvert des vulnérabilités importantes, y compris la possibilité de jailbreaker l’IA et de générer des logiciels malveillants.
AI chinois Deepseek échoue aux tests de sécurité
David Reid, un expert en cybersécurité à l’Université de Cedarville, a exprimé son alarme face aux résultats des tests. «Il a échoué à un tas de repères où vous pourriez le jailbreaker. Vous pourriez dans certains cas, générer des logiciels malveillants réels qui sont un gros drapeau rouge », a-t-il déclaré. Reid a noté que ces échecs sont particulièrement préoccupants étant donné qu’ils permettent la création potentielle d’un code nuisible.
Appsoc analyse Deepseek, un score de risque de 8,3 sur 10, recommandant contre son utilisation dans les paramètres d’entreprise qui impliquent des données sensibles ou une propriété intellectuelle. Anjana Susarla, experte en IA responsable de l’Université d’État du Michigan, a fait écho à ce sentiment, se demandant si les organisations pouvaient manipuler Deepseek pour accéder aux informations confidentielles de l’entreprise.
Alors que Deepseek peut sembler se produire de la même manière que les modèles d’IA établis comme Chatgpt, Susarla a conseillé de l’utiliser dans des chatbots ou des applications orientées client, affirmant: «La réponse est non.» Les implications de l’utilisation d’un modèle aussi non testé pourraient conduire à des vulnérabilités de sécurité importantes.
Une préoccupation accrue provient des origines chinoises de Deepseek, comparable à la controverse entourant la plate-forme de médias sociaux Tiktok, qui a été examinée par les législateurs américains pour ses pratiques de sécurité des données. Les membres de la Chambre américaine ont récemment annoncé son intention d’introduire une législation interdisant Deepseek sur les appareils gouvernementaux, invoquant le risque d’accès aux données par le Parti communiste chinois.
Deepseek R1 vs O3-MinI en performance, coût et épreuve de force d’utilisation
« Il s’agit d’un incendie de sécurité nationale de cinq alarmes », a déclaré le représentant américain Josh Gottheimer du New Jersey. Il a souligné la nécessité d’empêcher toute infiltration des appareils des employés du gouvernement, rappelant les problèmes passés avec Tiktok.
À partir de maintenant, certains courent comme Italie et Australie ont déjà promulgué des interdictions sur Deepseek pour un usage du gouvernement. Malgré les efforts pour gérer les risques, des experts en cybersécurité comme Dimitri Sirota, PDG de BIGID, reconnaissent qu’il peut être difficile de dissuader les utilisateurs moyens de télécharger et d’utiliser l’application. La tentation des nouvelles technologies populaires l’emporte souvent sur la prudence du comportement des utilisateurs.
Les préoccupations concernant Deepseek incluent non seulement ses vulnérabilités techniques, mais aussi les risques géopolitiques associés aux logiciels liés à la Chine. Les données recueillies par Deepseek peuvent être soumises à la loi chinoise, ce qui les oblige à divulguer les informations des utilisateurs sur demande du gouvernement.
Les experts préviennent que le gouvernement chinois possède les capacités d’analyser les données agrégées à partir de Deepseek ainsi que d’autres sources pour potentiellement créer des profils d’utilisateurs américains. Cette situation est parallèle aux appréhensions entourant Tiktok, où les inquiétudes ont persisté par le parti communiste chinois en tirant parti des données utilisateur à des fins d’intelligence.
Pour atténuer les risques lorsque vous utilisez des modèles Deepseek ou d’autres modèles d’IA, les experts en cybersécurité recommandent les meilleures pratiques telles que la garantie de mots de passe solides et uniques et l’activation de l’authentification à deux facteurs. Les utilisateurs doivent également être prudents de partager des informations personnelles avec les applications d’IA et rester sceptiques quant aux demandes de données sensibles.
Enfin, les utilisateurs doivent lire attentivement les termes et conditions de toute application d’IA avant utilisation, pour comprendre l’utilisation des données et le partage des pratiques. Les experts avertissent que les applications basées en Chine ou d’autres États contradictoires doivent être traités avec un examen approfondi en raison des risques potentiels associés à la confidentialité et à la sécurité des données.