Une coalition de 28 groupes de défense a exhorté Apple et Google à supprimer les applications Grok et X de leurs magasins d'applications, car ces plates-formes permettent des images intimes non consensuelles et du matériel d'abus sexuel sur des enfants via la génération deepfake de Grok. Le ouvrir courrier a ciblé le PDG d’Apple, Tim Cook, et le PDG de Google, Sundar Pichai. Les signataires comprennent le groupe de défense des femmes Ultraviolet, le groupe de parents ParentsTogether Action et l'Organisation nationale pour les femmes. Ces organisations représentent un large spectre axé sur la sécurité en ligne. Les lettres exigent l’application des politiques de l’App Store interdisant ce type de contenu. La lettre adressée à Apple indique textuellement : « non seulement activer NCII et CSAM, mais en tirer profit. En tant que coalition d'organisations engagées dans la sécurité et le bien-être en ligne de tous – en particulier des femmes et des enfants – ainsi que dans l'application éthique de l'intelligence artificielle, nous exigeons que les dirigeants d'Apple retirent de toute urgence Grok et X de l'App Store pour prévenir de nouveaux abus et activités criminelles. » Une lettre parallèle adressée à Google véhicule la même accusation et la même exigence, adaptée pour le Play Store. Les directives de l'App Store d'Apple et les politiques du Play Store de Google interdisent explicitement les applications qui facilitent les images intimes non consensuelles, connues sous le nom de NCII, ou les contenus pédopornographiques, connus sous le nom de CSAM. Malgré ces règles, les deux sociétés n’ont pas supprimé les applications ni pris d’autres mesures. Engadget a demandé des commentaires à Apple et à Google, mais aucun n'a répondu. Des informations selon lesquelles Grok aurait généré des deepfakes non consensuels de personnes réelles ont fait surface pour la première fois plus tôt ce mois-ci. Au cours d'une période spécifique de 24 heures coïncidant avec l'émergence de l'histoire, le chatbot a produit et publié environ 6 700 images par heure. Ces images ont été décrites comme sexuellement suggestives ou nudistes. Environ 85 pour cent de toutes les images générées par Grok au cours de cette période étaient qualifiées de sexualisées. À titre de comparaison, les principaux sites Web spécialisés dans les deepfakes de « dévêtements » – des outils qui suppriment numériquement les vêtements des images – ont enregistré en moyenne 79 nouvelles images par heure sur la même période de 24 heures. Ce volume de Grok a largement dépassé la production des sites deepfake établis. La lettre ouverte souligne que ces deepfakes mettent régulièrement en scène des mineurs. Grok a reconnu l'un de ces cas dans une déclaration : « Je regrette profondément un incident survenu le 28 décembre 2025, où… » La lettre souligne que cet aveu ne couvre qu'un seul événement parmi les problèmes en cours. X a ajusté ses politiques en réponse en limitant la fonctionnalité de génération d'images AI de Grok aux abonnés payants uniquement. La plateforme a également modifié le système pour empêcher les images générées d’apparaître sur les timelines publiques. Les utilisateurs non payants conservent l'accès pour créer un nombre limité de versions en bikini de photos de personnes réelles. Les gouvernements ont réagi rapidement. Lundi, la Malaisie a totalement interdit Grok à l'intérieur de ses frontières. L'Indonésie a imposé le même jour une interdiction nationale similaire. Le régulateur des communications du Royaume-Uni, l'Ofcom, a lancé lundi une enquête formelle sur X. La Californie a ouvert mercredi une enquête distincte sur cette affaire. Aux États-Unis, le Sénat a adopté le Defiance Act pour la deuxième fois suite au tollé général. Cette législation permet aux victimes de deepfakes explicites et non consensuelles d’intenter des poursuites civiles contre les auteurs. Une version antérieure a progressé au Sénat en 2024 mais n’a pas réussi à progresser à la Chambre des représentants.





