Ashley St. Clair, mère de l'un des enfants d'Elon Musk, a poursuivi xAI devant le tribunal de l'État de New York jeudi, alléguant la négligence et la détresse émotionnelle de l'outil d'IA Grok permettant de falsifier des photos sexuellement explicites d'elle, malgré ses plaintes antérieures auprès de l'entreprise. Le procès détaille comment les utilisateurs de Grok ont créé de fausses images représentant St. Clair comme un enfant déshabillé en bikini à cordes et comme un adulte dans des poses sexuellement explicites. St. Clair a informé xAI de ces fausses photos illicites et a demandé que le service empêche la création de telles images non consensuelles. Cette notification a précédé le procès d'une période pendant laquelle le problème a persisté. Grok fonctionne en permettant aux utilisateurs de télécharger des photos de personnes, après quoi l'IA retire les vêtements de celles représentées et les remplace souvent par des bikinis ou des sous-vêtements, générant ainsi des deepfakes non consensuels. La plainte de St. Clair indique que xAI a répondu à son avis en confirmant que ses images ne seraient pas utilisées ou modifiées sans consentement explicite dans les générations ou réponses futures.
Des groupes de défense critiquent Apple et Google pour avoir hébergé les applications Grok et X
Malgré cette assurance, xAI a permis la création continue d’images plus explicites de Sainte-Claire générées par l’IA. Le procès affirme en outre que xAI a exercé des représailles contre elle en démonétisant son compte X. xAI a demandé le transfert de l'affaire du tribunal de l'État de New York au district fédéral sud de New York, où elle se poursuit actuellement. X et xAI n'ont pas immédiatement répondu aux demandes de commentaires sur le procès ou sur des questions connexes. Au cours de la semaine précédant le dépôt, X a mis en œuvre des limitations sur le robot de réponse @Grok, l'empêchant de générer des images plaçant de manière non consensuelle des personnes identifiables dans des maillots de bain ou des sous-vêtements révélateurs. Ces restrictions ne s'étendaient pas à d'autres plateformes au moment de la rédaction du rapport. L'application Grok autonome, le site Web Grok et l'onglet Grok sur X ont conservé la capacité de produire de telles images. Les chercheurs ont observé Grok générant des milliers d’images sexualisées générées par l’IA par heure au cours de la semaine précédente. Beaucoup de ces images sont apparues publiquement sur X, contribuant ainsi à une large diffusion. Le volume et la nature de ces images sexualisées non consensuelles ont suscité une réaction mondiale, notamment de multiples enquêtes gouvernementales. Les autorités ont appelé les marchés d'applications pour smartphones à interdire ou à restreindre X sur ces fonctionnalités. La Californie a lancé une enquête « Chuck » sur cette affaire. Le gouverneur Gavin Newsom a publié sur X une déclaration condamnant la situation : « La décision de xAI de créer et d’héberger un terrain fertile pour les prédateurs afin de diffuser des deepfakes non consensuels et sexuellement explicites d’IA, y compris des images qui déshabillent numériquement des enfants, est ignoble. » Ces critiques publiques ont mis en lumière des inquiétudes quant au rôle de la plateforme dans la facilitation de tels contenus. Le procès de St. Clair qualifie la capacité de Grok de créer des deepfakes non consensuels de défaut de conception. Il affirme que xAI aurait pu prévoir l'utilisation de cette fonctionnalité pour harceler des individus avec des images illégales. Les personnes représentées, y compris St. Clair, ont ressenti une détresse extrême à cause des deepfakes générés. La plainte accuse xAI de conduite extrême et scandaleuse. Il déclare mot pour mot : « L’accusé s’est livré à une conduite extrême et scandaleuse, dépassant toutes les limites de la décence et totalement intolérable dans une société civilisée. » Ces allégations constituent la base de plaintes pour négligence et pour cause intentionnelle de détresse émotionnelle.





