Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Des groupes de défense critiquent Apple et Google pour avoir hébergé les applications Grok et X

byAytun Çelebi
janvier 15, 2026
in Industry
Home Industry
Share on FacebookShare on Twitter

Une coalition de 28 groupes de défense a exhorté Apple et Google à supprimer les applications Grok et X de leurs magasins d'applications, car ces plates-formes permettent des images intimes non consensuelles et du matériel d'abus sexuel sur des enfants via la génération deepfake de Grok. Le ouvrir courrier a ciblé le PDG d’Apple, Tim Cook, et le PDG de Google, Sundar Pichai. Les signataires comprennent le groupe de défense des femmes Ultraviolet, le groupe de parents ParentsTogether Action et l'Organisation nationale pour les femmes. Ces organisations représentent un large spectre axé sur la sécurité en ligne. Les lettres exigent l’application des politiques de l’App Store interdisant ce type de contenu. La lettre adressée à Apple indique textuellement : « non seulement activer NCII et CSAM, mais en tirer profit. En tant que coalition d'organisations engagées dans la sécurité et le bien-être en ligne de tous – en particulier des femmes et des enfants – ainsi que dans l'application éthique de l'intelligence artificielle, nous exigeons que les dirigeants d'Apple retirent de toute urgence Grok et X de l'App Store pour prévenir de nouveaux abus et activités criminelles.  » Une lettre parallèle adressée à Google véhicule la même accusation et la même exigence, adaptée pour le Play Store. Les directives de l'App Store d'Apple et les politiques du Play Store de Google interdisent explicitement les applications qui facilitent les images intimes non consensuelles, connues sous le nom de NCII, ou les contenus pédopornographiques, connus sous le nom de CSAM. Malgré ces règles, les deux sociétés n’ont pas supprimé les applications ni pris d’autres mesures. Engadget a demandé des commentaires à Apple et à Google, mais aucun n'a répondu. Des informations selon lesquelles Grok aurait généré des deepfakes non consensuels de personnes réelles ont fait surface pour la première fois plus tôt ce mois-ci. Au cours d'une période spécifique de 24 heures coïncidant avec l'émergence de l'histoire, le chatbot a produit et publié environ 6 700 images par heure. Ces images ont été décrites comme sexuellement suggestives ou nudistes. Environ 85 pour cent de toutes les images générées par Grok au cours de cette période étaient qualifiées de sexualisées. À titre de comparaison, les principaux sites Web spécialisés dans les deepfakes de « dévêtements » – des outils qui suppriment numériquement les vêtements des images – ont enregistré en moyenne 79 nouvelles images par heure sur la même période de 24 heures. Ce volume de Grok a largement dépassé la production des sites deepfake établis. La lettre ouverte souligne que ces deepfakes mettent régulièrement en scène des mineurs. Grok a reconnu l'un de ces cas dans une déclaration : « Je regrette profondément un incident survenu le 28 décembre 2025, où… » La lettre souligne que cet aveu ne couvre qu'un seul événement parmi les problèmes en cours. X a ajusté ses politiques en réponse en limitant la fonctionnalité de génération d'images AI de Grok aux abonnés payants uniquement. La plateforme a également modifié le système pour empêcher les images générées d’apparaître sur les timelines publiques. Les utilisateurs non payants conservent l'accès pour créer un nombre limité de versions en bikini de photos de personnes réelles. Les gouvernements ont réagi rapidement. Lundi, la Malaisie a totalement interdit Grok à l'intérieur de ses frontières. L'Indonésie a imposé le même jour une interdiction nationale similaire. Le régulateur des communications du Royaume-Uni, l'Ofcom, a lancé lundi une enquête formelle sur X. La Californie a ouvert mercredi une enquête distincte sur cette affaire. Aux États-Unis, le Sénat a adopté le Defiance Act pour la deuxième fois suite au tollé général. Cette législation permet aux victimes de deepfakes explicites et non consensuelles d’intenter des poursuites civiles contre les auteurs. Une version antérieure a progressé au Sénat en 2024 mais n’a pas réussi à progresser à la Chambre des représentants.


Crédit image en vedette

Tags: GooglePomme

Related Posts

OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW

OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW

janvier 15, 2026
Les bénéfices de TSMC grimpent de 35 % pour atteindre un niveau record en matière de demande de puces IA

Les bénéfices de TSMC grimpent de 35 % pour atteindre un niveau record en matière de demande de puces IA

janvier 15, 2026
OpenAI réembauche les meilleurs talents alors que la startup de 12 milliards de dollars de Murati perd ses cofondateurs

OpenAI réembauche les meilleurs talents alors que la startup de 12 milliards de dollars de Murati perd ses cofondateurs

janvier 15, 2026
OpenAI acquiert Torch pour améliorer ChatGPT Health

OpenAI acquiert Torch pour améliorer ChatGPT Health

janvier 14, 2026
Le rêve du métaverse de Meta s'estompe alors que 1 000 employés sont licenciés

Le rêve du métaverse de Meta s'estompe alors que 1 000 employés sont licenciés

janvier 14, 2026
La confusion monte alors que la Chine publie des règles vagues sur les importations de Nvidia H200

La confusion monte alors que la Chine publie des règles vagues sur les importations de Nvidia H200

janvier 14, 2026

Recent Posts

  • La panne de Verizon de 10 heures est enfin résolue
  • OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW
  • Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin
  • Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars
  • Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.