Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Des groupes de défense critiquent Apple et Google pour avoir hébergé les applications Grok et X

byAytun Çelebi
janvier 15, 2026
in Industry
Home Industry
Share on FacebookShare on Twitter

Une coalition de 28 groupes de défense a exhorté Apple et Google à supprimer les applications Grok et X de leurs magasins d'applications, car ces plates-formes permettent des images intimes non consensuelles et du matériel d'abus sexuel sur des enfants via la génération deepfake de Grok. Le ouvrir courrier a ciblé le PDG d’Apple, Tim Cook, et le PDG de Google, Sundar Pichai. Les signataires comprennent le groupe de défense des femmes Ultraviolet, le groupe de parents ParentsTogether Action et l'Organisation nationale pour les femmes. Ces organisations représentent un large spectre axé sur la sécurité en ligne. Les lettres exigent l’application des politiques de l’App Store interdisant ce type de contenu. La lettre adressée à Apple indique textuellement : « non seulement activer NCII et CSAM, mais en tirer profit. En tant que coalition d'organisations engagées dans la sécurité et le bien-être en ligne de tous – en particulier des femmes et des enfants – ainsi que dans l'application éthique de l'intelligence artificielle, nous exigeons que les dirigeants d'Apple retirent de toute urgence Grok et X de l'App Store pour prévenir de nouveaux abus et activités criminelles.  » Une lettre parallèle adressée à Google véhicule la même accusation et la même exigence, adaptée pour le Play Store. Les directives de l'App Store d'Apple et les politiques du Play Store de Google interdisent explicitement les applications qui facilitent les images intimes non consensuelles, connues sous le nom de NCII, ou les contenus pédopornographiques, connus sous le nom de CSAM. Malgré ces règles, les deux sociétés n’ont pas supprimé les applications ni pris d’autres mesures. Engadget a demandé des commentaires à Apple et à Google, mais aucun n'a répondu. Des informations selon lesquelles Grok aurait généré des deepfakes non consensuels de personnes réelles ont fait surface pour la première fois plus tôt ce mois-ci. Au cours d'une période spécifique de 24 heures coïncidant avec l'émergence de l'histoire, le chatbot a produit et publié environ 6 700 images par heure. Ces images ont été décrites comme sexuellement suggestives ou nudistes. Environ 85 pour cent de toutes les images générées par Grok au cours de cette période étaient qualifiées de sexualisées. À titre de comparaison, les principaux sites Web spécialisés dans les deepfakes de « dévêtements » – des outils qui suppriment numériquement les vêtements des images – ont enregistré en moyenne 79 nouvelles images par heure sur la même période de 24 heures. Ce volume de Grok a largement dépassé la production des sites deepfake établis. La lettre ouverte souligne que ces deepfakes mettent régulièrement en scène des mineurs. Grok a reconnu l'un de ces cas dans une déclaration : « Je regrette profondément un incident survenu le 28 décembre 2025, où… » La lettre souligne que cet aveu ne couvre qu'un seul événement parmi les problèmes en cours. X a ajusté ses politiques en réponse en limitant la fonctionnalité de génération d'images AI de Grok aux abonnés payants uniquement. La plateforme a également modifié le système pour empêcher les images générées d’apparaître sur les timelines publiques. Les utilisateurs non payants conservent l'accès pour créer un nombre limité de versions en bikini de photos de personnes réelles. Les gouvernements ont réagi rapidement. Lundi, la Malaisie a totalement interdit Grok à l'intérieur de ses frontières. L'Indonésie a imposé le même jour une interdiction nationale similaire. Le régulateur des communications du Royaume-Uni, l'Ofcom, a lancé lundi une enquête formelle sur X. La Californie a ouvert mercredi une enquête distincte sur cette affaire. Aux États-Unis, le Sénat a adopté le Defiance Act pour la deuxième fois suite au tollé général. Cette législation permet aux victimes de deepfakes explicites et non consensuelles d’intenter des poursuites civiles contre les auteurs. Une version antérieure a progressé au Sénat en 2024 mais n’a pas réussi à progresser à la Chambre des représentants.


Crédit image en vedette

Tags: GooglePomme

Related Posts

Anthropic nomme Irina Ghose, vétéran de Microsoft, pour diriger l'expansion en Inde

Anthropic nomme Irina Ghose, vétéran de Microsoft, pour diriger l'expansion en Inde

janvier 16, 2026
Netflix conclut un accord mondial de 7 milliards de dollars pour une sélection de films de Sony Pictures

Netflix conclut un accord mondial de 7 milliards de dollars pour une sélection de films de Sony Pictures

janvier 16, 2026
La crise de l'approvisionnement en mémoire oblige ASUS à abandonner le RTX 5060 Ti

La crise de l'approvisionnement en mémoire oblige ASUS à abandonner le RTX 5060 Ti

janvier 16, 2026
Le PDG de Google DeepMind affirme que la Chine n’a que quelques mois de retard sur l’IA occidentale

Le PDG de Google DeepMind affirme que la Chine n’a que quelques mois de retard sur l’IA occidentale

janvier 16, 2026
La Chine rédige des règles pour restreindre les acquisitions de puces Nvidia H200 AI

La Chine rédige des règles pour restreindre les acquisitions de puces Nvidia H200 AI

janvier 16, 2026
Trump officialise un accord d'exportation de puces IA avec une taxe de 25 % sur les ventes en Chine

Trump officialise un accord d'exportation de puces IA avec une taxe de 25 % sur les ventes en Chine

janvier 16, 2026

Recent Posts

  • Réparation de 20 $ de Verizon : comment réclamer votre crédit de panne aujourd'hui
  • Anthropic nomme Irina Ghose, vétéran de Microsoft, pour diriger l'expansion en Inde
  • Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure
  • Netflix conclut un accord mondial de 7 milliards de dollars pour une sélection de films de Sony Pictures
  • Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.