Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Le système CSAM d’Apple a-t-il permis que la maltraitance des enfants ne soit pas contrôlée ?

byKerem Gülen
décembre 9, 2024
in Cybersecurity, News
Home Cybersecurity
Share on FacebookShare on Twitter

Apple fait face à un procès de la part de victimes d’abus sexuels sur enfants pour ne pas avoir mis en œuvre un système de détection du matériel d’abus sexuel sur enfants (CSAM) sur iCloud, selon Le New York Times. La poursuite demande plus de 1,2 milliard de dollars de dommages et intérêts pour environ 2 680 personnes, reflétant une négligence présumée dans la protection des utilisateurs contre tout préjudice.

Apple poursuivi pour 1,2 milliard de dollars pour échec de détection de matériel pédopornographique

En 2021, Apple a annoncé son intention d’introduire un CSAM outil de détection destiné à scanner iCloud à la recherche d’images abusives et à alerter le Centre national pour les enfants disparus et exploités. Cette initiative visait à lutter efficacement contre l’exploitation des enfants. Cependant, à la suite d’importantes réactions négatives concernant les problèmes de confidentialité, Apple a abandonné le projet, laissant l’accusé sans protection et les abus persistants non résolus.

Le procès a été déposé en Californie du Nord et indique qu’Apple « n’a pas mis en œuvre ces conceptions ni pris de mesures pour détecter et limiter » le CSAM sur ses appareils. La plainte inclut l’expérience d’une femme de 27 ans, qui a déclaré qu’elle recevait toujours des notifications des forces de l’ordre concernant le partage en ligne de ses images prises lorsqu’elle était enfant. La poursuite met l’accent sur les troubles émotionnels que subissent les victimes alors que ces documents circulent sans contrôle.

« Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à lutter contre la manière dont les prédateurs mettent les enfants en danger. Nous innovons activement et de toute urgence pour lutter contre ces crimes sans compromettre la sécurité et la confidentialité de tous nos utilisateurs. Des fonctionnalités telles que Communication Safety, par exemple, avertissent les enfants lorsqu’ils reçoivent ou tentent d’envoyer du contenu contenant de la nudité afin de briser la chaîne de coercition qui mène aux abus sexuels sur enfants. Nous restons profondément concentrés sur la mise en place de protections qui aident à empêcher la propagation du CSAM avant qu’il ne commence », a déclaré le porte-parole d’Apple, Fred Sainz. Engadget.

En réponse, Apple a affirmé son engagement à lutter contre les abus sexuels sur enfants tout en donnant la priorité à la vie privée des utilisateurs. Le porte-parole Fred Sainz a déclaré : « Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à lutter contre la manière dont les prédateurs mettent les enfants en danger. » Il a fait référence à des mesures existantes telles que Communication Safety, qui met en garde les enfants contre le partage de contenus explicites.

Malgré ces efforts, Apple a récemment fait l’objet d’un examen plus approfondi lorsque la Société nationale britannique pour la prévention de la cruauté envers les enfants a accusé l’entreprise de sous-déclarer les CSAM trouvés sur ses plateformes. Cela ajoute à la pression croissante concernant les stratégies d’Apple pour gérer efficacement ce problème.


Crédit image en vedette : Niels Kehl/Unsplash

Tags: En vedettePomme

Related Posts

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

décembre 30, 2025
Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine

Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine

décembre 30, 2025
Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif

Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif

décembre 30, 2025
HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026

HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026

décembre 30, 2025
Le jeu de la bague de zoom du Xiaomi 17 Ultra est normal

Le jeu de la bague de zoom du Xiaomi 17 Ultra est normal

décembre 30, 2025
CachyOS défie Ubuntu dans de nouveaux tests de serveur

CachyOS défie Ubuntu dans de nouveaux tests de serveur

décembre 30, 2025

Recent Posts

  • Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA
  • Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA
  • WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo
  • Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine
  • Meta rachète la société d’IA à croissance rapide Manus dans le cadre d’un accord de 2 milliards de dollars

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.