Apple fait face à un procès de la part de victimes d’abus sexuels sur enfants pour ne pas avoir mis en œuvre un système de détection du matériel d’abus sexuel sur enfants (CSAM) sur iCloud, selon Le New York Times. La poursuite demande plus de 1,2 milliard de dollars de dommages et intérêts pour environ 2 680 personnes, reflétant une négligence présumée dans la protection des utilisateurs contre tout préjudice.
Apple poursuivi pour 1,2 milliard de dollars pour échec de détection de matériel pédopornographique
En 2021, Apple a annoncé son intention d’introduire un CSAM outil de détection destiné à scanner iCloud à la recherche d’images abusives et à alerter le Centre national pour les enfants disparus et exploités. Cette initiative visait à lutter efficacement contre l’exploitation des enfants. Cependant, à la suite d’importantes réactions négatives concernant les problèmes de confidentialité, Apple a abandonné le projet, laissant l’accusé sans protection et les abus persistants non résolus.
Le procès a été déposé en Californie du Nord et indique qu’Apple « n’a pas mis en œuvre ces conceptions ni pris de mesures pour détecter et limiter » le CSAM sur ses appareils. La plainte inclut l’expérience d’une femme de 27 ans, qui a déclaré qu’elle recevait toujours des notifications des forces de l’ordre concernant le partage en ligne de ses images prises lorsqu’elle était enfant. La poursuite met l’accent sur les troubles émotionnels que subissent les victimes alors que ces documents circulent sans contrôle.
« Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à lutter contre la manière dont les prédateurs mettent les enfants en danger. Nous innovons activement et de toute urgence pour lutter contre ces crimes sans compromettre la sécurité et la confidentialité de tous nos utilisateurs. Des fonctionnalités telles que Communication Safety, par exemple, avertissent les enfants lorsqu’ils reçoivent ou tentent d’envoyer du contenu contenant de la nudité afin de briser la chaîne de coercition qui mène aux abus sexuels sur enfants. Nous restons profondément concentrés sur la mise en place de protections qui aident à empêcher la propagation du CSAM avant qu’il ne commence », a déclaré le porte-parole d’Apple, Fred Sainz. Engadget.
En réponse, Apple a affirmé son engagement à lutter contre les abus sexuels sur enfants tout en donnant la priorité à la vie privée des utilisateurs. Le porte-parole Fred Sainz a déclaré : « Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à lutter contre la manière dont les prédateurs mettent les enfants en danger. » Il a fait référence à des mesures existantes telles que Communication Safety, qui met en garde les enfants contre le partage de contenus explicites.
Malgré ces efforts, Apple a récemment fait l’objet d’un examen plus approfondi lorsque la Société nationale britannique pour la prévention de la cruauté envers les enfants a accusé l’entreprise de sous-déclarer les CSAM trouvés sur ses plateformes. Cela ajoute à la pression croissante concernant les stratégies d’Apple pour gérer efficacement ce problème.
Crédit image en vedette : Niels Kehl/Unsplash