Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Le système CSAM d’Apple a-t-il permis que la maltraitance des enfants ne soit pas contrôlée ?

byKerem Gülen
décembre 9, 2024
in Cybersecurity, News
Home Cybersecurity

Apple fait face à un procès de la part de victimes d’abus sexuels sur enfants pour ne pas avoir mis en œuvre un système de détection du matériel d’abus sexuel sur enfants (CSAM) sur iCloud, selon Le New York Times. La poursuite demande plus de 1,2 milliard de dollars de dommages et intérêts pour environ 2 680 personnes, reflétant une négligence présumée dans la protection des utilisateurs contre tout préjudice.

Apple poursuivi pour 1,2 milliard de dollars pour échec de détection de matériel pédopornographique

En 2021, Apple a annoncé son intention d’introduire un CSAM outil de détection destiné à scanner iCloud à la recherche d’images abusives et à alerter le Centre national pour les enfants disparus et exploités. Cette initiative visait à lutter efficacement contre l’exploitation des enfants. Cependant, à la suite d’importantes réactions négatives concernant les problèmes de confidentialité, Apple a abandonné le projet, laissant l’accusé sans protection et les abus persistants non résolus.

Le procès a été déposé en Californie du Nord et indique qu’Apple « n’a pas mis en œuvre ces conceptions ni pris de mesures pour détecter et limiter » le CSAM sur ses appareils. La plainte inclut l’expérience d’une femme de 27 ans, qui a déclaré qu’elle recevait toujours des notifications des forces de l’ordre concernant le partage en ligne de ses images prises lorsqu’elle était enfant. La poursuite met l’accent sur les troubles émotionnels que subissent les victimes alors que ces documents circulent sans contrôle.

« Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à lutter contre la manière dont les prédateurs mettent les enfants en danger. Nous innovons activement et de toute urgence pour lutter contre ces crimes sans compromettre la sécurité et la confidentialité de tous nos utilisateurs. Des fonctionnalités telles que Communication Safety, par exemple, avertissent les enfants lorsqu’ils reçoivent ou tentent d’envoyer du contenu contenant de la nudité afin de briser la chaîne de coercition qui mène aux abus sexuels sur enfants. Nous restons profondément concentrés sur la mise en place de protections qui aident à empêcher la propagation du CSAM avant qu’il ne commence », a déclaré le porte-parole d’Apple, Fred Sainz. Engadget.

En réponse, Apple a affirmé son engagement à lutter contre les abus sexuels sur enfants tout en donnant la priorité à la vie privée des utilisateurs. Le porte-parole Fred Sainz a déclaré : « Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à lutter contre la manière dont les prédateurs mettent les enfants en danger. » Il a fait référence à des mesures existantes telles que Communication Safety, qui met en garde les enfants contre le partage de contenus explicites.

Malgré ces efforts, Apple a récemment fait l’objet d’un examen plus approfondi lorsque la Société nationale britannique pour la prévention de la cruauté envers les enfants a accusé l’entreprise de sous-déclarer les CSAM trouvés sur ses plateformes. Cela ajoute à la pression croissante concernant les stratégies d’Apple pour gérer efficacement ce problème.


Crédit image en vedette : Niels Kehl/Unsplash

Tags: En vedettePomme

Related Posts

Votre prochain iPhone pourrait être plus cher cet automne

Votre prochain iPhone pourrait être plus cher cet automne

mai 12, 2025
Nintendo pourrait-il réellement brique votre commutateur pour la création de règles maintenant?

Nintendo pourrait-il réellement brique votre commutateur pour la création de règles maintenant?

mai 12, 2025
Divulguée: coûte 566 $ beaucoup trop pour AMD RX 9060 XT 8 Go

Divulguée: coûte 566 $ beaucoup trop pour AMD RX 9060 XT 8 Go

mai 12, 2025
Est-ce la mise à jour des équipes qui ne le rend pas terrible

Est-ce la mise à jour des équipes qui ne le rend pas terrible

mai 12, 2025
Tipsur Spotts Galaxy S25 Prix de bord et conception avant le lancement

Tipsur Spotts Galaxy S25 Prix de bord et conception avant le lancement

mai 12, 2025
La partie la plus ennuyeuse de l’utilisation du Wi-Fi Apple public vise à le résoudre

La partie la plus ennuyeuse de l’utilisation du Wi-Fi Apple public vise à le résoudre

mai 12, 2025

Recent Posts

  • Segmentation en apprentissage automatique
  • Algorithme de détection d’objet YOLO
  • Xgboost
  • Llamaindex
  • Ensemble de validation

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.