Les États membres de l’UE se sont mis d’accord sur une position en faveur d’une législation sur la protection de l’enfance en ligne qui élimine l’obligation pour les entreprises technologiques mondiales d’analyser et de supprimer les matériels pédopornographiques (CSAM). Cette évolution, rapportée par Reutersreprésente un résultat important pour des entreprises telles que Google et Meta. La position du Conseil européen s’écarte de la position du Parlement européen pour 2023. Cette proposition antérieure obligeait les services de messagerie, les magasins d’applications et les fournisseurs de services Internet (FAI) à signaler et à supprimer les CSAM ainsi que les cas de toilettage. Dans le cadre du nouveau cadre, aucune obligation de déclaration ou de suppression de ce type n’existe pour ces entités. La législation transfère la responsabilité aux grandes entreprises technologiques. Ces entreprises doivent évaluer les risques associés à leurs services et mettre en œuvre des mesures préventives si nécessaire. Cette approche met l’accent sur l’évaluation proactive plutôt que sur les processus obligatoires de détection et d’élimination. Les mécanismes d’application relèvent de la compétence des gouvernements nationaux individuels plutôt que d’une autorité centralisée de l’UE. Les États membres nommeront des autorités nationales désignées chargées d’examiner les évaluations des risques et les stratégies d’atténuation soumises par les fournisseurs de technologies. Ces autorités nationales ont le pouvoir d’exiger des prestataires qu’ils mettent en œuvre des mesures d’atténuation spécifiques si cela est jugé essentiel. Le Conseil européen a décrit cette structure dans une déclaration : « Les États membres désigneront des autorités nationales… chargées d’évaluer ces évaluations des risques et ces mesures d’atténuation, avec la possibilité d’obliger les prestataires à mettre en œuvre des mesures d’atténuation. » Le non-respect de ces directives entraîne des conséquences financières. Les prestataires qui ne s’y conforment pas s’exposent à des pénalités, garantissant ainsi la responsabilité au niveau national tout en évitant des sanctions uniformes à l’échelle de l’UE. Le texte proposé ne contient aucune disposition relative à l’analyse forcée des documents cryptés pour détecter le CSAM, un concept en discussion pas plus tard que l’année dernière. Les discussions ont exploré les moyens d’équilibrer la protection des enfants et la vie privée, mais la version actuelle omet ces mandats. Les dispositions abordent la protection des services de chiffrement. Le texte précise que le cryptage doit être sauvegardé, dans le but de préserver des canaux de communication sécurisés au milieu des débats en cours sur la surveillance. Une opposition est apparue dans certains milieux, notamment en République tchèque. Les critiques soutiennent que permettre aux entreprises technologiques d’autoréglementer la modération du contenu pourrait nuire aux plateformes de cryptage. Ce modèle d’autocontrôle soulève des inquiétudes quant à une érosion involontaire des garanties de confidentialité. La politicienne tchèque Markéta Gregorová a exprimé de fortes réserves dans un communiqué. Elle a décrit le compromis comme « une grande déception pour tous ceux qui se soucient de la vie privée ». Gregorová a en outre critiqué le rôle de la présidence danoise, notant qu’elle « a fait adopter une version de compromis de la proposition après de longues négociations, qui, tout en semblant moins invasive, ouvre en réalité la voie à ce contre lequel nous avons longtemps mis en garde : l’analyse globale de nos conversations privées ». Ses commentaires soulignent les craintes que l’accord puisse permettre des intrusions plus larges dans les communications personnelles au fil du temps. La législation introduit le Centre européen de lutte contre les abus sexuels sur enfants comme entité de soutien. Ce centre aidera les États membres à satisfaire aux exigences de conformité et offrira une aide aux victimes de tels abus, en fournissant des ressources pour les efforts de détection, de prévention et de rétablissement. Par ailleurs, le Parlement européen a plaidé en faveur de l’établissement d’un âge minimum pour l’accès des enfants aux plateformes de médias sociaux. Cet appel vise à limiter l’exposition à des préjudices potentiels, même si aucune législation dédiée à la vérification de l’âge n’avance actuellement. La position du Conseil nécessite des délibérations plus approfondies. Les négociations entre le Conseil et le Parlement restent en cours, ce qui signifie que la proposition n’a pas encore obtenu l’approbation finale.





