Depuis 2021, une dérogation temporaire à la directive « vie privée et communications électroniques » de 2002 autorise les plateformes, sur la base du volontariat, à avoir recours à un dispositif de détection d’images et de vidéos pédopornographiques dans les échanges privés de leurs utilisateurs. L’expérimentation est arrivée à son terme le 3 avril et l’UE se retrouve face à un vide juridique faute d’accord entre la Commission, les Etats membres et le Parlement européen sur un projet de règlement. La Commission européenne a donc appelé mardi les eurodéputés et les Etats de l’UE à accélérer leurs travaux pour lutter contre la diffusion d’images pédopornographiques en Europe.
Le 3 avril, plusieurs géants du Web américain, Meta, Google, Microsoft et Snapchat, à l’exception notable d’Apple, ont, néanmoins, annoncé publiquement qu’ils continueraient l’expérimentation des scans des messages privés dans le but de « protéger les enfants » et dans le respect de la vie privée.
« Ça fait 4 ans que le sujet n’avance pas »
Depuis 2022, les institutions européennes ne parviennent pas à s’accorder sur un projet de règlement dénommé « chat control ». Alors que plus de 100 millions d’images d’enfants victimes d’abus ont été détectées en 2023, le projet de règlement vise à obliger « les plateformes et services de messagerie en ligne à détecter puis signaler de tels contenus ».
« A chaque fois qu’un pays accède à la présidence tournante de l’UE, il fait de la lutte contre la pédopornographie sa priorité. Et ça fait 4 ans que le sujet n’avance pas car derrière ces bonnes intentions, les garanties en termes de protection de la vie privées sont interrogées. C’est ce qui explique le mouvement de rébellion du Parlement européen », explique Alexandre Archambault, avocat au barreau de Paris et spécialiste du droit du numérique.
« Il y a un problème de méthode et d’opacité dans l’approche de la Commission et d’Europol. Les eurodéputés manquent de matière sur la volumétrie des contenus détectés grâce à ce système de scan. Un système attentatoire aux libertés car il revient, in fine, à scanner chaque échange privé. On met le doigt dans un engrenage. La technologie est neutre et qui peut dire demain qu’elle ne sera pas utilisée pour détecter des opposants à Viktor Orban ou pour lutter contre ce que certains gouvernements appellent des éco terroristes ? », met en avant l’avocat.
170 000 signalements de contenus pédocriminels détectés en France en 2024
Face à l’opposition d’une grande partie des eurodéputés, le 30 octobre dernier, sous la présidence tournante du Danemark, l’Union européenne avait finalement décidé de retirer cette mesure soutenue par les associations de protection de l’enfance. Dans une tribune publiée dans le journal Le Monde cet automne, plusieurs sénatrices et sénateurs parmi lesquels, Olivia Richard (centriste), la présidente de la délégation aux droits des femmes, Dominique Vérien (centriste), Lauriane Josende (LR), Laure Darcos (Les Indépendants), Annick Billon (centriste), Jean-Michel Arnaud (centriste) et l’universitaire Jean-Claude Planque appelaient à avancer « sans crainte vers le recours au scan control pour protéger au mieux les mineurs » […] « en adoptant une réglementation parfaitement cadrée permettant d’assurer l’efficacité de ce contrôle tout en préservant nos droits fondamentaux ».
« La Commission ne peut pas pousser un texte contre l’avis du Parlement, Mais ça ne veut pas dire que le sujet est définitivement enterré. Le Parlement veut des éléments pour pouvoir faire un contrôle de proportionnalité de ce dispositif », rappelle Alexandre Archambault.
Il y a néanmoins urgence. En France, en 2024, l’Office des mineurs a été destinataire de 170 000 signalements de contenus pédocriminels, soit 465 par jour en moyenne, dont 164 516 provenant de la détection effectuée par les plateformes du numérique, révélait l’année dernière, le lieutenant-colonel Cyril Colliou, chef par intérim de l’Office mineurs, auditionné par la commission d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok sur les mineurs.