Bruxelles veut contraindre les plateformes à mieux lutter contre la pédopornographie

306

Bruxelles a présenté mercredi un projet de règlement imposant des obligations aux plateformes et messageries en ligne pour détecter, signaler et retirer les images pédopornographiques, s’inquiétant de l’explosion de ces contenus illégaux. Une proposition suivie de près par l’industrie de la tech, qui redoute une dérive vers une surveillance de masse. La Commission européenne préconise aussi la mise en place d’un centre européen de lutte contre les abus sexuels commis sur des enfants, une agence indépendante qui serait basée à La Haye (Pays-Bas) comme Europol, avec qui elle collaborera. Elle serait notamment chargée de recueillir les signalements de ces contenus par les plateformes et apporterait une aide aux victimes pour obtenir leur retrait. «Notre société échoue aujourd’hui à protéger les enfants», s’est alarmée la commissaire européenne aux Affaires intérieures, Ylva Johansson. Elle a indiqué qu’en 2021 dans le monde, 85 millions de vidéos et photos impliquant des abus sexuels sur mineurs avaient été signalées, selon le Centre américain pour les enfants disparus et exploités, NCMEC. «Et c’est juste la partie émergée de l’iceberg», a-t-elle souligné. «Les signalements ont augmenté de 6.000% au cours des 10 dernières années» dans l’UE, selon Ylva Johansson. Jusqu’à 95% des signalements des contenus dans le monde en 2020 provenaient du seul Facebook, alors que «le problème ne se réduit pas à une seule plateforme», note la Commission. Jusqu’à présent, les fournisseurs de services et messageries sur internet procèdent de façon volontaire à la détection de ces contenus illégaux. Mais Bruxelles veut désormais les contraindre à être proactifs, sous peine de sanctions. Cette législation s’inscrit dans le cadre plus général du règlement de l’UE sur les services numériques («Digital Services Act», DSA) visant à encadrer les plateformes numériques, qui prévoit des amendes pouvant atteindre jusqu’à 6% de leur c.a. annuel en cas d’infraction. Le projet de règlement prévoit l’obligation pour les plateformes d’évaluer les risques que leurs services soient utilisés pour diffuser des images pédopornographiques, ou pour la sollicitation d’enfants par des pédophiles, et la mise en place de mesures préventives. Les Etats membres doivent désigner une autorité indépendante chargée de surveiller que la plateforme remplit ces obligations, et habilitée à demander le cas échéant à un tribunal ou à une autorité administrative d’émettre un ordre de détection, strictement ciblé et limité dans le temps. La Commission prévoit que les fournisseurs devront «utiliser des technologies de détection qui sont les moins intrusives possibles pour la vie privée» et qui permettent de «limiter au maximum le taux d’erreur». La législation ne précise pas quelle technologie doit être utilisée. Ces contenus illégaux, une fois repérés, devront être signalés au nouveau Centre européen de prévention et de lutte contre les abus sexuels sur les enfants, qui procèdera à une vérification et les enverra aux autorités de police compétentes et à Europol. La proposition doit encore être discutée avec le Parlement européen et les Etats membres. La commissaire, qui a rencontré des représentants de près d’une vingtaine d’acteurs du numérique, s’attend à un «gros lobbying des entreprises contre» sa proposition. «Mais je pense que j’ai une écrasante majorité de citoyens de mon côté», a-t-elle commenté. «Nous espérons que les nouvelles obligations (…) respecteront l’interdiction européenne de surveillance généralisée et qu’elles ne porteront pas atteinte au cryptage», a réagi Victoria de Posson, de l’association CCIA, qui représente les industries des technologies de l’information et des communications, dont sont membres les «Gafa». «Nous sommes disposés à travailler avec les législateurs européens pour élaborer des règles efficaces et réalisables», a-t-elle ajouté dans un communiqué.