Comment l’UE va encadrer les plateformes numériques

130

Désinformation, haine en ligne, contrefaçons… Le règlement de l’UE sur les services numériques («Digital Services Act», DSA) qui pourrait être conclu vendredi, vise à faire respecter les lois européennes par les plateformes numériques, en particulier les réseaux sociaux et les places de marché. Etat des lieux des principaux points, avant d’ultimes discussions entre Parlement européen et représentants des Etats membres.

  • Obligations pour tous les fournisseurs: Tous les fournisseurs de services numériques dans l’UE devront désigner un représentant légal dans un des 27 Etats membres. Ils devront publier une fois par an un rapport détaillant les actions entreprises pour la modération de contenus et leurs délais de réaction après notification de contenus illégaux.
  • Obligations pour toutes les plateformes en ligne : Toutes les plateformes en ligne (réseaux sociaux, places de marché…) devront se doter d’un système gratuit de réclamations permettant de contester des décisions de retrait d’information, de suspension ou de résiliation de compte. Les plateformes devront suspendre les utilisateurs fournissant «fréquemment» des contenus illégaux (discours de haine, annonces frauduleuses…). Les plateformes devront informer «promptement» les autorités judiciaires quand elles soupçonnent une «infraction pénale grave» menaçant «la vie ou la sécurité des personnes». Les sites de vente en ligne devront contrôler l’identité de leurs fournisseurs avant de les autoriser sur leur plateforme et bloquer les fraudeurs récidivistes. Dans leur rapport annuel, les plateformes en ligne devront rendre compte des litiges avec leurs utilisateurs et des sanctions prises (retraits de contenus, suspensions de compte…). Pour la publicité, les plateformes devront permettre à chaque utilisateur de connaître les paramètres utilisés pour le cibler et le financeur de l’annonce. A la demande du Parlement européen, devrait s’ajouter l’interdiction d’exploiter les données «sensibles» des utilisateurs (genre, tendance politique, appartenance religieuse…) pour de la publicité ciblée, afin notamment d’empêcher les manipulations de l’opinion. Le Parlement souhaite interdire les interfaces truquées («dark pattern») qui poussent les internautes vers certains paramétrages de compte ou certains services payants. Le texte devrait mentionner spécifiquement le «revenge porn» et imposer un retrait de ce type de contenus.
  • Obligations pour les très grandes plateformes : Des obligations complémentaires s’imposeront aux «très grandes» plateformes en ligne, comptant plus de 45 millions d’utilisateurs actifs dans l’UE, soit potentiellement une vingtaine d’entreprises dont Google (et sa filiale YouTube), Meta (Facebook, Instagram), Amazon, Microsoft (et son réseau social LinkedIn), Apple, ainsi que Twitter, et peut-être aussi TikTok, Zalando ou la plateforme de réservations Booking. Elles devront analyser les risques liés à leurs services en matière de diffusion de contenus illégaux, d’atteinte à la vie privée ou à la liberté d’expression, de santé ou de sécurité publique. Et devront mettre en place les moyens pour les atténuer (modération des contenus…). Les très grandes plateformes fourniront au régulateur un accès à leurs données afin qu’il puisse contrôler le respect du règlement. Ces données pourront aussi être ouvertes à des chercheurs agréés. Elles seront auditées une fois par an par des organismes indépendants afin de vérifier le respect de leurs obligations.
  • Autorités de contrôle : Chaque Etat membre de l’UE désignera une autorité compétente, dotée d’un pouvoir d’enquête et de sanction, pour faire appliquer le règlement. Ces 27 autorités coopéreront entre elles.
  • Sanctions : Les amendes pourront atteindre jusqu’à 6% du c.a. annuel. – Exemption pour les petites entreprises : Les microentreprises et petites entreprises sont exemptées des obligations prévues par le règlement.