Réseaux sociaux: quelques enseignements des «rapports de transparence»

96

Les Français adorent LinkedIn, les Espagnols sont accros à AliExpress, les signalements sur Facebook aboutissent rarement et la modération des contenus est largement automatisée: voici quelques enseignements des «rapports de transparence» que viennent de publier les 19 plus grandes plateformes, pour respecter les nouvelles règles européennes. Un quart des Européens (104 millions) utilisent AliExpress, le site de vente du chinois Alibaba. Surtout en Espagne (20 millions) et au Portugal (4 millions), soit 40% des habitants des deux pays de la péninsule ibérique. Les Français se laissent aussi séduire, pour 18,7 millions d’entre eux, loin devant les 10,9 millions d’Allemands. Ces derniers préfèrent le géant américain de la vente en ligne Amazon, qui compte 60,4 millions d’Allemands utilisateurs actifs, soit les trois quarts de la population, contre «seulement» 34 millions de Français et 38 millions d’Italiens. Seul Booking ne détaille pas ses chiffres d’utilisateurs. Côté réseaux, la moitié des Européens (258 millions) utilisent Facebook et presqu’autant (257 millions) Instagram. Les Français sont particulièrement attachés à LinkedIn, avec 21 millions d’utilisateurs et surtout 9 millions de comptes, de loin le plus gros score d’Europe où la plateforme professionnelle dénombre 132 millions d’utilisateurs et 45 millions de comptes. Toutes les plateformes et réseaux sociaux indiquent utiliser largement des algorithmes et modèles de langage pour détecter et retirer des contenus illicites (haine, fraude, arnaque, violence, contrefaçons, nudité, etc.). Sur les plateformes de vente, des millions de produits sont retirés. Par exemple, AliExpress a retiré 9 millions de produits de la vente ces derniers mois pour contrefaçon, défaut ou arnaque, dont 96% repérés de manière automatique, avec une fiabilité de 95%, selon le groupe. Amazon explique scanner chaque jour 8 milliards de tentatives de modification des fiches produits et avoir pris 274 millions d’actions de retrait de contenus qui contreviennent à ses règles, dont 73 millions d’actions ont été faites automatiquement. Facebook a retiré volontairement 46 millions de contenus entre avril et septembre 2023, sont 95% de manière automatique. Bing explique utiliser la comparaison automatique d’images pour retirer les vidéos illicites, l’App Store a pris 1 million de décisions dont 220.000 entièrement automatisées, comme des effacement d’avis abusifs et des clôtures de compte. Les modérateurs humains se font plus rares. X (ex-Twitter) en revendique 2.294 en anglais, 81 en allemand, 52 en français, 12 en arabe et 2 en italien. TikTok assure disposer de 6.125 personnes dédiées à la modération des contenus dans la seule UE. Meta n’affiche que 1.362 modérateurs dans les langues européennes, mais d’autres se trouvent à l’extérieur de l’UE et 2.000 travaillent sur des images, sans langue définie. LinkedIn compte 820 modérateurs dont 180 dans l’UE et 30 en français. La grande exception reste Wikipedia, avec ses dizaines de milliers de modérateurs humains qui font l’essentiel des contributions et corrections, dont 5.000 en France. Les signalements des internautes sont traités manuellement chez Meta (Facebook, Instagram…): entre avril et septembre 2023, il s’agissait surtout d’atteinte à la propriété intellectuelle (370.000 signalements), de diffamation (70.000) et d’atteintes à la vie privée. Sauf que les contenus n’ont été retirés que 1 fois sur 3 pour les atteintes à la propriété intellectuelle, 1 fois sur 7 pour les signalements de diffamation, et 1 fois sur 5 pour les atteintes à la vie privée. A noter qu’après une procédure «d’appel» de sa décision, 575.000 contenus ont été restaurés. Par ailleurs, les sites de Meta ont reçu 666 injonctions des autorités de donner des informations sur leurs utilisateurs (pour fraude, cyberharcèlement, terrorisme, abus sur enfants, contenus haineux… ), auxquels il ont répondu en 9 jours en moyenne.