Coincés par l’algorithme: bulles d’infos sur les réseaux sociaux

193

Vous avez l’impression de toujours voir les  mêmes contenus sur les réseaux sociaux ? Logique: ils sont poussés par des algorithmes, des programmes qui hiérarchisent ce que proposent ces plateformes en fonction de chaque utilisateur, au risque d’enfermer ce dernier dans une bulle. Les Assises du journalisme de Tours ont consacré jeudi dernier une conférence à ces «bulles informationnelles», «menus uniques» que nous imposent les algorithmes de YouTube, Facebook ou Twitter. Un enjeu de taille pour l’avenir, puisque les jeunes s’informent de plus en plus via les réseaux sociaux. Selon le baromètre Kantar – La Croix publié en  janvier, ces plateformes sont la 2ème source d’information des Français de 18 à 24 ans, derrière les JT. Au niveau mondial, si Facebook reste globalement le réseau social le plus utilisé pour s’informer, les jeunes se tournent massivement vers des  applis fondées sur l’image, comme TikTok et Instagram, selon le rapport 2022 du Reuters Institute.Tous ces réseaux fonctionnent selon leur propre algorithme, sorte de  recette informatique qui définit ce que voit chaque utilisateur en fonction de  son profil et de son historique de navigation. «Chaque fois qu’on like, retweete, commente un contenu, on signale à la machine: «ça c’est intéressant, ça me fait réagir, ça me fait rester connecté»», a expliqué Mathilde Saliou, journaliste du média spécialisé Next INpact. Par la suite, c’est ce type de contenu qui est plus facilement proposé à l’utilisateur. Car «c’est comme ça que sont construites les plateformes de réseaux sociaux», a poursuivi Mathilde Saliou. Leur «modèle économique le plus fréquent» est «de gagner de l’argent en montrant de la publicité», ce qui implique que l’utilisateur «reste connecté le plus longtemps possible». De quoi l’enfermer dans une «bulle de filtre», concept créé par l’Américain Eli Pariser en 2011. L’existence réelle de ces bulles «ne fait pas consensus», a tempéré Mathilde Saliou. Selon elle, c’est souvent un «effet dont on peut sortir» en prenant l’initiative d’aller voir d’autres contenus. En revanche, «il y a des inquiétudes vis-à-vis de certains effets spécifiques» qui peuvent entraîner l’utilisateur dans des «spirales de radicalisation». Ainsi, commencer à regarder sur YouTube des vidéos complotistes affirmant par exemple que la Terre est plate expose à être ensuite bombardé de vidéos similaires. Motif d’inquiétude supplémentaire: les contenus les plus susceptibles de faire rester l’utilisateur sur la plateforme sont souvent les plus clivants, polémiques. «Les émotions font vendre, créent de l’engagement, du simple clic au like, au commentaire et au partage», «en particulier» quand elles sont «négatives», a relevé Cyrille Frank, de l’agence de conseil numérique CosaVostra. Ces «algorithmes de négativité» sont un «danger», en particulier pour les jeunes, qui «voient l’info sur les réseaux sociaux», s’est alarmé David Medioni, de la Fondation Jean-Jaurès. Avec l’universitaire Guenaëlle Gault, il vient de sortir un essai intitulé «Quand l’info épuise», consacré à la «fatigue informationnelle» dont disent souffrir nombre de Français face à un trop-plein d’informations. Enfin, tous les observateurs pointent du doigt l’opacité des algorithmes, dont le mode de fonctionnement est un secret jalousement gardé par les plateformes. Le DSA, nouveau règlement européen sur les services numériques qui doit prochainement s’appliquer, prévoit que les Etats aient accès aux algorithmes  des grandes plateformes. Mais on ne sait pas dans quelle mesure celles-ci accepteront de s’y plier. Il y a quelques semaines, le nouveau propriétaire de Twitter, le milliardaire controversé Elon Musk, avait assuré qu’il rendrait public  l’algorithme du réseau. Une promesse restée jusque-là lettre morte. Pour Cyrille Frank, «il est souhaitable pour le citoyen de comprendre à quelle sauce il sera mangé» sur les réseaux sociaux. Après quoi, «chacun fait ses propres choix».