INTERNET : La lutte pour le «temps de cerveau disponible» se fait aussi en ligne

371

Mais qu’est-ce que j’étais venu(e) faire sur cette page internet? En ligne, la capacité d’attention des utilisateurs est mise à rude épreuve, entre sollicitations intempestives et chausse-trappes. Certains développeurs et designers tentent d’apporter des solutions. Sur Internet, pas de doute, vous avez déjà fait l’expérience pratique de la «captologie». En 1996, l’Américain B.J. Fogg a ainsi théorisé la capacité des technologies numériques à influencer leurs utilisateurs. «On ne peut rien faire, qu’on le veuille ou non, sans être exposé à la technologie de persuasion», écrivait en 2010 ce chercheur de l’université de Stanford. Nous faisons l’expérience de cette «persuasive technology» au quotidien, notamment sur les grandes plateformes: le fil Facebook qu’on fait défiler à l’infini, ou la fonctionnalité «Auto playing» sur Netflix ou YouTube, qui passe d’une vidéo à une autre de manière automatisée. «Ce n’est pas un accident de conception, cela a été créé et mis en place dans le but de vous conserver sur la plateforme», observe Lenaïc Faure. Ce designer numérique a développé, dans le cadre de ses études et avec le collectif «Designers Ethiques», une méthode pour «savoir si le design attentionnel mis en place dans une application est soutenable d’un point de vue éthique». Dans le cas de YouTube par exemple, Lenaïc Faure observe que si vous suivez le flux de suggestions, «il y a une sorte de dissonance entre l’objectif initial de l’utilisateur», regarder une vidéo donnée, «et ce qui est mis en place pour tenter de le conserver sur la plateforme». Avec pour objectif de l’exposer à des annonces de partenaires et de mieux connaître ses goûts et habitudes. Le designer Harry Brignull a qualifié le phénomène de «dark pattern», qu’on pourrait traduire par «modèle obscur». «Ca caractérise le genre de modèles de design un peu malfaisant», explique-t-il, qui vise «à vous faire faire ce que les concepteurs veulent que vous fassiez». Pas toujours dans votre intérêt. Lui cite un autre exemple: avec l’entrée en application du règlement européen sur la protection des données (RGPD), les sites doivent demander un consentement explicite de leurs utilisateurs avant de pouvoir collecter leurs précieuses données personnelles. «C’est très facile de cliquer sur «OK», mais comment faire pour se désengager ou dire «non»?» Même ce professionnel averti est contraint de batailler une bonne minute avant de trouver comment refuser. Dans cette «économie de l’attention», celle-ci vaut de l’or. «Les économies d’échelle et les effets de réseaux ont laissé le contrôle de ces outils» capteurs d’attention «à un très petit nombre d’entreprises extrêmement puissantes», estimait en avril 2018 David S.H. Rosenthal, également passé par Stanford. Or ces entreprises sont «poussées par la nécessité de consommer de plus en plus d’attention disponible pour maximiser leurs profits». Lenaïc Faure propose de comparer l’objectif du designeur et celui de l’utilisateur: s’ils sont identiques ou proches (délivrer/recevoir une information), cette dernière est considérée comme responsable. Si le design modifie ou manipule l’objectif de l’utilisateur (l’entraîner vers un service non sollicité), elle est jugée non-responsable. Tim Krief, étudiant ingénieur, a pour sa part mis au point une extension, Minimal.community, pour masquer les suggestions «nocives» sur YouTube, Facebook, Amazon et dans une moindre mesure Twitter et Google. Libre et Open Source, l’extension doit «sensibiliser les utilisateurs sur ces questions», explique le jeune homme, pour qui «on ne donne pas assez d’importance à toute cette économie de l’attention, parce que cela nous semble invisible».Est-ce suffisant pour lutter contre les géants de la captation d’attention en ligne? «Ils vont avoir un petit impact», estime Harry Brignull, mais «cela peut être plus difficile d’avoir un impact sur les décisions des sociétés elles-mêmes».