Facebook : chasse intensive aux contenus nocifs

501
World Economic Forum, WEF, in Davos, Switzerland - 20 Jan 2017
Mandatory Credit: Photo by GIAN EHRENZELLER/EPA/REX/Shutterstock (7916860az) The facebook logo inside the facebook Chalet on the sideline of the 47th annual meeting of the World Economic Forum, WEF, in Davos, Switzerland, 20 January 2017. The meeting brings together enterpreneurs, scientists, chief executive and political leaders in Davos January 17 to 20. World Economic Forum, WEF, in Davos, Switzerland - 20 Jan 2017

L’intelligence artificielle joue un rôle exponentiel dans la chasse de Facebook aux vidéos terroristes ou aux images faisant l’apologie du suicide, mais le géant des technologies a aussi besoin de nombreux experts en chair et en os pour ne pas se faire rattraper par les nombreux risques de scandales. «Nos efforts sont en train de payer», assure d’emblée Mark Zuckerberg, lors d’une conférence de presse mercredi, à l’occasion de la publication d’un rapport bi-annuel de Facebook sur la transparence, se targuant dans le même temps d’avoir supprimé 5,4 milliards de faux comptes d’utilisateurs depuis le début de l’année. Les algorithmes du réseau social «sont désormais capable d’identifier de façon pro-active environ 80% des contenus que nous retirons», «contre quasiment 0% il y a deux ans», s’est félicité le fondateur du géant des réseaux. Mais il reconnaît que les technologies d’intelligence artificielle (IA) ont plus de mal à repérer les discours haineux que les vidéos comportant de la nudité, à cause des «nombreuses nuances linguistiques». C’est tout le problème du contexte: une vidéo montrant une attaque raciste peut être partagée à des fins de condamnation… ou de glorification. Difficile par exemple de savoir dans quel but des utilisateurs ont essayé, et essaient encore, de republier la vidéo de la tuerie de Christchurch. Mais les algorithmes de Facebook ont su bloquer en amont 95% de leurs tentatives. En tout, depuis l’attaque le 15 mars dernier, 4,5 millions d’extraits de cette vidéo ont été détectés par l’IA. L’assaillant, un suprémaciste blanc, s’était filmé en direct en train de massacrer des fidèles dans une mosquée en Nouvelle-Zélande. Le réseau avait mis 17 minutes à stopper la diffusion. Pour Facebook, l’enjeu est d’anticiper d’où va venir la menace, avant qu’elle n’arrive, pour empêcher que ce genre de scénario ne se reproduise. «Nous avons désormais plus 350 personnes dans l’entreprise dont la responsabilité 1ère est d’empêcher des membres de groupes terroristes d’utiliser notre service», remarque Monika Bickert, vice-présidente en charge de la modération de Facebook. «Une partie d’entre eux sont des spécialistes du terrorisme, que nous avons embauchés pour leur expertise». Même stratégie sur Instagram, qui a récemment durci sa réglementation pour lutter contre la circulation de contenus susceptibles d’encourager le suicide ou l’automutilation. Le réseau a interdit les photos, puis les dessins et illustrations sur le sujet après qu’un père eut accusé le réseau social d’avoir une responsabilité dans le suicide de sa fille de 14 ans. L’adolescente avait, selon son père, consulté beaucoup de contenus sur ce sujet. Dans le même temps, Facebook ne veut pas censurer les personnes qui se serviraient de ses services pour exprimer leurs émotions ou appeler à l’aide. «Nous avons intensifié le rythme de nos rencontres avec  des experts de l’autodestruction à une fois par mois» précise Monica Bickert. En tout, Facebook compte 35.000 personnes qui travaillent, en interne et chez des entreprises partenaires, à la sécurité et à la modération de contenus sur ses plateformes. Le réseau dominant a traversé plusieurs scandales d’utilisation néfaste de ses plateformes, des contenus dangereux aux campagnes de désinformation menées pendant des campagnes électorales, qui nuisent à la démocratie. Depuis, il multiplie les efforts, notamment en matière de transparence, pour rétablir la confiance avec ses utilisateurs, les autorités et les annonceurs publicitaires. Le géant des technologies a affirmé avoir supprimé 5,4 milliards de faux comptes d’utilisateurs depuis le début de l’année, contre 2,1 milliards l’année dernière à la même période. Dans son rapport il explique avoir «amélioré ses capacités à détecter et bloquer» les créations de comptes «faux ou abusifs» au point d’empêcher des millions de tentatives tous les jours.