Le conseil de surveillance de Meta se saisit de deux affaires concernant des «deepfakes» sexualisant des femmes connues

70

Le conseil de surveillance de Meta (Facebook, Instagram) a annoncé mardi se saisir de deux affaires concernant les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des «deepfakes» mettant en scène Taylor Swift. Les deux cas ont été sélectionnés «pour évaluer si les règlements de Meta et leur application sont efficaces pour traiter (le problème) des images à caractère sexuel générées par l’intelligence artificielle (IA)», note dans un communiqué ce conseil surnommé «cour suprême».

Mis en place par le géant des réseaux sociaux et composé de membres indépendants, le conseil est chargé de trancher des questions épineuses de modération des contenus. L’essor de l’IA générative, qui automatise la production de contenus perfectionnés, a donné un nouvel élan au phénomène des «deepfakes», ou «hypertrucages», notamment les images manipulées et sexualisées qui mettent en scène des femmes, à des fins d’intimidation ou de harcèlement. Le premier cas choisi par le conseil de surveillance de Meta concerne une image générée par l’IA d’une femme nue postée sur Instagram, «ressemblant à une personnalité publique indienne», indique le communiqué. Un utilisateur s’est plaint que l’entreprise californienne ne retire pas cette image. «Meta a déterminé que sa décision de laisser le contenu affiché était erronée et a supprimé le message pour violation de ses règles sur l’intimidation et le harcèlement», relève le conseil. Le deuxième cas concerne une image postée sur un groupe Facebook de création de contenus avec l’IA, montrant «une femme nue avec un homme qui lui tripote les seins». La femme «ressemble à une personnalité publique américaine», également nommée dans la légende.

Meta avait retiré l’image, et l’avait ajoutée à une banque de contenus qui fait partie de son système d’application des règles, pour trouver et supprimer automatiquement de ses plateformes les images déjà identifiées par des employés comme problématiques.

En janvier dernier, une fausse image pornographique de la superstar américaine Taylor Swift avait été vue 47 millions de fois sur X (ex-Twitter) avant d’être supprimée par le réseau social, une quinzaine d’heures après avoir été mise en ligne. L’affaire avait suscité l’indignation de ses fans, de nombreuses personnalités et même de la Maison Blanche. Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’IA, 96% des fausses vidéos en ligne sont de la pornographie non consentie et la plupart d’entre elles représentent des femmes, célèbres ou pas.