Lutte contre la désinformation électorale : Meta, Microsoft et Google en 1ère ligne contre les deepfakes 

102

Vingt géants du numérique se sont engagés vendredi à lutter contre les contenus créés par intelligence artificielle visant à tromper les électeurs, alors des scrutins majeurs sont prévus partout sur la planète en 2024. 

Ces entreprises, dont Meta, Microsoft, Google, OpenAI, TikTok et X, promettent de «déployer des technologies pour contrer les contenus nuisibles générés par l’IA», dans un texte dévoilé en marge de la grande conférence de Munich sur la sécurité (MSC). 

Ils s’engagent notamment à «travailler sur des outils» permettant de «repérer» des contenus trompeurs créés par intelligence artificielle afin de les identifier comme tels pour les utilisateurs et les contrôler. 

L’une des idées pour y parvenir serait d’apposer un «tatouage numérique» dans les vidéos générées par les outils IA développés par ces entreprises, invisible à l’oeil nu, mais pouvant être détecté par une machine. 

«Toutes les solutions ont des limites», préviennent toutefois les signataires, parmis lesquels on retrouve aussi Adobe, LinkedIn, Amazon et IBM. 

«Nous avons une responsabilité pour que ces outils ne deviennent pas des armes dans les élections», a expliqué Brad Smith, vice-président du conseil d’administration de Microsoft, qui a investit dans OpenAI, le créateur de ChatGPT. 

L’IA dite générative permet de créer, sur simple demande en langage courant, du texte, des images, des fichiers sonores ou des vidéos, susceptibles de faire passer pour authentiques des documents créés de toutes pièces. 

Grâce à des archives, la technologie peut notamment produire des «deepfakes», des documents qui présentent une personne en train de dire ou de faire quelque chose alors que cela ne s’est jamais produit. 

Les géants du numérique sont pressés d’agir face à la propagation de ces contenus, alors que des scrutins majeur sont prévus en 2024 partout dans le monde, notamment dans l’Union Européenne, aux États- Unis, au Royaume-Uni, en Inde et en Russie. 

«Avec autant d’élections importantes qui ont lieu cette année, il est essentiel que nous fassions ce que nous pouvons pour éviter que les gens soient trompés par le contenu généré par l’IA», a déclaré Nick Clegg, responsable de Meta. 

Plusieurs «deepfakes» ont fait parler d’eux ces dernières semaines, notamment un faux message téléphonique du président américain Joe Biden avant la primaire démocrate du New Hampshire, fin janvier. 

Au Pakistan, le parti de l’ancien Premier ministre Imran Khan a également utilisé l’IA pour générer des discours de leur leader emprisonné.