La campagne électorale indienne viciée par l’IA

49

Des politiciens indiens morts depuis longtemps miraculeusement ramenés à la vie ou des candidats tournés en ridicule dans des vidéos savamment truquées: l’IA sert à alimenter d’âpres campagnes partisanes à l’approche des élections nationales en Inde. Les «apparitions fantômes» sont légion dans la campagne électorale de l’Etat du Tamil Nadu, dans le sud du pays. J. Jayalalithaa, actrice devenue politicienne dans cet Etat et décédée en 2016, a ressuscité dans un message vocal critiquant le gouvernement local, diffusé par le parti d’opposition. Son ancien adversaire, M. Karunanidhi, mort depuis 2018, a surgi à son tour dans des vidéos, chaussé de lunettes noires, pour faire l’éloge de son fils, M.K. Stalin, l’actuel ministre en chef de l’Etat. Le recyclage d’orateurs «très charismatiques» est un nouveau moyen de gagner de l’audience, déclare Senthil Nayagam, fondateur de la société Muonium, qui a réalisé la vidéo ayant exhumé M. Karunanidhi. La pénétration d’internet augmente, plus de la moitié des 800 millions d’utilisateurs indiens se trouvant dans des zones rurales, selon l’association de l’industrie internet et mobile de l’Inde (IMAI), et elle permet de diffuser rapidement un message politique. Une méthode plus efficace dans les campagnes électorales que les rassemblements politiques traditionnels, qui restent coûteux en moyens et en temps, explique M. Nayagam. «C’est difficile de faire venir des foules», estime-t-il. Mais l’usage de la technologie pour désinformer inquiète, constituant «une menace sérieuse pour la démocratie et les institutions sociales», a mis en garde le ministre de la Communication Ashwini Vaishnaw en novembre. L’IA peut reproduire si bien la voix d’un politicien et manipuler son image à la perfection, que les électeurs peinent à discerner le vrai du faux. «L’IA peut devenir l’outil de développement le plus important du XXIe siècle et peut aussi jouer le rôle le plus important dans la destruction du XXIe siècle», avait prévenu le Premier ministre Narendra Modi dans une allocution en décembre. Cela n’a pas empêché son parti, le BJP, d’y recourir. Et d’être d’ailleurs le 1er à s’en servir pour faire apparaître M. Modi virtuellement dans des rassemblements. Divyendra Jadoun, un créateur de produits d’IA pour la société The Indian Deepfaker, observe une «énorme augmentation» des commandes de contenus de ce type. «Il y a un risque énorme pour les prochaines élections», selon cet homme de 30 ans qui se dit «sûr que beaucoup l’utilisent pour des activités contraires à l’éthique». Mais s’il affirme avoir refusé des commandes qu’il n’approuvait pas, «la frontière est très mince, parfois même nous (les pros) sommes dupés», admet-il. Selon lui, «une grande partie du pays» ne comprend pas cette technologie évolutive et prend les contenus conçus par l’IA pour la réalité. «Nous avons tendance à ne vérifier que des vidéos allant à l’encontre de nos idées préconçues», reconnaît-il. L’IA sert aussi à tourner en ridicule ou en dérision des adversaires, suivant la séculaire tradition de la caricature politique. Seulement les images générées par l’IA ont l’apparence du réel, rappellent les experts. Un parti d’opposition, Aam Aadmi, au pouvoir dans la capitale New Delhi, a fait circuler une vidéo générée par l’IA où M. Modi s’enfuit avec une urne électorale. Dans un autre Etat, des vidéos modifiées et diffusées sur Facebook montrent le politicien musulman Asaduddin Owaisi entonnant de pieux chants hindous alors qu’une légende moqueuse vient souligner que si le BJP l’emporte encore: «tout est possible». Car «il est plus efficace de ridiculiser un adversaire pour réduire ses chances politiques que de le traiter de voyou ou d’escroc», estime Joyojeet Pal, spécialiste du rôle de la technologie dans la démocratie à l’Université du Michigan. Une «polarisation» croissante entre les adversaires politiques rend, selon l’expert, leurs partisans «plus enclins» à croire les fausses informations sur le camp opposé. «C’est une menace pour la démocratie dans son ensemble», prévient M. Pal.