Les géants de l’IA au défi d’encadrer les dangers de cette technologie

43

Le 2ème «sommet» mondial sur l’IA s’est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés. Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur – du sud-coréen Samsung Electronics à l’américain Google en passant par OpenAI, le créateur de ChatGPT – ont codifié leurs engagements dans un document intitulé «Seoul AI Business Pledge» («Engagement de Séoul des entreprises sur l’IA»). La veille, 16 des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l’IA, en s’appuyant sur le consensus atteint lors du 1er «sommet» mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni). Ils ont notamment promis de définir les risques «jugés intolérables», et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à «ne pas développer ou déployer un modèle ou un système» dont les risques s’avéreraient trop difficiles à maîtriser. Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l’IA, vu la vitesse foudroyante avec laquelle elle se développe. «Je pense que c’est un très, très gros problème», avertit Markus Anderljung, du Centre pour la gouvernance de l’IA, organisme de recherche basé à Oxford, au Royaume-Uni. «L’IA sera l’un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies», prophétise cet expert. «Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés». Pour Michelle Donelan, la secrétaire d’Etat britannique à la Science, à l’Innovation et à la Technologie, «le rythme de développement de l’IA s’accélérant, nous devons nous mettre au diapason (…) si nous voulons en maîtriser les risques». «Simultanément, nous devons porter notre attention sur l’atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l’IA», ajoute la secrétaire d’Etat. Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l’IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles. Les modèles d’IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier. Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos «deepfake» de dirigeants politiques. Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l’utilisation de l’IA. «De plus en plus, nous réalisons qu’une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l’IA. L’IA ne connaît pas de frontières», estime Rumman Chowdhury, une experte en éthique de l’IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d’IA. Selon elle, le danger ne vient pas seulement de l’«IA galopante» des cauchemars de science-fiction, mais aussi de l’inégalité face à cette technologie, alors que l’IA est développée par «un très, très petit nombre de personnes et d’organisations» qui en récoltent les bénéfices.