IA : la Maison Blanche rappelle leur devoir moral aux entreprises

128

Les grandes entreprises de l’intelligence artificielle (IA) ont un devoir «moral» de protéger la société des dangers potentiels de cette technologie majeure, a déclaré la vice-présidente américaine Kamala Harris jeudi aux patrons de Google, Microsoft, OpenAi et Anthropic. «Le secteur privé a un devoir éthique, moral et légal de s’assurer de la sûreté et de la sécurité de ses produits», a-t-elle indiqué dans un communiqué après une réunion à la Maison Blanche avec Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI), Dario Amodei (Anthropic) et plusieurs membres du gouvernement. Kamala Harris a souligné que l’IA a le «potentiel d’améliorer le quotidien et de s’attaquer à certains des plus grands défis de la société», mais qu’elle pourrait aussi «augmenter considérablement les menaces qui pèsent sur la sécurité, rogner sur les droits humains et la confidentialité, et saper la confiance du public dans la démocratie». Elle a précisé soutenir, avec le président Joe Biden – qui est passé rapidement à la réunion – de «potentielles nouvelles régulations» et «une nouvelle législation». L’intelligence artificielle est déjà très présente depuis des années, des réseaux sociaux à la recherche médicale et aux logiciels de recrutement. Mais le succès fulgurant cet hiver de ChatGPT, l’interface d’IA générative d’OpenAI, une start-up largement financée par Microsoft, a lancé une course à des systèmes toujours plus performants, capables de générer du code, des textes et des images de plus en plus complexes.Leur déploiement suscite beaucoup d’inquiétude. Surtout quand Sam Altman, le patron d’OpenAI, évoque l’avènement prochain de l’IA dite «générale», quand les programmes seront «plus intelligents que les humains en général». «C’est bien d’essayer d’anticiper (la question de la régulation). Cela ne va pas être facile mais je crois qu’on peut y arriver», a-t-il déclaré jeudi à des journalistes avant d’entrer à la Maison Blanche. Les dangers vont de la discrimination à l’automatisation de tâches remplies par des humains, au vol de propriété intellectuelle ou encore à la désinformation sophistiquée à grande échelle, entre autres. La Maison Blanche a publié fin 2022 un «plan pour une Déclaration des droits sur l’IA», qui énumère des principes généraux tels que la protection contre les systèmes dangereux ou faillibles. Le National Institute of Standards and Technology (NIST), un centre affilié au gouvernement, a lui conçu un «cadre pour la gestion des risques» liés à l’IA. Et le président Joe Biden a «clairement» dit récemment que les entreprises «doivent s’assurer que leurs produits sont sûrs avant de les mettre à disposition du grand public», mentionne l’invitation. Mais «ces lignes directrices et déclarations n’obligent pas les sociétés concernées à faire quoi que ce soit», souligne David Harris, qui a été directeur de recherche sur une IA responsable chez Meta. «Les patrons réclament eux-mêmes davantage de régulation», remarque-t-il, mais Facebook a longtemps «appelé publiquement» à mieux réglementer la confidentialité des données personnelles, «tout en payant des lobbies pour se battre contre les projets de loi». La Maison Blanche a annoncé jeudi de nouveaux investissements dans la recherche sur l’IA et des méthodes d’évaluation des systèmes actuels. Les géants de l’IA ne nient pas l’existence de risques, mais craignent que l’innovation ne soit bridée par des lois trop contraignantes. «L’IA va être utilisé par des acteurs malveillants, et oui, cela va causer des dégâts», a déclaré mercredi Michael Schwarz, économiste en chef de Microsoft, lors d’un débat au World Economic Forum, d’après Bloomberg. Mais il a appelé les législateurs à ne pas se précipiter. Et, quand il y aura des «dommages réels», à s’assurer que «les bénéfices de la régulation soient plus importants que le coût pour la société».