Inspirée par l’UE, la Californie tente d’imposer des limites à l’IA

57

Patrie de la Silicon Valley, la Californie tente d’imposer des limites à l’IA, inspirée par les avancées réglementaires européennes. Le Parlement européen a adopté, mi-mars, un texte encadrant les modèles d’IA, qui instaure des contraintes en matière de transparence, droits d’auteur ou de protection de la vie privée. «Nous essayons d’apprendre des Européens et de travailler avec eux pour comprendre comment mettre en place des règles pour l’IA», explique David Harris, conseiller à la California Initative for Technology and Democracy. Cette organisation entend protéger les élections et le processus démocratique des dérives des technologies émergentes. Plus de 30 propositions de lois ont été introduites au Parlement de Californie, selon David Harris, qui dit avoir conseillé des responsables américains et européens sur le sujet. Les textes soumis au corps législatif californien abordent plusieurs aspects de l’IA. L’un propose d’obliger les sociétés technologiques à dévoiler quelles données ont été utilisées pour développer un modèle d’IA. Un autre inclut l’interdiction de publicités de campagne électorale utilisant, d’une façon ou d’une autre, l’IA générative, interface qui permet de créer du contenu (texte, image, son) sur simple demande en langage courant. Des élus veulent aussi faire en sorte que les réseaux sociaux signalent tout contenu, toute image, vidéo ou bande sonore créée grâce à l’IA générative. Un sondage réalisé en octobre par l’université de Berkeley auprès d’électeurs californiens a révélé que 73% d’entre eux étaient favorables à des lois contre la désinformation ou les fausses images («deepfakes») et limitant l’utilisation de l’IA lors de campagnes électorales. Il s’agit, en outre, de l’un des rares sujets qui fait consensus côté républicain comme démocrate. Pour David Harris, l’appréhension des «deepfakes» et des faux textes générés par l’IA est l’une des questions les plus importantes. Elue démocrate d’une circonscription qui comprend une partie de la Silicon Valley, Gail Pellerin soutient une proposition de loi qui interdirait les «deepfakes» politiques trompeurs durant les 3 mois qui précèdent un scrutin. «Les acteurs mal intentionnés qui utilisent cette technologie essayent vraiment de susciter le chaos durant une élection», fait-elle valoir. L’association professionnelle NetChoice, qui représente les entreprises du numérique, met en garde contre la tentation d’importer les règles de l’UE en Californie. «Ils adoptent l’approche européenne vis-à-vis de l’intelligence artificielle, qui veut bannir cette technologie», clame Carl Szabo, responsable juridique de l’organisation, qui milite pour une régulation moins pénalisante. «Interdire l’IA n’arrêtera rien», assure le juriste. «C’est une mauvaise idée parce que, par définition, les mauvais acteurs ne respectent pas les lois». Le responsable juridique de l’éditeur de logiciels Adobe, Dana Rao, est plus mesuré. Il salue la séparation qu’a opérée l’UE entre l’IA à l’impact limité, qui comprend «deepfakes» et faux textes, et celle à «haut risque», utilisée notamment dans les infrastructures critiques ou le maintien de l’ordre. «La version finale du texte nous convient», affirme Dana Rao. Adobe indique procéder d’ores et déjà à des études d’impact pour évaluer les risques liés à de nouveaux produits basés sur l’IA. «Il faut se préoccuper de sûreté nucléaire, de cyber-sécurité et de toutes les fois où l’IA prend des décisions importantes qui concernent les droits humains», décrit le juriste. Adobe a développé, avec la Coalition for Content Provenance and Authenticity, organisation qui compte, parmi ses membres, Microsoft et Google, une série de métadonnées, les «content credentials» qui renseignent sur l’élaboration et le contenu d’une image. Les élus de Californie entendent se positionner aux avant-postes de la régulation de l’IA, tout comme les sociétés de l’Etat le sont pour faire avancer cette technologie.