Le gouverneur démocrate de Californie Gavin Newsom a opposé son veto à une loi du Parlement local qui visait à encadrer le développement de l’intelligence artificielle (IA), reprochant au texte de ne pas être assez ciblé.
La proposition de loi SB 1047 avait été très largement adoptée, en août, par le Sénat et par l’Assemblée de Californie, la chambre basse de l’Etat. Elle instaurait notamment la nécessité pour les développeurs d’IA de tester leurs modèles pour en évaluer les risques avant de les mettre en ligne.
Un modèle d’IA est un logiciel qui se nourrit d’une immense quantité de données pour pouvoir prédire la meilleure réponse à une requête. Elle est notamment à la base de l’IA dite générative, qui peut générer un texte, une image, une vidéo ou un son après une demande en langage courant.
Le texte, présenté par le sénateur démocrate local de San Francisco Scott Wiener, imposait aussi à ces entreprises technologiques d’assortir le modèle d’un coupe-circuit, qui permettrait de le mettre en sommeil en cas de dérapage ou de risque avéré.
La loi instaurait également le principe de responsabilité des entreprises en cas de dommages sérieux provoqués par un modèle, avec la possibilité de poursuites par le procureur de Californie. Plusieurs acteurs privés de l’IA avaient fait part publiquement de leur opposition à ce texte, avertissant qu’il risquait de faire fuir de Californie sociétés technologiques et investisseurs. Mais d’autres, chercheurs et entreprises, l’avaient accueilli favorablement, estimant nécessaire d’encadrer strictement l’émergence de l’intelligence artificielle.
Selon le gouverneur de Californie, 32 des 50 plus importantes sociétés du secteur de l’IA se trouvent dans le «Golden State», surnom de l’Etat.
Gavin Newsom a maintenu le suspense jusqu’au dernier moment quant à sa position sur cette loi. Dans un courrier daté de dimanche, il a expliqué les raisons de son veto, estimant notamment que le texte ne s’appliquait qu’aux «modèles les plus coûteux et les plus grands», alors que «des modèles plus petits pourraient s’avérer plus dangereux».
Autre grief: la formulation du sénateur Wiener «couvre toutes les fonctions, même les plus ordinaires», que peut assurer l’IA, alors qu’elle devrait se concentrer sur les modèles «déployés dans des environnements à hauts risques», «qui impliquent une prise de décision critique» ou «l’utilisation de données sensibles».
Pour faire la démonstration de son désir de contrôler le développement de l’IA, Gavin Newsom a rappelé qu’il avait promulgué, depuis un mois, dix-sept lois allant dans ce sens.
Elles renforcent les obligations de transparence vis-à-vis du public quant à l’utilisation de l’IA et limite, entre autres, les «deepfakes» – photos, vidéos et sons qui donnent l’impression d’être authentiques alors qu’ils ont été créés de toutes pièces.