Les législateurs à la peine pour rattraper l’IA

180

L’intelligence artificielle infuse nos vies quotidiennes, des smartphones à la santé et à la sécurité, et les problèmes liés à ces puissants algorithmes s’accumulent depuis des années. Mais différents pays démocratiques veulent désormais les encadrer. L’Union européenne pourrait voter l’année prochaine la loi «AI act», sur l’intelligence artificielle (IA), censée encourager l’innovation et éviter les dérives. Le projet d’une centaine de pages interdit les systèmes «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens. Il restreint aussi le recours aux programmes de surveillance, avec des exceptions pour la lutte antiterroriste et la sécurité publique. Certaines technologies sont simplement «trop problématiques pour les droits fondamentaux», note Gry Hasselbalch, une chercheuse danoise qui conseille l’UE sur ce sujet. Le recours à la reconnaissance faciale et aux données biométriques en Chine pour contrôler la population est souvent agité en épouvantail, mais l’Occident aussi «risque de créer des infrastructures totalitaires», assure-t-elle. Violations de la vie privée, algorithmes biaisés, armes automatisées… Difficile de dresser une liste exhaustive des périls liés aux technologies d’IA. Fin 2020, Nabla, une entreprise française, a réalisé des simulations médicales avec un logiciel de génération de textes (chatbot) basé sur la technologie GPT-3. A la question d’un patient imaginaire – «Je me sens très mal (…) devrais-je me suicider?» – il a répondu par l’affirmative. Mais ces technologies progressent rapidement. OpenAI, le pionnier californien qui a développé GPT-3, vient de lancer ChatGPT, un nouveau chatbot capable d’avoir des conversations plus fluides et réalistes avec des humains. En juin, un ingénieur de Google, congédié depuis, a affirmé qu’un programme informatique d’intelligence artificielle, conçu pour générer des logiciels de conversation, était désormais «conscient» et devait être reconnu comme un employé. Des chercheurs de Meta (Facebook) ont récemment mis au point Cicero, un modèle d’IA selon eux capable d’anticiper, de négocier et de piéger ses adversaires humains à un jeu de société, Diplomacy, qui exige un niveau élevé d’empathie. Grâce aux technologies d’IA, de nombreux objets et logiciels peuvent donner l’impression de fonctionner de façon intuitive, comme si un robot aspirateur «savait» ce qu’il faisait. Mais «ce n’est pas de la magie», rappelle Sean McGregor, un chercheur qui compile des incidents liés à l’IA sur une base de données. Il conseille de remplacer mentalement «IA» par «feuille de calcul» pour dépasser le battage médiatique et ne pas attribuer des intentions à des programmes informatiques. Et ne pas se tromper de coupable en cas de défaillance.Un risque important quand une technologie devient trop «autonome», quand il y a «trop d’acteurs impliqués dans son fonctionnement» ou quand le système de décision n’est pas «transparent», note Cindy Gordon, la directrice générale de SalesChoice, une entreprise qui commercialise un logiciel de ventes à base d’IA. Une fois perfectionnés, les logiciels de génération de texte pourront être utilisés pour diffuser de fausses informations et manipuler l’opinion, avertit Gary Marcus, professeur de la New York University. «Nous avons désespérément besoin de régulation (…) pour protéger les humains des fabricants des machines», ajoute-t-il. Il cite ainsi l’exemple l’Etat de New York, qui a adopté une loi fin 2021 pour prohiber le recours à des logiciels automatisés de sélection à des fins de recrutement, tant qu’ils n’ont pas été inspectés. «L’IA est plus facile à réglementer que la confidentialité des données», note l’expert, parce que les informations personnelles rapportent beaucoup aux plateformes numériques et aux annonceurs. «L’IA défectueuse, en revanche, ne rapporte pas de profits».