IA : les eurodéputés veulent réguler ChatGPT

162

Mieux encadrer les applis conversationnelles comme ChatGPT: les eurodéputés voteront jeudi sur le futur règlement de l’UE sur l’intelligence artificielle (IA), texte ambitieux retardé par les controverses entourant ces technologies. L’UE veut être la 1ère au monde à se doter d’un cadre juridique complet pour limiter les dérives de L’IA, tout en sécurisant l’innovation. D’une grande complexité technique, les systèmes d’IA fascinent autant qu’ils inquiètent. Diffusion de contenus dangereux, manipulation de l’opinion par la création de fausses images avec des logiciels comme Midjourney, systèmes de surveillance de masse, ou risques encore inconnus… Des personnalités de la tech, comme le patron de Twitter, Elon Musk, ont même réclamé un moratoire sur leur développement. Le grand public a découvert leur potentiel immense à la fin de l’année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes. Face à ces bouleversements rapides, la Commission européenne a proposé il y a 2 ans un projet de législation dont l’examen traîne en longueur. Les États membres de l’UE ont seulement défini leur position fin 2022. Les eurodéputés, très divisés, entérineront la leur jeudi dans un vote en commissions à Strasbourg qui devrait être confirmé en plénière en juin. S’ouvrira ensuite une négociation difficile entre les différentes institutions. La vice-présidente de la CE Margrethe Vestager a appelé à ne pas perdre de temps. «J’espère vraiment que nous pourrons terminer cette année», a-t-elle dit. Le retard s’explique en partie par l’irruption dans le débat public des intelligences artificielles dites à usage général (capables d’accomplir une grande variété de tâches), dont font partie les IA génératives comme ChatGPT. «C’est un texte complexe et nous avons ajouté un régime nouveau de règles dédié aux IA génératives», a expliqué le corapporteur Dragos Tudorache. Les eurodéputés souhaitent contraindre les fournisseurs à mettre en place des protections contre les contenus illégaux et à révéler les données protégées par les droits d’auteur utilisées pour développer leurs algorithmes. Mais des experts considèrent que les risques des IA génératives ne nécessitent pas de traitement séparé. «Je ne vois pas la motivation du Parlement. Je ne vois pas en quoi ces risques sont différents de ce qui a déjà été anticipé», a commenté Pierre Larouche, expert en droit du numérique à l’Université de Montréal et chercheur au Center on Regulation in Europe (Cerre). La proposition de la Commission, dévoilée en avril 2021, prévoit déjà un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applis générant des images à préciser qu’elles ont été créées artificiellement. Le texte s’inspire des réglementations européennes existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises. Les interdictions seront rares. Elles concerneront les applis contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine. Les eurodéputés veulent y ajouter l’interdiction des systèmes de reconnaissance des émotions et supprimer les dérogations autorisant l’identification biométrique à distance des personnes dans les lieux publics par les forces de l’ordre. Ils entendent aussi interdire la récolte en masse de photos sur internet pour entraîner les algorithmes sans l’accord des personnes concernées. Le coeur du projet consiste en une liste de règles imposées aux seules applis qui seront jugées à «haut risque» par les entreprises elles-mêmes à partir des critères du législateur. La CE a proposé qu’elles concernent les systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre …