Les industries culturelles exigent la transparence des données dans la régulation de l’IA par l’UE 

128

Les industries culturelles et créatives (ICC) réclament vendredi au gouvernement français de mettre en avant la «transparence sur les données», alors que l’Union européenne doit se déterminer sur les grands principes de l’intelligence artificielle (IA). 

«La position de la France, dont la presse se fait le relais, et qui s’opposerait à toute réglementation des modèles d’IA entraînés sur de vastes volumes de données (dits de fondation), nous étonne», peut-on lire dans ce communiqué commun signé de près de 80 organismes représentatifs des ICC. 

On y trouve ainsi la Sacem (Société des auteurs, compositeurs et éditeurs de musique), des organisations représentatives de l’industrie musicale (Snep, Upfi) ou encore des organisations de producteurs de cinéma et de télévision (Api, Eurocinema, Procirep). 

«Alors que l’Union européenne se détermine» sur «les grands principes de l’intelligence artificielle, nous réaffirmons l’absolue nécessité de placer l’éthique au coeur de l’action des pouvoirs publics dans l’encadrement de ces nouvelles technologies», insistent les signataires. 

«S’agissant en particulier des modèles d’intelligences artificielles génératives, seul le principe intangible d’une transparence sur les données d’entraînement et sur les contenus générés pourra apporter des garanties aux citoyens et aux créateurs sur le respect de leurs droits», souligne encore le texte. 

Le ministre français de l’Economie Bruno Le Maire avait appelé en début de mois l’Union européenne à «innover» avant de réguler le développement de l’intelligence artificielle. 

Bruno Le Maire avait également estimé que l’Union européenne devait se concentrer sur «les usages de l’IA», au lieu d’appliquer directement une régulation sur la technologie à la base des modèles les plus avancés – comme ChatGPT, Bard ou Midjourney. 

L’UE espère conclure avant la fin de l’année le premier règlement au monde visant à encadrer et protéger l’innovation dans l’IA, même s’il n’entrera pas en application, dans le meilleur des cas, avant 2026.