Et si les humains perdaient le contrôle de l’intelligence artificielle? Alors que la France accueille un sommet sur cette technologie qui bouleverse la société, des experts mettent en avant le besoin de normes pour éviter ce scénario. A l’inverse des sommets précédents à Bletchley Park (Royaume-Uni) en 2023 et à Séoul (Corée du Sud) en 2024, axés sur les questions de sécurité, la présidence française souhaite que celui de lundi et mardi, à Paris, mette l’accent sur «l’action». L’objectif: que de nombreux acteurs se déclarent en faveur d’une gouvernance mondiale de l’intelligence artificielle et prennent des engagements pour une IA durable, sans cadre contraignant toutefois. «Notre souhait n’est pas de passer notre temps à uniquement parler des risques. Il y a aussi le côté opportunité qui est très réel», a ainsi assuré Anne Bouverot, envoyée spéciale du président de la République, Emmanuel Macron, pour l’événement. Pourtant, la France est «une championne de la collaboration internationale et a l’opportunité d’être leader pour le reste du monde», plaide Max Tegmark, président du Future of Life Institute, organisme non lucratif basé aux Etats-Unis qui met régulièrement en garde contre les méfaits de cette technologie. Pour ce physicien du Massachusetts Institute of Technology (MIT), il ne faut pas que le pays passe à côté de ce «moment charnière» du sommet sur l’IA, qui réunit pendant plusieurs jours dans la capitale française les grands acteurs du secteur.
Cyberattaques, attaques biologiques: Future of Life Institute appuie ainsi le lancement dimanche d’une plateforme, baptisée «GRASP», qui vise à cartographier les principaux risques liés à l’IA et les solutions développées à travers le monde. «Nous avons identifié environ 300 outils et technologies qui répondent à ces risques», détaille Cyrus Hodes, qui a coordonné l’initiative dont les résultats seront transmis à l’Organisation de coopération et de développement économiques (OCDE) et aux membres du Partenariat mondial sur l’intelligence artificielle (PMIA), dont fait partie la France et qui se réunit dimanche. Le premier rapport international sur la sécurité de l’IA, fruit d’une collaboration internationale de 96 experts et soutenu par 30 pays, l’Onu, l’Union européenne et l’OCDE, a par ailleurs été présenté jeudi, aussi dans l’optique d’informer les décideurs politiques des dangers de cette technologie. Si certains sont bien établis, comme la création de faux contenus en ligne, le chercheur en informatique Yoshua Bengio, lauréat 2018 du prix Turing, affirme que «les preuves de l’existence de risques supplémentaires comme les attaques biologiques ou les cyberattaques apparaissent progressivement». A plus long terme, il s’inquiète d’une «perte de contrôle» des humains sur des IA animées de «leur propre volonté de vivre». «Beaucoup de personnes pensaient que maîtriser le langage comme le fait ChatGPT-4 (le robot conversationnel d’OpenAI, NDLR) était de la science-fiction il y a à peine six ans», retrace Max Tegmark. «Le problème est que beaucoup de personnes au pouvoir n’ont toujours pas compris que nous nous rapprochons davantage de la construction d’une intelligence artificielle générale que de savoir comment la contrôler».