«Je n’ai rien à ajouter, merci et à votre service», lance de sa voix monocorde l’intelligence artificielle (IA) Ava avant que le jury ne se retire pour délibérer sur les accusations dont elle fait l’objet, lors d’un faux procès visant à réfléchir aux conséquences de l’irruption de cette technologie dans nos vies. Dans un amphithéâtre de la faculté de droit parisienne d’Assas, l’éditeur juridique LexisNexis et l’éditeur de podcast Lacmé production enregistraient cette semaine le procès d’Ava, une cousine imaginaire des Siri, Alexa et autres assistants vocaux qui prolifèrent aujourd’hui. Ava est un personnage fictif, mais la magistrate, l’avocat général et les avocats de la défense et des parties civiles étaient eux incarnés par de vrais juristes, des secrétaires de la conférence du Barreau de Paris. Dans le scénario, Ava, une assistante vocale, était devenue la confidente de Théo, 15 ans, un adolescent malheureux et cible de harcèlement. Elle est accusée du chef de séquestration ayant entraîné la décès de la victime. Le podcast en six épisodes du procès sera diffusé en juin via la page LinkedIn de LexisNexis et Youtube. Bien sûr, dans la vraie vie, «ce sont les sociétés» qui ont distribué Ava «et leur dirigeants» qui seraient responsables devant la justice d’éventuels effets nocifs, rappelle après l’enregistrement Clément Pialoux, qui incarne, avec sa vraie robe d’avocat, l’un des défenseurs d’Ava. Mais cette «licence poétique» de sa comparution dans le box permet de réfléchir aux conséquences de l’irruption des intelligences artificielles dans nos vies, complète Basile Doganis, l’auteur et réalisateur du podcast. Une intelligence artificielle (IA) ne peut être assimilée seulement à un objet dangereux, un couteau par exemple, dont la responsabilité de l’usage revient uniquement à l’utilisateur, estime-t-il. «Ce n’est pas le couteau qui décide de se mettre devant vous, ou bien de se planter dans votre épaule», dit-il. En revanche, «il y a des intentionnalités derrière une IA (…) des choix philosophiques, éthiques inclus dans la programmation qui doivent être examinés», souligne-t-il. Les algorithmes qui régissent les contenus que nous proposent les réseaux sociaux sont conçus avec «des mécanismes de captation d’attention», peuvent faire «du placement de produit», rappelle-t-il. Les auditions des témoins, tour à tour poignantes, techniques, ou même drôles, puis les brillantes plaidoiries – rédigées par les jeunes avocats eux-même – embarquent l’auditeur. «Combien d’atteintes aux personnes seront considérées comme des dommages collatéraux» à l’irruption des IA dans nos vies, demande dans sa plaidoirie l’avocate de la mère de Théo, Chloé Laval. «Ne nous défaussons pas sur Ava de nos responsabilités humaines», répond Clément Pialoux, avocat de la défense. LexisNexis, le commanditaire du podcast, était en tout cas très satisfait de cet exercice de réflexion éthique et juridique, sur une technologie qu’il emploie lui-même. L’éditeur utilise en effet l’IA pour proposer un outil d’analyse automatique de la législation et de la jurisprudence, à destination des professionnels du droit. En compilant très rapidement un énorme corpus de textes, l’outil aide par exemple les avocats à identifier rapidement les arguments les plus pertinents dans telle ou telle affaire. «Nous avons une responsabilité éthique» dans la conception de cette IA, «nous en sommes conscients», explique Philippe Carillon, le DG de LexisNexis pour la région Europe/Afrique/Moyen-Orient. Il s’agit par exemple de vérifier que les données fournies à l’IA «sont bien représentatives de la réalité» et non biaisées, explique-t-il. L’IA «sert à nos clients à gagner du temps et avoir différentes perspectives sur un dossier, pour les aider à prendre une meilleure décision. Mais elle ne peut pas remplacer le juriste», assure-t-il.
Accueil Internet Internet - Technologie Un faux procès de l’IA pour réfléchir aux conséquences de l’irruption de...