L’IA générative s’invite dans les tribunaux

Des juges s’en servent pour des recherches, des avocats pour faire des recours, et des particuliers pour s’exprimer en audience. L’IA générative s’invite dans les tribunaux, et pose déjà la question de son influence sur la justice. Avant le prononcé de la peine de son meurtrier, début mai à Phoenix (Arizona), Chris Pelkey s’est adressé au juge Todd Lang, et à l’accusé, dans une vidéo. «Je crois au pardon», a expliqué cet ancien combattant, abattu par balle en 2021 lors d’une altercation entre automobilistes, ou, plutôt, son avatar IA créé par sa soeur, Stacey Wales. «Je savais que ce serait puissant», explique-t-elle, «que ça humaniserait Chris aux yeux du juge». Ce témoignage IA concluait une audience lors de laquelle dix proches, dont Stacey Wales, s’étaient déjà exprimés. Si ce témoignage était une 1ère, les exemples d’utilisation de l’IA dans des affaires judiciaires se multiplient aux Etats-Unis. «C’est un outil utile, qui fait gagner du temps, dès lors que l’exactitude (des résultats produits par une recherche IA) est confirmée par l’avocat, le juge qui prépare un jugement ou un greffier», estime Stephen Schwartz, avocat à Portland (Maine). «C’est positif pour la justice.» Il utilise ChatGPT, mais surtout les interfaces spécialisées comme Protégé (LexisNexis) ou CoCounsel (Thomson Reuters) pour débroussailler la jurisprudence ou se documenter sur des aspects précis de la loi. «On ne peut pas s’y fier totalement», prévient l’avocat. «Il faut lire les dossiers pour s’assurer qu’ils disent bien ce (que l’IA) nous rapporte. On a tous en tête les histoires horrifiques d’IA qui mélange des affaires.» Les recours truffés de fausses citations, précédents farfelus et noms inventés, au fort parfum d’IA, ne sont plus une rareté. Début mai, un juge fédéral de Los Angeles a infligé 31.100 dollars d’amende et de dommages à deux cabinets d’avocats pour une requête qui contenait neuf erreurs de jurisprudence en dix pages, qualifiant l’opération de «débâcle collective». L’IA générative alimente aussi les recours d’individus choisissant de se passer d’avocat, avec, là aussi, régulièrement des erreurs à la clef. «Il devient de plus en plus facile» de rédiger et de déposer un document de justice, souligne Shay Cleary, du Centre national des tribunaux d’Etat. Dès lors, «il est possible que les tribunaux enregistrent une hausse» des actes et «doivent s’y préparer». Daniel Linna, professeur de droit à l’université Northwestern, voit dans l’IA la promesse d’un système plus efficace, qui améliore le fonctionnement de la justice. «Environ 80% à 90% des gens n’ont pas accès aux tribunaux ou à des services juridiques», affirme l’universitaire. «Il faut être vigilant sur la manière de les intégrer, mais ces outils peuvent ouvrir la voie à une transformation.» «Je parle à beaucoup de magistrats et j’ai le sentiment que leur usage s’accroît», explique Daniel Linna. «Ils n’en parlent pas forcément, mais certains me disent qu’ils expérimentent», y compris comme soutien à la rédaction d’un jugement. Plusieurs juges fédéraux de Washington ont été plus loin et ont évoqué, dans des décisions écrites, leur utilisation de ChatGPT, même si elle revenait, à chaque fois, à vérifier une opinion et non à la former. «Il faudrait dire clairement que les juges doivent être à jour technologiquement et se former à l’IA», plaide Daniel Linna. Même sans imaginer que des juges s’en remettent un jour à l’IA pour trancher une affaire, l’IA peut déjà modifier l’orientation de dossiers, selon le professeur de Northwestern. «Est-ce que l’issue d’une affaire pourrait être différente? Oui, car vous changez les éléments qui entrent dans le système». Ce nouvel assistant, tout comme une interface d’IA par rapport à un humain, «peut choisir d’autres textes de référence, formuler différemment, mettre en avant d’autres faits», toutes choses qui vont servir à un magistrat pour se déterminer. Daniel Linna voit la possibilité d’une justice plus pointue, rendue par des magistrats mieux informés, ce qui diminuerait notamment les invalidations en appel.