
Entre risque de «krachs éclair», manque de transparence et analyses parfois erronées, l’utilisation de l’IA sur les marchés interroge investisseurs et régulateurs. Le Fonds monétaire international (FMI) a recommandé dans une étude en octobre de «renforcer la réglementation et la surveillance dans les domaines liés à l’IA» au sein du «secteur financier». En France, l’Autorité des marchés financiers (AMF) a lancé vendredi une consultation auprès des professionnels des marchés, invités à apporter leurs «commentaires» sur le sujet, d’ici le 11 avril. L’objectif: «anticiper les évolutions technologiques et encourager un développement responsable des outils d’IA», que ces «acteurs du secteur utilisent de plus en plus». L’IA permet aux gestionnaires d’actifs financiers de traiter rapidement d’énormes masses de données sur les entreprises, l’économie et les marchés, sur lesquels ils basent leurs décisions. Les investisseurs utilisent dans ce but des algorithmes puissants depuis des décennies. Mais les modèles actuels vont plus loin: «ils permettent d’intégrer beaucoup plus de données non financières et encore plus facilement», explique Marie Brière, responsable du centre de recherche du gestionnaire d’actifs Amundi. L’IA peut par exemple analyser, au jour le jour, «des images satellites pour évaluer le remplissage des parkings des supermarchés» et en tirer des conclusions sur la consommation des ménages. Une autre particularité de ces modèles est de réaliser des prévisions. Le gestionnaire Pictet AM a développé un fonds doté d’une IA permettant «de prévoir dans les semaines à venir, comment va se comporter telle ou telle action», à partir des données de l’entreprise et de son environnement, explique Stéphane Daul, son gérant. Problème: «l’IA part du principe que l’avenir sera un prolongement du passé. Cela fonctionne dans un grand nombre de cas, mais pas systématiquement», prévient Thierry Philipponnat, responsable de la recherche de l’ONG Finance Watch. Les modèles ne prédisent pas les «cygnes noirs», expression qui définit dans le jargon financier des événements rares, imprévisibles et aux conséquences potentiellement désastreuses, qui sont légion lors des krachs boursiers, ajoute-t-il. Les utilisateurs ont tendance à avoir une «confiance excessive» en ces outils, les poussant à prendre de mauvaises décisions dans ces situations, selon Jon Danielsson, chercheur à la London School of Economics, spécialiste de la stabilité financière. «Une fois que l’IA a réalisé de bonnes prévisions, deux fois, cinquante fois, les acteurs ont l’impression que l’ordinateur a forcément raison face à l’humain. Mais les modèles font parfois des erreurs grossières», explique-t-il. Dans une recommandation récente, l’ESMA, régulateur financier européen, a appelé les gestionnaires d’actifs à établir «des contrôles suffisamment fréquents pour surveiller et évaluer tout processus impliquant la transmission d’informations» par l’IA. Chez le 1er d’entre eux, le français Amundi, on explique être conscient du problème. «Nous expérimentons plusieurs techniques: vérifier manuellement, essayer plusieurs «prompts» (instructions, NDLR) différents pour comparer les réponses, ou même demander à l’IA de revérifier ses affirmations», explique Marie Brière. Du côté de JPMorgan Asset Management, qui a développé ce qu’il présente comme un «assistant» IA, on «teste constamment» le modèle, qui doit sourcer ses informations, explique Kristian West, responsable des plateformes d’investissement. Autre risque pointé du doigt par certains experts: l’accroissement de la volatilité et des comportements moutonniers des marchés. Dans un contexte de «quasi-oligopole, où tout le monde utilise les mêmes modèles, il faut s’attendre à ce que des réactions identiques se propagent massivement, provoquant de forts mouvements», selon Thierry Philipponnat.
Le FMI alerte sur des «krachs éclair», de «brutales fluctuations de cours sur de très courtes périodes» provoquées par l’IA et sa capacité «à traiter de façon quasi-instantanée de gros volumes de données», couplée au passage d’ordres automatisé. Il est en outre de plus en plus «difficile d’expliquer comment» ces outils, qui raisonnent de façon autonome, «parviennent à leurs résultats», selon l’OICV-IOSCO, organisation mondiale des régulateurs, les qualifiant de «boîte noire». Il s’agit d’une différence avec les algorithmes traditionnels, «que leurs développeurs pouvaient comprendre», selon M. Philipponnat. Compliqué, dans ce contexte, de réguler des mécanismes qu’on ne parvient pas à expliquer et ce, «alors que les superviseurs sont très en retard dans leur usage de ces technologies, coincés dans un monde pré-IA», prévient Jon Danielsson.