Des humains l’ont programmée mais ne la comprennent pas complètement. L’IA générative reste un mystère, que des ingénieurs s’efforcent de percer avant que ses capacités n’explosent, pour éviter des dérapages. «Les gens étrangers à ce milieu sont souvent surpris et alarmés d’apprendre que nous ne comprenons pas comment fonctionnent nos propres créations IA», a écrit, dans un long essai fin avril, Dario Amodei, le co-fondateur d’Anthropic, fleuron du secteur. «Ils ont raison d’être préoccupés», a-t-il poursuivi. «Ce défaut de compréhension est sans précédent dans l’histoire de la technologie». A la différence des programmes traditionnels, effectuant uniquement les tâches demandées, les modèles d’IA générative ne sont, en effet, qu’une rampe de lancement. C’est «un échafaudage», selon l’expression de Chris Olah, ancien d’OpenAI aujourd’hui passé chez Anthropic et considéré comme l’un des inventeurs de la «mechanistic interpretability», qui déconstruit l’IA. Cette jeune science, née au milieu des années 2010, s’attache à décrypter le cheminement qui mène d’une requête à une réponse, à travers une forêt de probabilités. «Appréhender la totalité d’un grand modèle de langage», qui sert de base aux ChatGPT ou Gemini, «est une tâche incroyablement ambitieuse», explique Neel Nanda, chercheur chez DeepMind, le laboratoire d’IA de Google. «C’est un peu comme essayer de décoder complètement le cerveau humain», selon lui, «ce que les neuroscientifiques essayent de faire depuis des décennies, sans y parvenir». Confidentiel il y a encore quelques années, la discipline prend aujourd’hui une dimension nouvelle. «Elle attire beaucoup nos étudiants», observe Mark Crovella, professeur d’informatique à l’université de Boston, «du fait de son potentiel à améliorer la sécurité des modèles, mais aussi parce que c’est un champ très stimulant intellectuellement». Pour étudier ces phénomènes au plus près, retrace l’universitaire, la «mech interp», de son nom de code, ne se contente pas d’observer le résultat qu’offre un assistant IA à une demande. «On observe les calculs à mesure qu’ils sont réalisés» par le programme d’IA, décrit-il. La start-up Goodfire, en pointe sur le sujet, utilise des modèles d’interprétation, algorithmes IA à même de représenter des données sous forme d’étapes de raisonnement. L’objectif est de saisir suffisamment bien la mécanique de l’IA générative pour la guider et corriger ses possibles errements. Il s’agit d’empêcher les erreurs, mais aussi l’utilisation à des fins nocives ou de voir un modèle suffisamment autonome tromper les humains sur la nature de ses actions. «Cela ressemble à une course contre la montre», situe Eric Ho, le patron de Goodfire, «avant que nous ne lancions des modèles d’IA extrêmement intelligents sans comprendre comme ils marchent». Fin avril, Dario Amodei a fait état de «progrès récents», qui lui laissent penser que «nous sommes sur le point de trouver la clef de l’interprétabilité», au point de fixer une échéance, en 2027. «Vu les avancées actuelles, il me semble plausible que d’ici 2027, nous disposions des outils à même de détecter, de façon fiable, les biais d’un modèle et ses intentions nocives» éventuelles, abonde Anh Nguyen, professeur à l’université d’Auburn. Mark Crovella relève qu’à la différence du cerveau humain, «nous avons une représentation de chaque neurone dans ces modèles». «Nous pouvons voir tout ce qu’il se passe. La question, c’est comment l’interpréter». Entrer dans le secret de l’IA générative rendrait possible, selon Dario Amodei, l’adoption de cette technologie dans des domaines où «un petit nombre d’erreurs pourrait être très préjudiciable», notamment pour ceux qui présentent des enjeux de sécurité importants. Pour Neel Nanda, l’interprétabilité ouvrirait aussi la voie à des découvertes pour les humains, à l’instar du modèle AlphaZero de DeepMind, qui a dévoilé de nouvelles combinaisons au jeu d’échecs.

































