IA : une année record pour Nvidia

145

Nvidia a conclu en grande pompe l’année qui l’a consacré comme faiseur de rois de l’IA, avec des revenus et profits record, portés par la forte demande pour les composants électroniques dont il est le maître incontesté. Le géant américain des puces de l’IA a réalisé près de 61 milliards de dollars de c.a. et a multiplié par six son bénéfice net, à près de 30 milliards, sur l’ensemble de son exercice annuel terminé fin janvier, d’après un communiqué de résultats publié mercredi. «Nvidia a permis l’émergence d’un nouvelle ère informatique, celle de l’IA générative, où les logiciels peuvent apprendre, comprendre et générer toutes sortes d’informations: du langage humain, des structures biologiques ou encore des univers en 3D», s’est félicité Jensen Huang, fondateur de Nvidia, lors d’une conférence destinée aux analystes. Inconnu du grand public il y a encore un an, le groupe de Santa Clara (Californie) fabrique des cartes graphiques, des processeurs appelés «GPU», initialement conçus pour les besoins des jeux vidéo. Leur puissance de calcul, nécessaire au traitement de quantités massives de données, les a rendus indispensables aux développeurs de modèles d’IA générative (OpenAI, Meta, Google…) Cette technologie, qui permet de produire du texte, des images et d’autres données sur simple requête en langage courant, suscite un engouement hors norme depuis le lancement réussi de ChatGPT par OpenAI fin 2022. De novembre à janvier, Nvidia a réalisé 22 milliards de dollars de c.a. et 12,3 milliards de bénéfice net, des résultats largement supérieurs à ses prévisions et aux attentes du marché. Et la demande ne faiblit pas. L’entreprise américaine table sur 24 milliards de dollars de c.a. pour le trimestre en cours. «Nvidia reste le seul acteur capable de produire les GPU qui alimentent la révolution de l’IA», a rappelé Dan Ives, analyste de Wedbush, mercredi. «La révolution de l’IA a commencé avec Nvidia et, selon nous, la fête de l’IA ne fait que commencer». L’année 2023 a selon lui marqué «le début de la plus grande transformation technologique depuis les 1ers jours de l’internet en 1995». Les cartes graphiques de Nvidia – comme son GPU vedette, le H100, qui vaut plusieurs dizaines de milliers de dollars pièce – alimentent les serveurs dans les centres de traitement de données spécialisés dans l’IA. Ce secteur est devenu le principal client du groupe. Les composants de Nvidia sont essentiels à l’entraînement des modèles de langage avec des montagnes de données, et servent aussi à leur application pratique, ou «inférence», quand un utilisateur formule une requête et que le modèle répond avec la suite logique de mots/pixels/sons/code la plus probable. «Quasiment chaque fois que vous interagissez avec ChatGPT, chaque fois que vous utilisez Midjourney (générateur d’images), chaque fois que vous générez ces incroyables vidéos avec Sora (dernier-né d’OpenAI) ou Runway, Nvidia fait de l’inférence», a souligné Jensen Huang. «La part de l’inférence dans notre activité a connu une croissance considérable, de l’ordre de 40%». La demande pour ses composants est telle que la société doit arbitrer entre ses clients, souvent concurrents. «Nous faisons de notre mieux pour allouer équitablement et éviter d’allouer inutilement» quand un centre de données n’est pas encore prêt, a expliqué le dirigeant américano-taïwanais. Il a aussi évoqué «l’IA souverain», c’est-à-dire la volonté de nombreux pays de ne pas dépendre de modèles d’IA américains. «Ils veulent transformer eux-mêmes leurs données, qui leur appartiennent – leur langue, leur histoire, leur culture – pour créer leur propre intelligence numérique», a-t-il détaillé, pariant sur le développement d’«infrastructures d’IA souveraines» ailleurs qu’aux Etats-Unis, mais toujours avec des puces Nvidia. Seule ombre au tableau pour le groupe: les restrictions à l’exportation vers la Chine imposées par le gouvernement américain.