Anthropic mise sur l’Europe pour concurrencer OpenAI 

Anthropic, poids lourd américain de l’intelligence artificielle (IA) et rival du géant OpenAI, entend participer au dynamisme de la «tech» européenne en renforçant sa présence sur le continent, a déclaré son directeur produit, Mike Krieger. L’entreprise à l’origine du modèle d’IA Claude veut être «le moteur derrière certaines des plus grandes start-up de demain», qui utiliseront ses outils. «Beaucoup d’entre elles peuvent et devraient venir d’Europe», a assuré M. Krieger au salon VivaTech, plus grand événement dédié à la tech sur le Vieux Continent qui se tient cette semaine à Paris. Il prévoit donc le recrutement d’une centaine de personnes en Europe, qui viendront renforcer ses capacités de recherche et développement dans ses bureaux de Dublin et Londres. Si les patrons de la tech et les dirigeants politiques ont souvent regretté l’incapacité du continent à tirer parti de ses chercheurs pour créer des entreprises d’envergure, notamment en raison des fréquents départs de jeunes entrepreneurs outre-Atlantique, Mike Krieger se veut plus optimiste, tout comme le PDG du géant américain des puces électroniques Nvidia. Jensen Huang, qui a annoncé cette semaine un partenariat avec le champion français de l’IA Mistral et un investissement de plusieurs milliards de dollars en Europe, a ainsi insisté sur le «capital intellectuel» français et européen. 

Modèles agentiques : Si l’entreprise française, fondée en 2023, est plus jeune et plus petite que ses rivaux américains, Mistral AI fait «assurément partie» des acteurs importants, a souligné M. Krieger. La start-up tricolore a ainsi récemment suivi les traces de ses concurrents en publiant un modèle de «raisonnement» capable de s’attaquer à des tâches plus complexes. «Je parle tout le temps à des clients qui utilisent peut-être Claude pour certaines tâches agentiques de long terme, mais qui ont également optimisé Mistral pour l’une de leurs tâches de traitement de données, et je pense que (les modèles) peuvent coexister de cette manière», a déclaré Mike Krieger. Les modèles d’IA dits «agentiques» fonctionnent à la manière d’agents autonomes ou semi-autonomes capables de travailler sur des horizons plus longs avec moins de supervision humaine, y compris en interagissant avec des outils comme les navigateurs Web et les courriels. Mais les capacités affichées par les dernières nouveautés de ces agents ont suscité des craintes chez certains chercheurs. Yoshua Bengio, professeur à l’Université de Montréal et considéré comme l’un des pères fondateurs de l’IA, a ainsi considéré qu’une IA agissant de manière indépendante pourrait bientôt poser un risque vis-à-vis de l’humanité. 

Standards de sécurité : «Une des raisons pour lesquelles j’ai rejoint Anthropic était la manière sérieuse avec laquelle ils abordaient cette question» de la sécurité de l’IA, a affirmé l’ingénieur brésilien, qui avait précédemment cofondé Instagram, quitté en 2018. Anthropic travaille toujours sur des mesures destinées à limiter les éventuels impacts négatifs de ses modèles d’IA, comme la mise en place de niveaux de sécurisation, a-t-il ajouté. Après avoir activé le niveau 3 pour encadrer les capacités de la version de son modèle Claude Opus 4 en mai, l’entreprise travaille «activement» au développement du niveau 4, a détaillé le dirigeant, sans donner de date de sortie. Selon lui, les futurs modèles d’Anthropic devraient accomplir d’ici 2026 ou 2027 sur certains aspects la prédiction du PDG Dario Amodei, selon qui l’entreprise pourrait proposer l’accès à un «pays de génies dans un centre de données». Les derniers modèles d’IA d’Anthropic sont «du niveau du génie pour certaines choses très spécifiques», a-t-il assuré.