Gary Marcus, la voix critique qui défie l’euphorie de l’intelligence artificielle 

Gary Marcus, la voix critique qui défie l’euphorie de l’intelligence artificielle 

Deux ans et demi après que ChatGPT a lancé une révolution technologique, le scientifique et écrivain Gary Marcus, toujours aussi sceptique vis-à-vis de l’intelligence artificielle (IA) générative, s’est donné pour mission de déconstruire les croyances de la Silicon Valley. L’intellectuel est devenu une figure emblématique du secteur en 2023, lorsqu’il a participé aux côtés de Sam Altman, cofondateur et patron d’OpenAI (créateur de ChatGPT), à une audition au Sénat à Washington. Les deux hommes ont exhorté les responsables politiques à prendre la technologie au sérieux et à envisager des régulations. Beaucoup de choses ont changé depuis. Sam Altman a abandonné ses appels à la prudence et s’est associé à la société japonaise SoftBank et à des fonds du Moyen-Orient pour propulser son entreprise vers des valorisations astronomiques. «Sam ne reçoit plus d’argent des pontes de la Silicon Valley», et sa recherche de fonds à l’étranger est un signe de «désespoir», a déclaré Gary Marcus en marge du Web Summit, conférence sur les technologies organisée cette semaine à Vancouver. Ses critiques sont fondées sur une conviction fondamentale: les grands modèles de langage (LLM), moteurs de ChatGPT, Gemini (Google) ou Claude (Anthropic), ont beau fournir des contenus donnant l’impression d’avoir été produits par des humains, ils sont intrinsèquement défectueux et ne tiendront jamais les grandes promesses des géants de la tech. 

«Gaspillage de ressources» : «Je suis sceptique à l’égard de l’IA telle qu’elle est pratiquée actuellement», explique-t-il. La technologie «pourrait avoir une valeur énorme, mais les LLM ne sont pas la voie à suivre. Et je pense que les entreprises impliquées n’ont pas les meilleures personnes au monde.» Son scepticisme contraste avec l’état d’esprit qui régnait au Web Summit, où la plupart des conversations entre les 15.000 participants portaient sur le potentiel apparemment infini de l’IA générative. Beaucoup pensent que la technologie est sur le point de parvenir à une superintelligence, à une IA «générale» (AGI) qui pourrait égaler, voire dépasser, les capacités cognitives humaines. Cet optimisme a fait grimper la valorisation d’OpenAI à 300 milliards de dollars, niveau sans précédent pour une start-up. Pourtant, malgré tout le battage médiatique, les avantages pratiques restent limités. La technologie excelle principalement dans l’assistance au codage informatique pour les programmeurs et la génération de textes pour le travail de bureau. Les images créées par l’IA, bien que souvent divertissantes, servent principalement d’images parodiques ou de «deepfakes», offrant peu d’avantages évidents à la société. «L’une des conséquences de l’engouement pour les LLM est que toute autre approche susceptible d’être meilleure est écartée», souligne Gary Marcus, qui a longtemps enseigné à l’université de New York. Cette vision étroite «retarde la mise en place d’une IA capable de nous aider au-delà du simple codage» et «constitue un gaspillage de ressources». Lui préconise plutôt l’IA «neurosymbolique», qui consiste à reconstruire artificiellement la logique humaine, plutôt que d’entraîner des modèles prédictifs sur des ensembles de données toujours plus vastes. 

Aucun article à afficher