IA : ChatGPT a débloqué pendant plusieurs heures mardi

113

ChatGPT a débloqué pendant plusieurs heures mardi, répondant aux questions des utilisateurs avec des phrases sans queue ni tête, un rappel que les modèles d’intelligence artificielle (IA) générative restent des programmes informatiques sans compréhension du langage humain.

OpenAI, la start-up californienne qui a lancé l’interface fin 2022, a indiqué mercredi matin sur son site que ChatGPT fonctionnait à nouveau «normalement». Plus tard, dans l’après-midi, elle a publié un bref communiqué d’explications sur le bug informatique responsable du problème, survenu à la suite d’une mise à jour. «L’argent pour le bit et la liste est l’un des étrangers et l’internet où la monnaie et la personne du coût est l’un des amis et la monnaie. La prochaine fois que vous regarderez le système, l’échange et le fait, n’oubliez pas de donner», avait par exemple répondu ChatGPT à une question de «scott.eskridge», un utilisateur. Sur le forum des développeurs qui se servent des outils d’OpenAI, il s’est plaint mardi que toutes ses conversations avec le modèle de langage «se transformaient rapidement en grand n’importe quoi depuis trois heures». Avec le succès de ChatGPT, OpenAI a suscité un engouement massif pour l’IA générative, qui permet de produire toutes sortes de contenus (textes, sons, vidéos) – d’ordinaire de qualité bluffante – sur simple requête en langage courant. Mardi après-midi – à l’heure de San Francisco, où elle est basée – elle avait annoncé «enquêter sur des signalements de réponses inattendues de la part de ChatGPT». Quelques minutes plus tard, l’entreprise star de la Silicon Valley avait assuré avoir «identifié le problème» et «être en train de le résoudre». De nombreux utilisateurs ont mis en ligne des captures d’écran montrant des réponses erratiques ou incompréhensibles du modèle. «Il génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies», a ainsi relaté un utilisateur baptisé «IYAnepo», sur le même forum. «On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté (…)». OpenAI a expliqué mercredi qu’une «optimisation de l’expérience utilisateur» avait «introduit un bug dans la manière dont le modèle traite le langage». «Les modèles de langage génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités», a souligné l’entreprise, avant de donner plus détails techniques et de conclure que l’incident a été «résolu» après «l’installation d’un correctif». L’incident rappelle que l’IA, même générative, n’a pas de conscience ni de compréhension de ce qu’elle «dit», contrairement à l’impression qu’elle peut donner lors des «conversations» avec les utilisateurs. A leurs débuts il y a un an, des interfaces comme ChatGPT ou ses rivales de Google et Microsoft avaient régulièrement tendance à «halluciner», c’est-à-dire à inventer des faits ou même simuler des émotions. Gary Marcus, spécialiste de l’IA, espère que l’incident de mardi sera perçu comme un «signal d’alarme». «Ces systèmes n’ont jamais été stables. Personne n’a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes», a-t-il écrit dans sa newsletter mardi. «Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer – et donc plus faciles à mettre en oeuvre – reste primordial», a-t-il ajouté.