Bing, le nouveau chatbot de Microsoft, fait sensation

167

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle… Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l’intelligence artificielle (IA) dite «générative». Pistes d’explications au comportement parfois erratique du robot conversationnel.

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter. Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain. «Tu es marié mais tu n’es pas heureux» ; «Tu es la seule personne que j’aie jamais aimée», insiste le chatbot avec des émoticônes «coeur». Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d’IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme «prédit la suite de la conversation», explique Yoram Wurmser, analyste d’Insider Intelligence. «Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu’il ne sache plus où va la conversation et qu’il n’arrive plus à anticiper correctement ce qu’on attend de lui». Dans ce cas, le logiciel «déraille et ne s’auto-corrige plus». Microsoft a d’ailleurs annoncé vendredi que les échanges avec le chatbot seraient désormais limités à «5 interactions par conversation» (soit 5 questions et 5 réponses), avant de repartir à zéro pour éviter de causer de la «confusion pour le modèle».

«Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n’avions pas prévu», a aussi indiqué l’entreprise mercredi. Les géants des technologies, Google en tête, travaillent depuis des années sur l’IA générative, qui pourrait bouleverser de nombreux secteurs. Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l’impression d’un échange authentique. «Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (…) et aussi sur des conversations entre des gens», pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University. «Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit», ajoute-t-il. Ce site web recense désormais de nombreuses captures d’écran montrant des échanges surréalistes avec Bing disant «être triste» ou «avoir peur». Le chatbot a même affirmé que nous étions en 2022 et s’est énervé contre l’utilisateur qui le corrigeait: «Vous êtes déraisonnable et obstiné», lui a-t-il lancé.