Les entreprises d’IA doivent s’inspirer des réseaux sociaux pour protéger leurs utilisateurs, défend le dirigeant de Character.AI, qui a interdit l’accès à ses robots conversationnels aux mineurs après avoir été mis en cause dans le suicide de plusieurs adolescents. «Je suis rassuré de voir que l’ensemble du secteur – les régulateurs, les entreprises, les décideurs politiques, le monde académique – parle de la sécurité de l’IA bien plus tôt que nous ne l’avons fait à l’époque des réseaux sociaux», témoigne Karandeep Anand, DG de Character.AI, au Salon international du mobile de Barcelone. Lancée en mai 2023, la jeune pousse californienne s’est fait connaître avec ses robots IA personnalisés, répliquant la personnalité d’une célébrité ou d’un personnage de fiction. Sur la plateforme, il est ainsi possible de se lancer dans une conversation avec Bob Dylan ou un personnage de la série Bridgerton, mais aussi de jouer le rôle d’un membre de la mafia. Arrivé à l’été 2025 à sa tête, Karandeep Anand assure que «Character.AI a fait beaucoup de chemin au cours des 9 derniers mois», après avoir été pointée du doigt dans plusieurs affaires de suicide d’adolescents. «Nous avons vraiment redoublé d’efforts pour renforcer encore davantage nos normes de sécurité», indique-t-il, comme le fait d’empêcher l’accès des mineurs à ses outils depuis octobre. «Nous avons la chance de pouvoir tirer les leçons de tout ce qui s’est bien ou mal passé avec les réseaux sociaux et de l’appliquer dès maintenant à l’IA», explique le dirigeant, dont l’entreprise revendique près de 20 millions d’utilisateurs actifs chaque mois. Selon lui, s’il est encore trop tôt pour déterminer quels usages sont dangereux, «il est plus simple et préférable pour nous tous de pêcher par excès de prudence» pour protéger les mineurs. Son groupe s’est aussi éloigné de la création de modèles d’IA pour se concentrer sur ses robots conversationnels de personnages. «Mon objectif principal a été de développer une entreprise qui devienne complètement une société de divertissement fondée sur l’IA», explique-t-il. «Aujourd’hui, nous sommes une entreprise d’applications grand public, clairement concentrée sur le fait de repousser les limites de ce à quoi le divertissement propulsé par l’IA pourrait ressembler», souligne M. Anand. Il tient aussi à se démarquer des autres compagnons IA, au travers desquels les utilisateurs développent des conversations similaires à celles qu’ils auraient avec un être humain. «Les utilisateurs viennent avec des besoins différents», explique-t-il, et moins de 10% d’entre eux considèrent la plateforme comme un compagnon. «La plupart viennent pour la fiction, l’écriture de récits, le storytelling, ainsi que pour du tutorat et du coaching». Dans un secteur qui nécessite d’importantes machines pour faire fonctionner ses logiciels, la question du coût des services proposés et de leur rentabilité s’est posée. A l’image du géant OpenAI, qui a commencé début 2026 à mettre de la publicité sur ChatGPT, Character.AI veut désormais s’assurer des revenus. L’entreprise a ainsi introduit trois sources de financement, avec la publicité, les achats intégrés dans la plateforme et les abonnements. «Avant mon arrivée, la monétisation n’était pas un but recherché», rappelle Karandeep Anand. Mais le modèle économique des entreprises de la tech évolue. Contrairement à la précédente génération, celle des grandes plateformes qui cherchaient à avoir le plus d’utilisateurs possibles, avec l’IA, «chaque nouvel utilisateur que vous ajoutez est assez coûteux», explique le dirigeant. Quant aux coûts environnementaux de l’IA, M. Anand plaide pour des «garde-fous» pour préserver les ressources naturelles. Mais le dirigeant reste optimiste. «Je crois que la technologie peut réellement faire beaucoup de bien à la société», veut-il croire.




































