V. ALLIE & G. MARTIN COCHER (InterDigital) : «L’IA redéfinit la vidéo, la connectivité et les usages immersifs»

V. ALLIE & G. MARTIN COCHER (InterDigital) : «L’IA redéfinit la vidéo, la connectivité et les usages immersifs»

Au croisement de la recherche et de l’innovation, InterDigital développe des technologies qui transforment la vidéo, la connectivité et les expériences immersives. Rencontre avec Valérie Allie, Senior Director and Media Services Lead, et Gaëlle Martin Cocher, Senior Director and Media Systems Lead, qui nous expliquent comment l’intelligence artificielle, la durabilité énergétique et la réalité étendue redéfinissent le futur du streaming et du divertissement.

Vous avez développé la technologie Pixel Value Reduction, basée sur l’intelligence artificielle, pour réduire la consommation énergétique des écrans lors du streaming vidéo. Pouvez-vous nous expliquer son fonctionnement concret et les premiers résultats obtenus ?

VALÉRIE ALLIE : Tout à fait. Chez InterDigital, nous travaillons autour de trois grands piliers : la compression vidéo, la 3D et les nouveaux médias, ainsi que les systèmes vidéo et le streaming. Notre laboratoire vidéo a lancé ce programme à partir d’un constat simple : la consommation de contenus vidéo explose et cela a un impact direct sur l’ensemble de la chaîne de valeur – de la production au streaming, jusqu’aux appareils finaux. Nous avons donc développé la technologie Pixel Value Reduction (PVR), qui repose sur un modèle basé sur l’intelligence artificielle. Son objectif est de réduire la consommation d’énergie au niveau de l’écran (display), tout en préservant la qualité d’expérience. Concrètement, l’IA ajuste la luminance de chaque pixel de manière optimale afin de consommer moins d’énergie, sans altérer la perception visuelle. Les premiers tests réalisés sur les téléviseurs OLED, particulièrement énergivores, montrent une réduction d’environ 15 % de la consommation d’énergie, tout en maintenant une qualité d’image équivalente. Sur les smartphones, qui représentent un marché de près de 5 milliards d’appareils, les premiers résultats sont également prometteurs : entre 10 et 15 % d’économie d’énergie et, à terme, une durée de vie de batterie allongée lors du visionnage de vidéos.

L’IA commence à transformer la chaîne de valeur audiovisuelle, de la compression à la recommandation. Quels usages d’intelligence artificielle vous paraissent les plus prometteurs pour l’avenir du streaming ?

GAËLLE MARTIN COCHER: Nous explorons activement les opportunités offertes par l’intelligence artificielle, au-delà même du seul champ génératif. Nos recherches se concentrent notamment sur la compression vidéo basée sur l’IA, qui pourrait profondément révolutionner la manière de streamer du contenu. Nous travaillons déjà sur la prochaine génération de codecs vidéo hybrides, mêlant approche classique et blocs d’intelligence artificielle. L’idée est de permettre à l’IA de prendre en charge certaines décisions de codage complexes, afin d’optimiser la compression tout en maintenant la qualité. Ce sera l’un des grands enjeux de la prochaine norme JVET, dont l’appel à propositions est prévu pour janvier 2027. Par ailleurs, dans les futurs standards comme la 6G, dans le domaine multimedia, l’industrie reste prudente. L’IA évolue très vite : il faut donc trouver le bon équilibre entre performance, durabilité et pérennité technologique. On s’oriente plutôt vers des réseaux plus légers, capables d’être embarqués directement sur les terminaux. L’enjeu, c’est d’identifier les usages où l’IA apporte une vraie valeur ajoutée – qu’il s’agisse de compression, d’optimisation de transmission ou de nouvelles formes d’interactivité – sans pour autant complexifier inutilement les systèmes.

Vous explorez également de nouvelles expériences autour du sport et du divertissement XR. En quoi ces formats immersifs redéfinissent-ils le rôle du spectateur ?

GAËLLE MARTIN COCHER : On distingue aujourd’hui plusieurs niveaux d’expérience. D’abord, une immersion statique où le spectateur reste observateur, mais bénéficie d’une personnalisation accrue : angles de vue multiples, replays interactifs, analyses enrichies… Et puis, une deuxième dimension, plus active, où l’utilisateur peut interagir avec le contenu : rejouer une action, analyser le positionnement des joueurs ou même apprendre un geste technique. C’est là qu’interviennent des technologies plus avancées comme la création de scènes 3D, les données temps réel et l’intégration de nouveaux formats publicitaires interactifs, qui deviennent de véritables leviers de monétisation.

Justement, comment InterDigital anticipe-t-elle la monétisation de ces expériences immersives ?

GAËLLE MARTIN COCHER : Le modèle d’InterDigital repose toujours sur trois étapes : innover, standardiser, puis agir en support au déploiement. Sur le plan technologique, nous travaillons sur les codecs immersifs : multiview pour les stades, nuages de points, mèches 3D et désormais sur le Gaussian Splatting, un nouveau format de données 3D plus léger et économe en énergie. Nous contribuons aussi à la standardisation internationale (ISO, 3GPP) afin de définir les formats de scènes et les descriptions d’objets immersifs qui permettront d’unifier ces expériences. Cela inclut la spatialisation, la synchronisation et l’interaction des objets dans des environnements en réalité augmentée ou virtuelle. Côté déploiement, nous accompagnons ensuite les partenaires industriels et organisateurs d’événements mondiaux dans la mise en œuvre concrète de ces technologies.

Ces technologies immersives deviennent aussi un levier stratégique pour les diffuseurs et plateformes, non ?

GAËLLE MARTIN COCHER : Absolument. On passe progressivement d’une consommation collective à des usages individuels et personnalisés, sur une multitude de terminaux. Cela ouvre la voie à de nouvelles formes de fidélisation, basées sur la personnalisation et l’interactivité. L’expérience ne se limite plus à «regarder», mais à vivre le contenu selon ses propres préférences.

À plus long terme, imaginez-vous une télévision immersive et personnalisée devenir la norme ?

VALÉRIE ALLIE : Nous allons plutôt vers une cohabitation de deux modèles. Les gens ont encore besoin de vécus collectifs : regarder le même film, partager un moment en famille, vivre ensemble un événement en direct. Cette dimension sociale ne disparaîtra pas. Mais en parallèle, les usages personnalisés vont s’intensifier : des contenus modulables, des expériences interactives, des avatars ou des angles multiples selon les préférences de chacun. Le sport illustre bien cette évolution. Prenons les Jeux olympiques : il y a l’expérience du live, être dans le stade, vibrer avec les athlètes, mais aussi tout ce qui entoure l’événement avant et après. Les technologies immersives, y compris l’haptique, permettront demain de ramener les sensations du direct à distance, de prolonger l’émotion et de revisiter les meilleurs moments sous d’autres angles. Les grands événements sportifs deviennent de véritables laboratoires d’innovation technologique. On le voit déjà avec l’intégration de capteurs dans les ballons de football lors des prochaines compétitions : demain, ces données pourraient être couplées à la vidéo pour offrir une expérience sensorielle inédite.

Aucun article à afficher