G. DAVID (Discurv) : «L’IA nécessite davantage de pédagogie et d’encadrement»

G. DAVID (Discurv) : «L’IA nécessite davantage de pédagogie et d’encadrement»

À l’heure où les vidéos générées par intelligence artificielle envahissent les réseaux sociaux, l’institut d’études Discurv a interrogé 1.000 Français pour mesurer leur capacité à distinguer le vrai du faux et comprendre leurs émotions face à ces contenus. Résultat : une méfiance grandissante et une crise de confiance inédite. Guillaume DAVID, CEO de Discurv, décrypte pour Média+ les enseignements de cette étude et les enjeux à venir pour les médias, les marques et les plateformes numériques.

Selon vous, assiste-t-on à la fin du principe même de «preuve par l’image» ?

Non, je ne pense pas qu’on arrive à la fin de ce principe. En revanche, l’évolution de la technologie et de l’intelligence artificielle dans la création de contenus doit nous pousser à repenser la façon dont ces images sont vérifiées, publiées et encadrées. Il faut imaginer des systèmes de vérification plus visibles, avec des disclaimers clairs et explicites, pour restaurer la confiance du public.

Votre étude montre que près de 7 Français sur 10 pensent à tort qu’une vidéo réelle a été produite par l’IA. Quel risque cela fait-il peser sur la consommation d’informations, notamment en période électorale ?

C’est une remise en doute de tout ce qui peut être vu. Nous devons permettre aux Français – et plus largement aux citoyens du monde – de retrouver confiance dans ce qu’ils regardent. Cela passera sans doute par une évolution de la réglementation, de la législation ou des obligations des créateurs de contenus, notamment en matière de disclaimers et de contrôles associés.

Vous évoquez un clivage générationnel fort : les seniors se disent démunis, tandis que les jeunes affichent une fausse confiance…

Ce clivage générationnel, on le retrouve dans de nombreux domaines. Les jeunes ont souvent un excès de confiance, et cela se traduit ici par une assurance disproportionnée dans leur capacité à distinguer une vidéo générée par IA d’une vidéo réelle. À l’inverse, les générations plus âgées, souvent moins à l’aise avec la technologie, se montrent plus prudentes. Pour les marques et les médias, la clé est sans doute de miser sur davantage de pédagogie et d’accompagnement.

Les émotions suscitées par les vidéos générées par IA traduisent une tension entre fascination et peur. Que cela dit-il de notre rapport collectif à la technologie ?

C’est vrai, il y a une forme de paradoxe. L’intelligence artificielle fascine autant qu’elle effraie. Nous avons tous conscience qu’elle bouleverse nos manières de travailler, d’apprendre, de créer. Certains y voient même une menace pour leur emploi. Et pourtant, de plus en plus de monde l’utilise ! C’est là tout le paradoxe humain : on perçoit un danger potentiel, mais on adopte massivement la technologie. C’est un peu comme ces contradictions qu’on observe dans d’autres domaines : ceux qui critiquent Shein mais qui en consomment, ou ceux qui prônent une réduction du CO₂ tout en prenant l’avion plusieurs fois par an. Collectivement, on perçoit un risque, mais individuellement, on peine à agir en conséquence. L’IA n’est pas un danger en soi, mais elle nécessite davantage de pédagogie et d’encadrement.

Seuls 14% des Français ont déjà créé une vidéo via l’IA, mais un tiers se disent prêts à essayer. Sommes-nous à l’aube d’une explosion des usages ou ces outils resteront-ils confinés à des niches créatives ?

Notre étude montre qu’il y a déjà 14% d’utilisateurs et 13% de personnes prêtes à s’y essayer. Nous atteindrons bientôt un tiers de la population ayant déjà généré du contenu grâce à l’IA. C’est donc bien plus qu’une niche. En revanche, tout dépendra des usages : personnel ou professionnel. Les impacts seront très différents selon le contexte d’utilisation.

Comment les acteurs du numérique – plateformes, médias, institutions – peuvent-ils reconstruire un climat de confiance autour des contenus générés par IA ? Faut-il envisager une régulation plus visible ?

Il faut avant tout plus de visibilité sur la réalité des contenus. Faut-il passer par la régulation ? Difficile à dire. Le problème est mondial : il ne peut pas être cantonné à la France. Une régulation efficace devrait donc être internationale, ce qui rend l’enjeu particulièrement complexe. À mon sens, au-delà des contraintes réglementaires, ce sont les bonnes pratiques qui doivent être encouragées. Les acteurs vertueux, ceux qui font un effort de pédagogie et de transparence, seront naturellement identifiés et valorisés. Ce sont eux qui redonneront confiance aux utilisateurs et aux consommateurs de contenus.

En tant qu’institut d’études, comment Discurv adapte-t-il ses méthodologies pour analyser des phénomènes aussi rapides et mouvants que l’adoption de l’IA par le grand public ?

Le besoin fondamental reste le même : mesurer, comprendre et décrypter les évolutions de perception. En revanche, nous intégrons désormais ces outils dans nos propres process pour être plus réactifs et capter les signaux faibles. L’idée, c’est d’identifier très vite les sujets les plus mouvants et pertinents, comme celui de cette étude, afin de pouvoir les analyser avec précision. Nous adaptons nos dispositifs pour mieux décoder les comportements émergents et anticiper les évolutions sociétales.

Souhaitez-vous ajouter un point qui vous paraît important ?

Au-delà de la méfiance, il faut aussi voir le côté positif. Ce que je trouve rassurant, c’est que les Français ont conscience de leurs limites. J’aurais été plus inquiet si la majorité pensait être infaillible. Là, au contraire, ils reconnaissent qu’ils peuvent être trompés. Cela signifie qu’ils commencent à se poser les bonnes questions et à vouloir vérifier les sources. C’est un signe de maturité numérique, et c’est très encourageant.

Aucun article à afficher