Alors que Meta s’apprête à utiliser les publications et commentaires des Européens sur Instagram pour entraîner ses intelligences artificielles, la question du respect des données personnelles revient au cœur du débat. Frédéric Brajon, co-fondateur du cabinet Saegus, expert en transformation digitale et en IA responsable, décrypte les enjeux de cette décision controversée. Un échange limpide sur les failles du RGPD, la puissance des GAFAM… et les moyens concrets de concilier innovation et éthique.
MEDIA +
Meta a récemment annoncé utiliser les publications et commentaires des Européens sur Instagram pour entraîner ses intelligences artificielles. En tant qu’expert, que pensez-vous de cette décision?
FRÉDÉRIC BRAJON
C’est une décision importante qui pourrait faire jurisprudence. Meta s’appuie sur la notion d’«intérêt légitime» pour justifier l’exploitation de données personnelles issues de publications ou commentaires, ce qui est très encadré en Europe. Mais cette notion est floue et sujette à interprétation. Pour être valable, Meta doit prouver que le traitement apporte un bénéfice aux utilisateurs, qu’il n’existe pas d’alternative à cette méthode, et que cela améliore effectivement le service. Or, on peut craindre ici un détournement de finalité: les données pourraient être utilisées à des fins commerciales bien au-delà d’Instagram.
MEDIA +
Meta prétend respecter le RGPD avec un formulaire d’opposition (opt-out). Est-ce conforme à l’esprit du règlement ?
FRÉDÉRIC BRAJON
Disons que c’est une interprétation limite. Meta prévoit en effet un formulaire permettant aux utilisateurs de refuser l’usage de leurs données. Mais cette logique d’opt-out, où l’utilisateur doit activement s’opposer, est problématique. Dans la pratique, peu d’utilisateurs prennent le temps de lire les conditions générales ou de décocher la bonne case. Par défaut, leurs données seront donc utilisées. On est loin de l’opt-in recommandé par le RGPD, où l’utilisateur donne son accord explicite.
MEDIA +
Cette stratégie peut-elle influencer les pratiques des entreprises européennes ?
FRÉDÉRIC BRAJON
Oui, absolument. Si cette interprétation du RGPD passe sans sanction, elle risque de faire école. D’autres entreprises pourraient alors exploiter davantage la clause de l’«intérêt légitime» pour contourner des règles pourtant très protectrices. Ce serait un précédent risqué. Même si Meta limite l’usage à des commentaires publics, on sait que beaucoup d’informations personnelles transitent dans ces échanges.
MEDIA +
Quels sont les intérêts des utilisateurs dans cette démarche de Meta ?
FRÉDÉRIC BRAJON
Meta affirme vouloir améliorer les performances de ses IA en prenant en compte la diversité culturelle et linguistique des utilisateurs européens. Mais concrètement, difficile de comprendre comment cette collecte massive servira directement à un meilleur service. On peut légitimement douter de la pertinence de cet «intérêt légitime» tant revendiqué.
MEDIA +
Les géants américains ont une longueur d’avance. Que peuvent faire les entreprises européennes pour rester compétitives sans sacrifier l’éthique ?
FRÉDÉRIC BRAJON
L’éthique ne doit pas être une option. Il est tout à fait possible d’entraîner une IA en respectant des règles strictes: anonymiser les données, supprimer les informations sensibles (ethniques, enfants, etc.), limiter les biais. Ce que font certaines entreprises américaines comme xAI (Grok) va dans le sens inverse : aucune limite claire. Mais en Europe, on peut instaurer des garde-fous, filtrer les données, et construire des IA plus responsables.
MEDIA +
Est-ce que la complexité des règles ne finit pas par décourager les utilisateurs de protéger leurs données ?
FRÉDÉRIC BRAJON
Si, c’est un vrai problème. La majorité des utilisateurs veut simplement accéder à leur application. Lire les CGU ? Très peu le font. C’est pour cela que le rôle des médias est crucial. Il faut alerter, expliquer clairement ce que signifie céder ses données à une IA. Une fois utilisées pour l’entraînement, ces données ne peuvent plus être retirées. Elles peuvent même ressurgir indirectement dans les résultats d’une IA.
MEDIA +
Est-il réellement possible de concilier IA performante et respect de la vie privée ?
FRÉDÉRIC BRAJON
Oui, à condition d’encadrer. Chez Saegus, lorsqu’on implémente une IA, on teste sa robustesse, on contrôle les biais. On vérifie aussi la phase d’inférence, c’est-à-dire la manière dont l’IA répond. Si on constate des écarts ou des réponses biaisées, on ajuste. L’IA Act européen impose désormais ces tests. Ce sont des garde-fous nécessaires pour créer des intelligences responsables.
MEDIA +
Quel rôle peuvent jouer les cabinets de conseil comme le vôtre dans cette construction éthique de l’IA ?
FRÉDÉRIC BRAJON
Nous accompagnons les entreprises sur deux fronts : d’une part, comprendre ce qu’elles peuvent ou non faire légalement avec l’IA ; d’autre part, mettre en place un cadre de confiance. C’est particulièrement important pour les usages critiques comme le recrutement, la gestion de carrière, ou les RH. Ces domaines doivent être irréprochables : anonymisation, transparence, tests anti-biais… Les grandes entreprises s’en saisissent sérieusement. On voit même apparaître de nouvelles fonctions : des «Responsible AI Officers» chargés d’encadrer l’usage de l’IA en interne.
MEDIA +
Et pour le grand public, que faire face aux géants des réseaux sociaux ?
FRÉDÉRIC BRAJON
Encore une fois, l’information est essentielle. Les données personnelles appartiennent aux utilisateurs. Il faut le rappeler. Il est crucial de lire, ou au minimum de s’informer sur ce à quoi on consent. C’est un combat culturel autant que réglementaire.