Espagne: une dizaine de jeunes filles ont porté plainte après avoir été victimes de la diffusion de fausses images dénudées générées par IA

118

Une dizaine de jeunes filles ont porté plainte en Espagne après avoir été victimes de la diffusion de fausses images dénudées générées par une application d’intelligence artificielle, une affaire suscitant une vive polémique dans le pays.

«Nous avons reçu onze plaintes de victimes» mineures dans la commune d’Almendralejo (sud-ouest), a indiqué une porte-parole de la police.

Les auteurs présumés de ces images, qui ont été pour certains identifiés, «ont manipulé des photos de jeunes filles mineures» pour placer leurs visages sur les «corps (dénudés) d’autres personnes», a-t-elle ajouté.

Selon une autre source policière, ces fausses images ont été générées à l’aide d’une application d’intelligence artificielle (IA), capable de produire des photomontages très réalistes. L’enquête a été ouverte pour un délit présumé d’atteinte à la vie privée.

Le parquet a précisé que le délit de pédopornographie pourrait aussi être retenu, étant donné l’âge des victimes.

Selon les médias espagnols, une vingtaine de jeunes filles pourraient avoir été victimes de ces photos manipulées.

La mère de l’une des victimes, Miriam Al Adib, a dénoncé sur Instagram une «ignominie».

«Quand je suis arrivée à la maison, l’une de mes filles, m’a dit avec un dégoût énorme «regarde ce qu’ils ont fait» (..) Ils ont pris une photo d’elle et l’ont montée comme si elle était nue (…) à l’aide d’intelligence artificielle».

Elle a affirmé que la police lui avait indiqué que ces photos avaient pu être mises en ligne sur la plateforme «Onlyfans» ou sur «des sites pornographiques».

Une autre mère a dit de son côté sur la télévision publique espagnole TVE que ces images avaient été utilisées comme moyen de chantage pour obtenir de l’argent de la part de sa fille.

L’intelligence artificielle provoque une inquiétude croissante dans le monde car cette technologie peut être utilisée à des fins malveillantes comme dans le cas de l’hypertrucage («deepfake») pornographique.

Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’intelligence artificielle, 96% des fausses vidéos en ligne sont de la pornographie non consensuelle et la plupart d’entre elles représentent des femmes.