
Les deepfakes sexuels, arme d’intimidation massive contre les femmes dans la sphère publique
Les États membres et le Parlement européen se sont entendus pour interdire les services d’IA permettant de « dénuder » des personnes sans leur consentement. Cette décision fait suite à la multiplication des deepfakes sexuels, qui ciblent massivement les femmes. Ces contenus touchent de nombreuses victimes anonymes, mais lorsqu’ils visent des journalistes, militantes ou élues, ils peuvent également devenir une arme contre leur parole publique.
Nika Kovac, militante slovène de 33 ans et coordinatrice de l’initiative citoyenne européenne My Voice, My Choice, a été victime de deepfakes à caractère sexuel, générés par l’IA, alors qu’elle défendait un mécanisme européen pour soutenir l’accès à l’avortement. Des vidéos et des photos la représentant nue ont été diffusées sur les réseaux sociaux, suscitant des inquiétudes quant à leur impact sur sa vie personnelle et professionnelle.
Elle a déclaré : « Je pense que c’était une forme d’intimidation, destinée à me mettre mal à l’aise et à m’empêcher de continuer à parler des droits des femmes. » Son cas illustre une réalité de plus en plus documentée : les deepfakes sexuels touchent particulièrement les femmes exposées médiatiquement.
Changer la focale pour discréditer
Plusieurs affaires récentes mettent en lumière l’utilisation de ces contenus pour discréditer des femmes publiques. En France, la journaliste Salomé Saqué a témoigné de la violence des deepfakes pornographiques, un outil utilisé pour la bâillonner et l’humilier. Une enquête de Reporters sans frontières souligne que ces contenus sont une menace croissante pour les journalistes, notamment les femmes.
La violence engendrée par les deepfakes ne se limite pas aux journalistes et militantes. En Italie, le scandale du site Phica a révélé la circulation d’images sexualisées de femmes connues, y compris la Première ministre Giorgia Meloni. En Allemagne, l’affaire de Collien Fernandes, victime de deepfakes créés par son ex-mari, a ravivé le débat sur la nécessité de pénaliser la création de tels contenus.
Des violences très genrées
Les deepfakes sexuels s’inscrivent dans un continuum de cyberviolences sexistes. Selon une recherche menée en 2023 par Security Hero, 98% des deepfakes produits en ligne sont à caractère pornographique et 99% des personnes ciblées sont des femmes. Un rapport d’ONU Femmes indique que parmi plus de 600 femmes engagées dans la vie publique, 6% ont été victimes de deepfakes, 12% ont subi le partage non consenti d’images personnelles, et 41% s’autocensurent sur les réseaux sociaux pour éviter les abus.
Conséquences directes
Les deepfakes sexuels peuvent avoir des conséquences psychologiques graves pour les victimes, allant de la déshumanisation à des pensées suicidaires. Nika Kovac souligne que ces attaques ont un impact concret sur le travail militant, nécessitant des efforts considérables pour signaler et retirer ces contenus.
Face à cette problématique, la réponse judiciaire reste souvent insuffisante. Moins de la moitié des pays disposent de lois spécifiques contre les abus en ligne. Cependant, une directive européenne impose désormais de criminaliser le partage non consenti d’images intimes, y compris les deepfakes, et la création de matériel sexuellement explicite sans consentement.
La récente décision d’interdire dans l’UE les services d’IA permettant de « dénuder » des personnes sans leur consentement est une avancée significative, mais des questions subsistent quant à son application concrète.
Source : RFI



