
Accord dans l’UE pour interdire la génération de fausses images sexuelles
Les États membres et le Parlement européen se sont entendus dans la nuit de mercredi à jeudi pour interdire dans l’Union européenne les services d’intelligence artificielle (IA) permettant de « dénuder » des personnes sans leur consentement. Cette décision fait suite à la polémique suscitée par la fonctionnalité introduite dans Grok, l’assistant d’intelligence artificielle d’Elon Musk, qui permettait de créer des montages hyperréalistes, ou deepfakes, d’adultes et d’enfants dénudés à partir de photos réelles, sans leur autorisation. Cette situation a entraîné une enquête de l’UE et a provoqué un tollé dans plusieurs pays.
Mardi, la Première ministre italienne Giorgia Meloni a dénoncé des images truquées d’elle générées par l’IA, qualifiant ces deepfakes d’« outil dangereux ». Selon le Parlement, la nouvelle interdiction vise les systèmes capables de produire des images, vidéos et sons à caractère pédopornographique, ou représentant des parties intimes d’une personne identifiable, ou la mettant en scène dans des activités sexuelles, sans son consentement.
La réglementation entrera en vigueur le 2 décembre 2026. D’ici cette date, les systèmes d’IA devront être équipés de mesures de sécurité pour empêcher la création de tels contenus. Cette mesure s’inscrit dans le cadre d’une révision de la législation européenne sur l’IA, l’AI Act, adoptée il y a deux ans.
Les 27 États membres et les eurodéputés ont également convenu de reporter l’entrée en vigueur de nouvelles règles concernant les systèmes d’intelligence artificielle dits à hauts risques, ceux opérant dans des domaines sensibles tels que la sécurité, la santé ou les droits fondamentaux. Initialement prévues pour entrer en vigueur en août, ces règles bénéficieront d’un délai supplémentaire pour permettre aux entreprises de s’adapter.
Les nouvelles dates fixées sont le 2 décembre 2027 pour les systèmes à hauts risques « autonomes » et le 2 août 2028 pour ceux intégrés à d’autres programmes ou produits. Cet accord a été conclu dans un contexte de préoccupations croissantes concernant les risques liés à l’intelligence artificielle, exacerbées récemment par le modèle Mythos de la start-up américaine Anthropic, dont les capacités en matière de cybersécurité suscitent des inquiétudes.
Source : La Croix





