Un agent d’IA repère plus de failles que 9 hackers sur 10, pour 15 €/h : l’expérience choc de Stanford
Un logiciel d’intelligence artificielle a détecté plus de vulnérabilités que la plupart des hackers humains lors d’un test grandeur nature. Impact direct sur la cybersécurité et le coût des protections numériques.
Une intelligence artificielle baptisée ARTEMIS, développée par l’université de Stanford, a surpassé neuf pirates informatiques sur dix lors d’un test de sécurité sur le réseau de l’université. Cette avancée pourrait bouleverser le secteur de la cybersécurité, où la rapidité et le coût des interventions sont cruciaux pour la protection des données et des systèmes. L’étude souligne aussi l’émergence de risques nouveaux, alors que des groupes malveillants exploitent déjà l’IA pour affiner leurs attaques. Les experts préviennent : l’automatisation des cyberattaques pourrait s’intensifier dès 2026.
Ce qu’il faut savoir
- Le fait : Un agent d’IA a détecté plus de failles que la majorité des hackers humains lors d’un test sur 8 000 appareils connectés.
- Qui est concerné : Universités, entreprises, professionnels de la cybersécurité, grand public.
- Quand : Étude publiée le 18 décembre 2025, prévisions jusqu’en 2026.
- Où : États-Unis (Stanford), menaces mondiales (Russie, Chine, Iran, Corée du Nord).
Chiffres clés
- 15 euros de l’heure : coût de fonctionnement de l’agent ARTEMIS, contre 52 euros pour un testeur humain.
- 9 vulnérabilités découvertes par ARTEMIS en 10 h, avec 82 % de rapports valides.
- 16 heures : durée totale de l’expérience sur le réseau de Stanford.
- 8 000 appareils testés (serveurs, ordinateurs, objets connectés).
Concrètement, pour vous
- Ce qui change : Les outils de cybersécurité automatisés deviennent plus efficaces et moins coûteux que les interventions humaines classiques.
- Démarches utiles : Se tenir informé des nouvelles solutions IA et renforcer la vigilance sur la sécurité des systèmes connectés.
- Risques si vous n’agissez pas : Exposition accrue aux cyberattaques automatisées, pertes de données, coûts de réparation plus élevés.
- Exceptions : Certaines failles restent mieux détectées par l’humain, notamment sans indice préalable.
Contexte
Selon Microsoft et OpenAI, des groupes russes, nord-coréens, iraniens et chinois utilisent déjà l’IA pour perfectionner leurs cyberattaques. Des groupes militants, comme ceux liés à l’État islamique, testent aussi ces technologies. L’étude de Stanford montre que les IA spécialisées, comme ARTEMIS, surpassent les modèles grand public (OpenAI Codex, Claude Code) qui restent limités en cybersécurité. Google prévoit que, dès 2026, des agents IA entièrement autonomes pourraient être massivement utilisés pour automatiser et amplifier les attaques informatiques.
Ce qui reste à préciser
- L’étude sur ARTEMIS n’a pas encore été validée par une revue scientifique indépendante.
- La capacité des IA à détecter toutes les failles sans aide humaine reste incomplète.
Citation
« ARTEMIS a fait preuve d’une sophistication technique comparable à celle des participants humains les plus forts de l’étude. » — Rapport de l’université de Stanford
Sources
Source : arXiv (prépublication)
Source d’origine : Voir la publication initiale
Date : 2025-12-18 18:35:00 — Site : fr.euronews.com
Auteur : Cédric Balcon-Hermand — Biographie & projets
Application : Téléchargez Artia13 Actualité (Android)
Notre IA anti-désinformation : Analyzer Fake News (Artia13)
Publié le : 2025-12-18 18:35:00 — Slug : pour-15-euros-de-lheure-un-agent-dia-surpasse-les-hackers-humains
Hashtags : #Pour #euros #lheure #agent #dIA #surpasse #les #hackers #humains


