Dissuasion algorithmique, rétention : l’IA fait-elle passer la cybersécurité à une nouvelle ère ?

Dissuasion algorithmique, rétention : l’IA fait-elle passer la cybersécurité à une nouvelle ère ?

L’entreprise états-unienne Anthropic, spécialisée en intelligence artificielle générative, a décidé début avril de geler la diffusion publique de son modèle récent, baptisé « Mythos ». Selon un communiqué de la société, cette décision découle d’une puissance de calcul et d’une capacité de raisonnement jugées trop « offensives ». Anthropic a choisi de ne partager son modèle qu’avec une coalition de géants technologiques (Apple, Amazon Web Services, Cisco, Google, Microsoft, etc.) dans le cadre du projet Glasswing. Le but annoncé est d’utiliser Claude Mythos Preview pour détecter des vulnérabilités dites « zero-day » (c’est-à-dire inconnues et n’ayant aucun correctif connu) et sécuriser proactivement les logiciels critiques avant que des acteurs malveillants n’exploitent ces failles.

Les grands modèles de langage savent déjà coder depuis quelques années, mais des systèmes d’intelligence artificielle (IA) peuvent désormais identifier des vulnérabilités réelles dans des logiciels critiques. Les autorités, comme l’Agence nationale de la sécurité des systèmes d’information (Anssi), soulignent la capacité des systèmes d’IA à automatiser les attaques.

Les enjeux de la diffusion massive de tels modèles, y compris Mythos, dépassent largement le cadre technique. Une cyberattaque d’envergure, automatisée par une IA, pourrait paralyser des systèmes financiers ou logistiques en quelques secondes, avec un coût de remédiation se chiffrant en milliards d’euros. Les enjeux sont également sociétaux et de santé, car nos hôpitaux, nos réseaux énergétiques et d’autres systèmes critiques reposent sur des couches logicielles souvent anciennes, vulnérables à des attaques de « zero-day ».

Dans ce contexte, des IA ultraperformantes, comme Mythos, peuvent-elles contribuer à une forme de « dissuasion algorithmique » ? Celle-ci repose sur un principe simple : détecter et neutraliser ses propres vulnérabilités critiques plus vite que tout attaquant, humain ou automatisé, si rapidement que l’attaque en devient inutile ou trop coûteuse. La rétention de ce modèle par des entreprises privées états-uniennes rouvre également la question de la souveraineté numérique à l’échelle mondiale.

Historiquement, la cybersécurité repose sur une asymétrie fondamentale : l’attaquant n’a besoin de trouver qu’une seule faille de sécurité, tandis que le défenseur doit toutes les combler. L’intégration de systèmes d’IA renforce les capacités des attaquants, car un modèle comme Mythos peut scanner des millions de lignes de code en quelques minutes, là où un humain passait des semaines à analyser le code source pour y déceler une erreur.

De plus, l’IA permet le phishing de haute précision, avec des messages frauduleux plus crédibles et personnalisés. L’Anssi alerte sur l’usage de l’IA générative pour briser les barrières linguistiques et psychologiques, rendant la vigilance des utilisateurs de plus en plus obsolète. Des malwares peuvent également réécrire leur propre code en temps réel pour échapper à la détection.

En miroir, l’IA améliore les capacités de cyberdéfense, grâce à des analyses causales et à la surveillance automatisée. Un système d’analyse IA a permis en janvier de découvrir 12 failles de sécurité dans OpenSSL, un logiciel essentiel à la protection des communications internet mondiales. Mythos semble également participer à cette automatisation, et Firefox a déjà identifié et réparé 271 vulnérabilités grâce à ce logiciel, suggérant que Mythos excelle dans la détection de vulnérabilités lorsqu’il a accès au code source.

Cependant, il n’est pas prouvé que Mythos puisse compromettre de manière autonome n’importe quel logiciel fermé sans accès au code source. Des analyses suggèrent que des capacités comparables seraient déjà reproductibles à partir de modèles publics, remettant en cause l’efficacité de cette rétention. Mythos apparaît davantage comme un analyste de sécurité surpuissant qu’une entité autonome de cyberattaque universelle.

La notion de « dissuasion algorithmique » émerge dans ce contexte. Elle peut être comprise par analogie avec la dissuasion nucléaire : posséder une capacité de réponse et de détection si rapide que l’attaque en devient inutile ou trop coûteuse. Contrairement au domaine nucléaire, la dissuasion algorithmique repose sur le renforcement des mécanismes défensifs, tels que la détection accélérée des intrusions et l’analyse des causes.

La dissuasion algorithmique reste cependant fragile, dépendant des pratiques des acteurs opérationnels, de la qualité des systèmes hérités à protéger, des stratégies nationales mises en œuvre par les États, ainsi que des dispositifs de gouvernance qui définissent les règles et responsabilités de l’IA.

Ne pas rendre disponibles au grand public certains modèles peut sembler responsable, car cela évite de publier des capacités offensives. Toutefois, cette rétention concentre le pouvoir technologique et réduit la transparence scientifique, soulevant des questions sur la gouvernance démocratique et l’accès équitable à la technologie.

Source : Le Monde

Source
Partager ici :
Leave a Comment

Comments

No comments yet. Why don’t you start the discussion?

Laisser un commentaire