La Banque d’Angleterre, la Financial Conduct Authority et le Trésor britannique ont engagé des discussions d’urgence avec le National Cyber Security Centre pour évaluer les risques de Mythos Preview, le nouveau modèle d’Anthropic. Aux États-Unis, le secrétaire au Trésor Scott Bessent a tenu une réunion analogue avec les principales banques de Wall Street. Pour la première fois, des régulateurs financiers coordonnent une réponse face aux capacités offensives d’un modèle d’IA.
Table Of Content
- Project Glasswing, une coalition défensive de 12 partenaires
- Des délais de correction incompatibles avec la vitesse de l’IA
- Un débat sur la stratégie de communication d’Anthropic
- Ce qui se passe réellement
- Project Glasswing, une coalition défensive de 12 partenaires
- Des délais de correction incompatibles avec la vitesse de l’IA
- Un débat sur la stratégie de communication d’Anthropic
- Pourquoi cela dérange
- Ce que cela implique concrètement
- Lecture satirique
- Effet miroir international
- À quoi s’attendre
- Sources
Mythos, le dernier modèle d’Anthropic fait peur, car il présente des capacités offensives en cybersécurité sans précédent dans l’histoire des modèles d’IA générative. Le modèle est capable d’enchaîner plusieurs vulnérabilités pour construire des exploits complexes de manière autonome : dans un cas documenté, il a produit un exploit navigateur combinant quatre failles, avec une technique d’évasion des bacs à sable du moteur de rendu et du système d’exploitation. En quelques semaines de tests internes, il a identifié plusieurs milliers de vulnérabilités critiques, dont des failles zero-day dans chaque grand système d’exploitation et chaque navigateur web majeur, ainsi qu’un bogue vieux de 27 ans dans OpenBSD, système réputé pour sa robustesse sécuritaire. Ce qui aggrave le risque systémique est la nature endogène de ces capacités. « Elles ont émergé comme conséquence directe des améliorations générales en code, en raisonnement et en autonomie », indique Anthropic dans son annonce de Project Glasswing, précisant n’avoir pas entraîné délibérément le modèle à ces fins offensives. C’est précisément pour cette raison qu’Anthropic a choisi de ne pas commercialiser Mythos Preview, une décision dont seul OpenAI avait offert un précédent comparable en 2019 avec GPT-2, pour des raisons alors différentes.
Anthropic a choisi de ne pas commercialiser Claude Mythos Preview, invoquant des capacités offensives en cybersécurité incompatibles avec une mise à disposition générale. Seul OpenAI avait pris une décision comparable en 2019 avec GPT-2, pour des raisons alors différentes. En quelques semaines de tests internes, Mythos Preview a identifié plusieurs milliers de vulnérabilités critiques, dont des failles zero-day dans chaque grand système d’exploitation et chaque navigateur web majeur, ainsi qu’un bogue vieux de 27 ans dans OpenBSD, système réputé pour sa robustesse sécuritaire. Anthropic précise n’avoir pas entraîné délibérément le modèle sur ces capacités offensives. « Elles ont émergé comme conséquence directe des améliorations générales en code, en raisonnement et en autonomie », indique la société dans son annonce de Project Glasswing.
Project Glasswing, une coalition défensive de 12 partenaires
Ces capacités ont une double nature que les régulateurs financiers ont immédiatement identifiée. Un modèle capable d’enchaîner quatre vulnérabilités pour construire un exploit navigateur, d’obtenir des privilèges locaux sur Linux par exploitation de conditions de course, ou d’écrire un exploit d’exécution de code à distance sur le serveur NFS de FreeBSD, représente une rupture qualitative dans le paysage des menaces. La Bank of England, la FCA et le Trésor cherchent à déterminer si les systèmes informatiques critiques du secteur financier — infrastructures de trading, systèmes de paiement, plateformes d’assurance — présentent des failles susceptibles d’être exploitées par un acteur malveillant disposant de capacités équivalentes à celles de Mythos Preview.
Anthropic a répondu à ce risque par la création de Project Glasswing, une coalition défensive constituée de 12 partenaires fondateurs et de plus de 40 organisations supplémentaires chargées de maintenir des infrastructures logicielles critiques. Les partenaires fondateurs comprennent Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks. Chacun dispose d’un accès à Claude Mythos Preview pour détecter et corriger les vulnérabilités de ses propres systèmes, ainsi que du code open source sur lequel repose une large part de l’infrastructure mondiale. Anthropic s’est engagé à hauteur de 100 millions de dollars en crédits d’utilisation du modèle pour la durée de cette phase de recherche, en complément de 4 millions de dollars de dons directs aux organisations de sécurité open source, dont la Linux Foundation, l’OpenSSF et l’Apache Software Foundation. À l’issue de la phase gratuite, l’accès à Mythos Preview sera facturé 25 dollars par million de jetons en entrée et 125 dollars par million de jetons en sortie, accessible via l’API Claude, Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry.
Des délais de correction incompatibles avec la vitesse de l’IA
Les infrastructures bancaires, de marché et d’assurance présentent une exposition structurelle aux risques mis en évidence par Mythos Preview. Les systèmes hérités interconnectés et les délais de patching contraints par les obligations de continuité opérationnelle créent des fenêtres d’exposition prolongées. Or ces fenêtres se sont radicalement réduites. « La fenêtre entre la découverte d’une vulnérabilité et son exploitation par un adversaire s’est effondrée, passant de plusieurs mois à quelques minutes avec l’IA », indique CrowdStrike, partenaire fondateur de Project Glasswing.
Pour les RSSI du secteur financier, l’enjeu dépasse la correction de vulnérabilités connues. Mythos Preview a démontré une capacité à identifier des failles inédites, absentes des bases CVE existantes. Les équipes sécurité ne peuvent donc s’appuyer sur les flux de veille habituels pour anticiper les vecteurs d’attaque que des acteurs malveillants, disposant à terme de capacités analogues, pourraient exploiter.
Un débat sur la stratégie de communication d’Anthropic
La réponse réglementaire ne fait pas l’unanimité dans la communauté technique. Plusieurs experts contestent le caractère exclusif des capacités de Mythos Preview, arguant que des modèles open source de taille réduite reproduisent une part significative des analyses présentées par Anthropic. La société AISLE, spécialisée dans la recherche de vulnérabilités assistée par IA, affirme avoir obtenu des résultats comparables sur plusieurs des cas présentés en recourant à des modèles moins coûteux, et soutient que l’avantage compétitif réside dans le système d’outillage plutôt que dans le modèle lui-même. David Sacks, conseiller technologique de la Maison-Blanche, a publiquement évoqué le risque de crédibilité pour Anthropic si les menaces annoncées ne se matérialisaient pas. Cette tension entre la nécessité d’alerter les défenseurs et le risque de surenchère rhétorique constitue elle-même un angle de gouvernance IA que les DSI et RSSI devront intégrer dans leur lecture des annonces des grands fournisseurs de modèles frontières.
La coordination entre Londres et Washington s’est opérée en moins d’une semaine, ce qui indique que les autorités financières traitent désormais les risques liés à l’IA comme une menace active. Pour les directions informatiques et sécurité des établissements financiers européens, la question porte sur l’échéance à laquelle des capacités équivalentes à celles de Mythos Preview seront disponibles pour des acteurs hostiles. Newton Cheng, responsable de la Red Team cybersécurité d’Anthropic, l’a formulé sans ambiguïté : « Les capacités des modèles frontières vont progresser de manière substantielle dans les prochains mois. »
Mythos : Quand l’IA fait trembler les régulateurs
La Banque d’Angleterre et le Trésor américain s’inquiètent des capacités offensives d’un modèle d’IA, mais qui surveillera les surveillants ?
Dans un monde où les algorithmes semblent plus intelligents que certains de nos dirigeants, le dernier modèle d’Anthropic, Mythos, a réussi à faire chavirer les cœurs des régulateurs financiers. Imaginez un instant : une IA capable de combiner plusieurs vulnérabilités pour créer des exploits complexes, tout cela en quelques clics. Voilà qui devrait faire réfléchir les banquiers, mais aussi les citoyens. Qui aurait cru que les véritables hackers pourraient être des lignes de code ?
Ce qui se passe réellement
La Banque d’Angleterre, la Financial Conduct Authority et le Trésor britannique ont engagé des discussions d’urgence avec le National Cyber Security Centre pour évaluer les risques de Mythos Preview, le nouveau modèle d’Anthropic. Aux États-Unis, le secrétaire au Trésor Scott Bessent a tenu une réunion analogue avec les principales banques de Wall Street. Pour la première fois, des régulateurs financiers coordonnent une réponse face aux capacités offensives d’un modèle d’IA.
Mythos, le dernier modèle d’Anthropic, fait trembler les institutions financières avec ses capacités offensives en cybersécurité. En quelques semaines, il a identifié des milliers de vulnérabilités critiques, y compris des failles zero-day dans tous les grands systèmes d’exploitation. Une prouesse qui, avouons-le, pourrait faire rougir même les hackers les plus aguerris. Et pour couronner le tout, Anthropic n’a même pas voulu commercialiser ce modèle, arguant que ses capacités étaient trop dangereuses. Qui aurait cru que des entreprises technologiques pourraient être plus prudentes que des gouvernements ?
Project Glasswing, une coalition défensive de 12 partenaires
Face à cette menace, Anthropic a créé Project Glasswing, une coalition de 12 partenaires, dont des géants comme Amazon et Google. Une belle brochette d’entreprises qui, ironie du sort, sont souvent critiquées pour leurs pratiques en matière de sécurité. Mais là, elles se retrouvent à jouer les pompiers, armées d’un modèle d’IA qui pourrait, en théorie, les réduire en cendres.
Des délais de correction incompatibles avec la vitesse de l’IA
Les infrastructures financières, déjà en proie à des systèmes hérités, sont désormais confrontées à des délais de correction qui ne suivent pas le rythme effréné de l’IA. Comme le dit CrowdStrike, la fenêtre entre la découverte d’une vulnérabilité et son exploitation s’est réduite à quelques minutes. Un véritable cauchemar pour les RSSI, qui doivent jongler avec des menaces qu’ils ne peuvent même pas anticiper.
Un débat sur la stratégie de communication d’Anthropic
Et que dire de la communication d’Anthropic ? Alors que certains experts soutiennent que des modèles open source pourraient reproduire des résultats similaires, la société se retrouve dans une position délicate. Le conseiller technologique de la Maison-Blanche, David Sacks, a même évoqué le risque de crédibilité pour Anthropic. Une belle ironie, n’est-ce pas ? Les entreprises technologiques qui se présentent comme les gardiennes de notre sécurité pourraient bien être celles qui alimentent la méfiance.
Pourquoi cela dérange
Ce qui dérange vraiment, c’est la contradiction flagrante entre la promesse d’une technologie sécurisée et la réalité d’un monde où les algorithmes peuvent devenir des armes. Les régulateurs, qui devraient protéger le public, se retrouvent à courir après des modèles d’IA qui semblent plus rapides qu’eux. Cela soulève des questions sur la capacité des gouvernements à gérer les risques associés à ces technologies, surtout lorsque ces mêmes gouvernements sont souvent en retard sur les évolutions technologiques.
Ce que cela implique concrètement
Les conséquences sont directes : une vulnérabilité accrue des systèmes financiers face à des menaces qui évoluent plus vite que les mesures de sécurité. Les acteurs malveillants, armés de technologies similaires, pourraient exploiter ces failles avant même que les régulateurs n’aient eu le temps de réagir. Une situation qui pourrait mener à une crise de confiance dans le système financier.
Lecture satirique
En somme, nous avons là un bel exemple de la déconnexion entre le discours politique et la réalité. Les gouvernements qui prônent la sécurité numérique se retrouvent à devoir gérer des modèles d’IA qui pourraient, en un clin d’œil, transformer leurs promesses en poussière. Il est presque comique de voir ces institutions, qui se présentent comme des bastions de sécurité, se retrouver à la merci d’un logiciel.
Effet miroir international
Et pendant ce temps, à l’échelle internationale, les dérives autoritaires continuent de prospérer. Les États-Unis, la Russie et d’autres pays utilisent des technologies similaires pour surveiller et contrôler leurs populations. Un parallèle ironique, n’est-ce pas ? Alors que les régulateurs tentent de maîtriser une IA potentiellement dangereuse, d’autres l’utilisent pour renforcer leur emprise sur le pouvoir.
À quoi s’attendre
À l’avenir, il est probable que les capacités des modèles d’IA continueront de progresser. Les régulateurs devront s’adapter rapidement, mais la question demeure : pourront-ils suivre le rythme ? La réponse, hélas, est loin d’être certaine.
Sources





