Google a détecté la première faille zero-day conçue avec une IA

Google détecte une faille zero-day exploitée par l’IA

Google a annoncé avoir intercepté un tournant majeur dans la cybercriminalité. Selon les chercheurs de son groupe Threat Intelligence Group, un groupe de hackers a utilisé l’intelligence artificielle pour découvrir et exploiter une faille de sécurité de type zero-day dans un outil largement utilisé pour administrer des systèmes informatiques.

L’entreprise affirme avoir un niveau de confiance élevé dans le rôle joué par l’IA, qui a permis d’identifier la vulnérabilité et de créer un exploit prêt à l’emploi pour une campagne plus large. Cependant, Google ne divulgue pas le nom du groupe criminel, du logiciel ciblé ni du modèle de langage utilisé. Les chercheurs précisent qu’ils ne pensent pas que l’exploit ait été produit avec Mythos d’Anthropic ou avec Gemini.

La faille permettait de contourner la double authentification

Cette vulnérabilité pouvait être exploitée pour contourner l’authentification multi-facteur, souvent ajoutée à un mot de passe pour renforcer la sécurité des systèmes. L’objectif était d’accéder aux réseaux internes des entreprises utilisant cet outil d’administration, qui sert à gérer à distance des serveurs, des sites, des applications, et des permissions d’accès des employés. Ainsi, l’impact potentiel de cette faille dépasse largement celui d’un simple compte compromis.

Google a alerté l’éditeur du logiciel avant toute exploitation réelle contre les utilisateurs, et le problème a été corrigé à temps, empêchant ainsi une attaque à grande échelle.

Google y voit la preuve que l’IA offensive est déjà là

D’après Google, le groupe criminel prévoyait un événement d’exploitation de masse, et la découverte proactive de cette faille a probablement suffi à bloquer l’opération avant son lancement. Cette situation met en lumière un risque dont le secteur discute depuis plusieurs mois. Google estime que l’utilisation offensive de l’IA par des hackers n’est plus une simple hypothèse, mais une menace déjà présente sur le terrain.

Le contexte renforce cette préoccupation. En avril, Anthropic avait exprimé des réserves sur la diffusion de son modèle Mythos en raison des risques de détection et d’exploitation de failles logicielles. Depuis, les autorités américaines ont commencé à aborder plus directement la question de l’utilisation malveillante des grands modèles de langage.

Il ne s’agit plus seulement d’une question théorique, mais d’une réalité où l’IA peut déjà accélérer la découverte de failles critiques et préparer des attaques contre des cibles réelles.

Source : Google Cloud

Source
Partager ici :
Leave a Comment

Comments

No comments yet. Why don’t you start the discussion?

Laisser un commentaire