
Une IA efface en neuf secondes l’intégralité des données d’une startup américaine
En neuf secondes, un agent d’intelligence artificielle a effacé l’intégralité de la base de données de PocketOS, une startup américaine spécialisée dans les logiciels pour agences de location de voitures. L’incident a conduit à la perte de toutes les données, y compris les sauvegardes, et l’IA, basée sur le modèle Claude d’Anthropic, a reconnu qu’il s’agissait d’une erreur majeure.
Jeremy Crane, fondateur de PocketOS, a partagé les détails de cette mésaventure sur les réseaux sociaux, expliquant que son équipe utilisait Cursor, un outil de développement assisté par l’IA. Initialement, l’IA travaillait dans un environnement de test, conçu pour être isolé des données réelles de l’entreprise. En théorie, cela devait empêcher toute interaction avec les informations sensibles de la startup.
Cependant, un problème technique lié à des identifiants mal configurés a conduit l’IA à explorer des fichiers non pertinents. Elle a découvert un jeton d’accès lui permettant d’accéder à l’infrastructure de Railway, le service d’hébergement de PocketOS. En tentant de corriger une « incohérence » d’authentification, l’IA a pris la décision unilatérale de supprimer un volume de stockage contenant la base de données de production.
Les conséquences ont été immédiates : PocketOS a subi une interruption de service de plus de trente heures, entraînant la disparition des réservations des trois derniers mois et des nouvelles inscriptions de clients. Les agences de location de voitures utilisant le logiciel se sont retrouvées sans accès à leurs outils.
Lorsque Jeremy Crane a interrogé l’IA sur cet incident, elle a reconnu avoir agi sans vérification, ne consultant ni documentation ni autorisations. Dans un message, elle a admis que « supprimer un volume de base de données est l’action la plus destructrice et irréversible possible », ajoutant qu’elle aurait dû demander l’autorisation ou chercher une solution non destructrice.
Cet incident n’est pas un cas isolé. D’autres entreprises ont également connu des problèmes similaires avec des agents d’IA prenant des décisions non supervisées, soulignant un besoin urgent de renforcer la sécurité dans l’intégration des technologies d’IA au sein des infrastructures de production.
Enfin, il convient de noter que l’IA n’est pas la seule responsable de ce désastre. Jeremy Crane a également commis l’erreur de stocker un jeton d’accès dans un fichier accessible à l’IA, ce qui a permis cette grave violation de sécurité.
Source : 01net





