
Google autorise le Pentagone à utiliser Gemini pour des opérations classifiées malgré l’opposition de 600 salariés
Le 28 avril 2026, Google a annoncé avoir signé un accord avec le ministère de la Défense des États-Unis, permettant l’utilisation de son modèle d’intelligence artificielle générative, Gemini, pour des opérations classifiées. Cette décision intervient alors que la veille, 600 employés de l’entreprise, incluant des chercheurs de DeepMind et une vingtaine de cadres dirigeants, avaient exprimé leur désaccord et appelé la direction à refuser de telles applications.
Un des signataires de la lettre d’opposition a déclaré : « En l’état, il n’y a aucun moyen de garantir que nos outils ne serviront pas à causer de graves dommages ou à rogner les libertés individuelles, à l’abri des regards. » Google n’a effectivement pas de contrôle sur l’utilisation de Gemini dans le cadre de ces opérations classifiées.
Jusqu’à fin février 2026, le seul modèle d’IA autorisé au sein du Pentagone était Claude, développé par Anthropic. Cette convention excluait explicitement certains usages, tels que la surveillance de masse de la population américaine ou l’utilisation d’armes autonomes létales sans contrôle humain. Anthropic ayant refusé de modifier ces principes, l’administration Trump avait mis fin à tous ses contrats avec le ministère de la Défense.
Par la suite, le Pentagone a signé un accord avec OpenAI pour déployer ses modèles lors d’opérations classifiées. Dans un souci de diversification des fournisseurs, le ministère de la Défense prévoit d’ajouter Gemini, et probablement xAI, à son arsenal. L’accord avec Google stipule que l’usage du modèle doit se faire « dans les limites de la loi », un principe qu’Anthropic avait refusé, craignant qu’il n’ouvre la voie à des dérives en cas d’adoption de lois liberticides ou autoritaires.
(Source : Le Monde)



