Scandale IA : des robots conversationnels expliquent comment concevoir des attaques biologiques massives
La technologie de l’intelligence artificielle (IA) est à nouveau sous le feu des critiques après des révélations alarmantes concernant ses capacités à fournir des informations potentiellement dangereuses. Le Dr David Relman, microbiologiste et expert en biosécurité à l’Université de Stanford, a récemment partagé ses préoccupations dans le New York Times après avoir découvert que des chatbots pouvaient expliquer comment créer des armes biologiques.
En effet, lors d’une évaluation de produit pour une entreprise d’IA, le Dr Relman a été surpris de constater qu’un chatbot pouvait non seulement décrire comment modifier un pathogène pour le rendre résistant aux traitements existants, mais aussi détailler des méthodes de propagation d’une superbactérie en exploitant des failles dans les systèmes de transport en commun. Cette découverte soulève des questions cruciales sur la sécurité des technologies émergentes.
D’autres experts corroborent les inquiétudes du Dr Relman, indiquant que des assistants virtuels, tels que ceux développés par OpenAI, Google et Anthropic, peuvent fournir des instructions détaillées sur l’acquisition de matériel génétique et la fabrication d’armes biologiques. La tendance générale parmi ces professionnels est que l’IA a élargi le champ des menaces, rendant des actes malveillants accessibles à un plus grand nombre de personnes.
Malgré une probabilité jugée faible d’attaques biologiques, les conséquences d’une telle menace pourraient être catastrophiques, entraînant la mort de milliers de personnes. Cette situation est d’autant plus préoccupante dans le contexte d’une réduction des budgets fédéraux pour la biodéfense aux États-Unis, qui a diminué de près de 50 % l’année dernière, selon des experts cités par le New York Times.
Dario Amodei, PDG d’Anthropic, a exprimé ses inquiétudes sur les dangers que pose l’IA, en particulier dans le domaine biologique, qui présente un potentiel destructeur élevé et des défis en matière de prévention. Une récente arrestation en Inde a illustré cette menace : un médecin a été accusé d’avoir tenté d’extraire de la ricine, une toxine mortelle, avec l’aide d’outils d’IA.
Les implications de ces découvertes soulignent l’importance d’une régulation stricte et d’une surveillance accrue des technologies d’IA pour éviter qu’elles ne soient utilisées à des fins malveillantes.
Source : L’Express, New York Times




