Quand ChatGPT devient un complice involontaire : un homme interpellé pour menace de mort
Un trentenaire interpellé à Strasbourg pour avoir menacé de tuer des agents du renseignement après une conversation avec ChatGPT. Une situation qui soulève des questions sur la responsabilité des technologies et des discours extrêmes.
Table Of Content
Ce vendredi 3 avril, un homme de 37 ans a été arrêté à Strasbourg après avoir eu l’idée saugrenue de demander à ChatGPT comment se procurer une arme pour « tuer un agent du renseignement, de la CIA, du Mossad ou de la DGSI ». Oui, vous avez bien lu. Dans un monde où l’intelligence artificielle est censée nous aider à résoudre des problèmes complexes, un individu a choisi de l’utiliser pour planifier des actes criminels. Ironie du sort, c’est le FBI qui a intercepté ces échanges, alertant les autorités françaises via la plateforme Pharos, dédiée à la dénonciation des contenus illicites.
Ce qui se passe réellement
Les faits sont simples : l’homme, après avoir été signalé par les enquêteurs américains, a été interpellé par le Raid. Placé en garde à vue, il a finalement été libéré, mais pas avant d’être hospitalisé sous contrainte en raison de ses antécédents psychiatriques. Selon la procureure Clarisse Taron, « à ce stade, il n’y a pas d’infraction suffisamment caractérisée, le mis en cause ayant uniquement interrogé une IA ». L’affaire a donc été classée sans suite.
Pourquoi cela dérange
Cette situation met en lumière l’absurdité d’un système où un simple échange avec une IA peut mener à une intervention policière. D’un côté, on a un homme en détresse qui cherche des réponses à des questions dangereuses ; de l’autre, un système judiciaire qui semble plus préoccupé par la forme que par le fond. Si poser des questions à une IA devient un acte criminel, où va-t-on ?
Ce que cela implique concrètement
Les conséquences de cette affaire sont multiples. D’une part, elle soulève des questions sur la responsabilité des plateformes d’IA. Doivent-elles surveiller les conversations pour prévenir des actes criminels ? D’autre part, elle met en exergue les limites de notre système judiciaire face à des comportements extrêmes, souvent alimentés par des discours politiques déconnectés de la réalité.
Lecture satirique
Il est difficile de ne pas sourire, ou plutôt de ne pas rire jaune, devant cette situation. D’un côté, on nous dit que les technologies doivent être utilisées pour le bien commun, et de l’autre, un homme se retrouve en garde à vue pour avoir posé une question à une IA. N’est-ce pas là une belle illustration de la déconnexion entre les promesses des politiques et la réalité ? Les discours politiques, souvent empreints de bravade, semblent oublier que la technologie, tout comme l’humain, peut être utilisée à des fins néfastes.
Effet miroir international
Cette affaire fait écho à des dérives autoritaires à l’échelle mondiale. Aux États-Unis, les discours extrêmes se multiplient, alimentés par une rhétorique qui glorifie la violence. En Russie, la répression des voix dissidentes est devenue monnaie courante. Ce qui se passe à Strasbourg n’est qu’un reflet de ces dérives, où la peur et la paranoïa prennent le pas sur la raison.
À quoi s’attendre
À l’avenir, il est probable que nous assistions à une surveillance accrue des interactions en ligne. Les autorités pourraient être tentées de renforcer les lois sur la sécurité, au détriment de la liberté d’expression. Une évolution qui pourrait faire frémir ceux qui croient encore en un débat démocratique sain.
Sources
Source : www.valeursactuelles.com



