Quand ChatGPT devient un complice involontaire : un homme interpellé pour menace de mort

Un trentenaire interpellé à Strasbourg pour avoir menacé de tuer des agents du renseignement après une conversation avec ChatGPT. Une situation qui soulève des questions sur la responsabilité des technologies et des discours extrêmes.

Ce vendredi 3 avril, un homme de 37 ans a été arrêté à Strasbourg après avoir eu l’idée saugrenue de demander à ChatGPT comment se procurer une arme pour « tuer un agent du renseignement, de la CIA, du Mossad ou de la DGSI ». Oui, vous avez bien lu. Dans un monde où l’intelligence artificielle est censée nous aider à résoudre des problèmes complexes, un individu a choisi de l’utiliser pour planifier des actes criminels. Ironie du sort, c’est le FBI qui a intercepté ces échanges, alertant les autorités françaises via la plateforme Pharos, dédiée à la dénonciation des contenus illicites.

Ce qui se passe réellement

Les faits sont simples : l’homme, après avoir été signalé par les enquêteurs américains, a été interpellé par le Raid. Placé en garde à vue, il a finalement été libéré, mais pas avant d’être hospitalisé sous contrainte en raison de ses antécédents psychiatriques. Selon la procureure Clarisse Taron, « à ce stade, il n’y a pas d’infraction suffisamment caractérisée, le mis en cause ayant uniquement interrogé une IA ». L’affaire a donc été classée sans suite.

Pourquoi cela dérange

Cette situation met en lumière l’absurdité d’un système où un simple échange avec une IA peut mener à une intervention policière. D’un côté, on a un homme en détresse qui cherche des réponses à des questions dangereuses ; de l’autre, un système judiciaire qui semble plus préoccupé par la forme que par le fond. Si poser des questions à une IA devient un acte criminel, où va-t-on ?

Ce que cela implique concrètement

Les conséquences de cette affaire sont multiples. D’une part, elle soulève des questions sur la responsabilité des plateformes d’IA. Doivent-elles surveiller les conversations pour prévenir des actes criminels ? D’autre part, elle met en exergue les limites de notre système judiciaire face à des comportements extrêmes, souvent alimentés par des discours politiques déconnectés de la réalité.

Lecture satirique

Il est difficile de ne pas sourire, ou plutôt de ne pas rire jaune, devant cette situation. D’un côté, on nous dit que les technologies doivent être utilisées pour le bien commun, et de l’autre, un homme se retrouve en garde à vue pour avoir posé une question à une IA. N’est-ce pas là une belle illustration de la déconnexion entre les promesses des politiques et la réalité ? Les discours politiques, souvent empreints de bravade, semblent oublier que la technologie, tout comme l’humain, peut être utilisée à des fins néfastes.

Effet miroir international

Cette affaire fait écho à des dérives autoritaires à l’échelle mondiale. Aux États-Unis, les discours extrêmes se multiplient, alimentés par une rhétorique qui glorifie la violence. En Russie, la répression des voix dissidentes est devenue monnaie courante. Ce qui se passe à Strasbourg n’est qu’un reflet de ces dérives, où la peur et la paranoïa prennent le pas sur la raison.

À quoi s’attendre

À l’avenir, il est probable que nous assistions à une surveillance accrue des interactions en ligne. Les autorités pourraient être tentées de renforcer les lois sur la sécurité, au détriment de la liberté d’expression. Une évolution qui pourrait faire frémir ceux qui croient encore en un débat démocratique sain.

Sources

Source : www.valeursactuelles.com

Visuel — Source : www.valeursactuelles.com
Partager ici :
Leave a Comment

Comments

No comments yet. Why don’t you start the discussion?

Laisser un commentaire