Anthropic : l’IA trop puissante pour le grand public, mais parfaite pour les géants

Anthropic, l’entreprise d’IA qui se prend pour le gardien de la cybersécurité, refuse de partager son nouveau modèle, « Claude Mythos Preview », avec le public, tout en le confiant à un club très fermé de géants technologiques. Ironie ou hypocrisie ?

INTRODUCTION : Anthropic, cette entreprise qui a récemment défié le Pentagone sur l’utilisation de sa technologie, a décidé que son dernier modèle d’IA était trop dangereux pour être exposé au grand public. Mais pas de panique, il sera à la disposition d’un consortium de plus de 40 entreprises, dont Apple et Microsoft, pour « détecter et corriger les failles de sécurité ». Une belle manière de dire que la sécurité est réservée à ceux qui peuvent se le permettre.

Ce qui se passe réellement

Anthropic a mis au point un modèle d’IA qu’elle juge trop puissant pour être rendu public. Ce modèle, baptisé « Claude Mythos Preview », sera utilisé par un consortium d’entreprises technologiques pour identifier les failles de sécurité dans des logiciels critiques. Jared Kaplan, directeur scientifique d’Anthropic, a déclaré que l’objectif était de sensibiliser le public tout en donnant aux « bons acteurs » une longueur d’avance. Mais qui sont ces « bons acteurs » ? Ceux qui peuvent payer, bien sûr.

Pourquoi cela dérange

Cette décision soulève des questions sur l’accès à la technologie. Pourquoi un modèle jugé trop dangereux pour le grand public est-il jugé acceptable pour les entreprises qui, rappelons-le, ont souvent des antécédents en matière de sécurité ? Cela ressemble à un club exclusif où seuls les plus riches ont accès aux outils de protection, laissant le reste de la population vulnérable.

Ce que cela implique concrètement

En restreignant l’accès à cette technologie, Anthropic crée une fracture numérique. Les petites entreprises et les particuliers, qui n’ont pas les moyens de rejoindre ce club, sont laissés pour compte. Pendant ce temps, les géants de la tech, armés de cette IA, peuvent renforcer leur sécurité tout en exploitant les failles des autres. Une belle ironie, n’est-ce pas ?

Lecture satirique

Dans un monde où les discours politiques prônent l’égalité et l’accès à la technologie pour tous, Anthropic nous rappelle que l’égalité est souvent une illusion. Les promesses de sécurité et de protection des données sont réservées à ceux qui peuvent se les offrir. Pendant ce temps, le grand public est laissé à la merci des hackers, qui n’ont pas besoin d’un abonnement premium pour exploiter les failles.

Effet miroir international

Cette situation n’est pas sans rappeler les dérives autoritaires dans d’autres pays, où la technologie est utilisée pour surveiller et contrôler la population. En restreignant l’accès à des outils de sécurité avancés, Anthropic pourrait bien ouvrir la porte à des abus similaires, où seuls les privilégiés bénéficient d’une protection adéquate.

À quoi s’attendre

Si cette tendance se poursuit, nous pourrions assister à une intensification des inégalités en matière de cybersécurité. Les entreprises qui peuvent se permettre d’accéder à ces technologies avancées seront mieux protégées, tandis que les autres resteront vulnérables. Une situation qui pourrait avoir des conséquences désastreuses à long terme.

Sources

Source : www.challenges.fr

Visuel — Source : www.challenges.fr
Partager ici :
Leave a Comment

Comments

No comments yet. Why don’t you start the discussion?

Laisser un commentaire