Anthropic reporte Mythos, son IA, après la découverte de milliers de failles critiques
Anthropic reporte Mythos après découverte de milliers de failles

Anthropic suspend le lancement de son IA Mythos face à des milliers de vulnérabilités

La start-up californienne spécialisée en intelligence artificielle, Anthropic, a annoncé ce mardi 7 avril un report significatif de la commercialisation de son nouveau modèle d'IA nommé Mythos. Cette décision fait suite à la détection, lors de tests internes approfondis, de plusieurs milliers de failles de sécurité critiques dans divers programmes accessibles en ligne. Ces vulnérabilités, qualifiées de "zero-day", présentent un risque majeur car elles sont inconnues des développeurs et des utilisateurs, offrant ainsi des angles d'attaque potentiels pour des pirates informatiques.

Une collaboration d'urgence avec les géants de la tech

Face à cette situation, Anthropic a immédiatement mobilisé un consortium impressionnant d'acteurs majeurs de la cybersécurité et de la technologie. La société a partagé la version test de Mythos avec des spécialistes comme CrowdStrike et Palo Alto Networks, ainsi qu'avec des poids lourds tels qu'Amazon, Google, Nvidia, Apple et Microsoft. Environ 40 organisations responsables de la conception et de la maintenance de systèmes informatiques ont rejoint cette initiative collective, formant le projet Glasswing.

"Les potentialités de l'IA ont franchi un seuil qui change fondamentalement le niveau d'urgence requis pour protéger les infrastructures informatiques des attaques", a déclaré Anthony Grieco, responsable de la sécurité chez Cisco. Cette collaboration vise à utiliser Mythos pour identifier et combler des failles "souvent subtiles et difficiles à détecter", selon les termes d'Anthropic.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

L'IA : une arme à double tranchant pour la cybersécurité

Les experts soulignent le caractère ambivalent de l'intelligence artificielle dans ce domaine. D'un côté, elle représente un outil puissant pour la détection massive de vulnérabilités. "Jusqu'ici, la détection des failles était un procédé nécessitant beaucoup d'interventions humaines, avec une efficacité qui n'était pas très élevée", analyse Gang Wang, professeur d'informatique à l'université de l'Illinois. "Mais avec l'IA qui travaille 24h sur 24, on peut faire de l'assainissement massif", ajoute-t-il en référence à la technique CDR.

De l'autre côté, l'IA pourrait également amplifier les menaces. Luka Ivezic, du Forum sur la sécurité de l'information (ISF), met en garde : "L'IA abaisse le coût de détection d'une faille pour un cybercriminel et permet de démultiplier les tentatives", rendant les attaques plus sophistiquées et accessibles à des pirates moins expérimentés.

Un report dans un contexte de course effrénée à l'IA

Ce report intervient dans un paysage concurrentiel particulièrement intense, où le déploiement de nouveaux modèles d'IA s'est considérablement accéléré ces six derniers mois. La décision d'Anthropic est donc d'autant plus remarquable. La start-up, fondée par d'anciens membres d'OpenAI, a choisi la prudence en intégrant des garde-fous supplémentaires à Mythos avant tout déploiement grand public.

"Notre but final reste de déployer Mythos à grande échelle, à des fins de cybersécurité mais aussi pour la myriade d'autres possibilités que ce modèle va offrir", a affirmé Anthropic. Pour soutenir ses partenaires, la société offre des capacités de calcul d'une valeur de 100 millions de dollars pour l'utilisation de Mythos dans le cadre du projet Glasswing.

Des implications politiques et une vision à long terme

Anthropic a également indiqué avoir engagé des discussions avec le gouvernement américain concernant Mythos, malgré un contexte politique complexe. Ces échanges surviennent alors qu'une décision de l'administration Trump de rompre les contrats avec la start-up a été suspendue par un tribunal fédéral en mars, en attendant un examen approfondi.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Pour Gang Wang, cette démarche collaborative est encourageante : "La bonne nouvelle est que ces entreprises IA veulent être du bon côté de la bataille de la cybersécurité". En développant et en testant en amont ces interfaces, elles prennent une avance cruciale sur les cybercriminels. Lee Klarich, responsable de la technologie chez Palo Alto Networks, résume l'enjeu : "Tout le monde doit se préparer à l'arrivée de pirates aidés par l'IA". Le report de Mythos, bien que temporaire, illustre une prise de conscience croissante des responsabilités liées au déploiement d'IA puissantes.