Anthropic a lancé Claude Code Security, un outil piloté par l'IA conçu pour analyser les bases de code à la recherche de vulnérabilités et suggérer des correctifs, provoquant des réactions significatives sur le marché. Cet outil, qui utilise des modèles de langage avancés tels que Claude Opus 4.6, vise à identifier les failles dans la logique métier et les contrôles d'accès défaillants que les scanners traditionnels pourraient manquer. Lors de tests internes, il a découvert plus de 500 vulnérabilités de haute gravité dans des bases de code open source. Cette annonce a entraîné une forte baisse des actions dans le secteur de la cybersécurité, avec des entreprises comme Crowdstrike et Cloudflare enregistrant des chutes d'environ 8 %. Le fonds négocié en bourse Global X Cybersecurity a reculé de 5 %, reflétant les inquiétudes des investisseurs quant au potentiel de l'IA à perturber les modèles de sécurité traditionnels. Malgré les craintes de suppression d'emplois, Anthropic souligne que Claude Code Security est conçu pour assister, et non remplacer, les équipes de sécurité humaines, nécessitant une approbation humaine pour toutes les corrections.