OpenAI a lancé Codex Security, un agent de sécurité applicative alimenté par l'IA conçu pour analyser les dépôts GitHub à la recherche de vulnérabilités. Cette sortie intervient peu de temps après qu'Anthropic ait présenté son outil concurrent, Claude Code Security. Codex Security vise à renforcer la sécurité des bases de code en identifiant les vulnérabilités, en les validant dans des environnements isolés, et en proposant des correctifs à examiner par les développeurs. L'outil s'appuie sur l'écosystème Codex d'OpenAI, qui a connu une adoption significative avec 1,6 million d'utilisateurs hebdomadaires. L'approche de Codex Security implique une validation en bac à sable pour réduire les faux positifs, permettant à l'IA de classer les résultats en fonction des preuves recueillies lors des tests. Cela contraste avec Claude Code Security d'Anthropic, qui utilise un système de vérification en plusieurs étapes pour analyser les logiciels comme un chercheur en sécurité humain. Les deux entreprises exploitent l'IA pour améliorer la sécurité des applications, un marché estimé à générer 20 milliards de dollars par an, en proposant des outils capables de surpasser les scanners de vulnérabilités traditionnels.