OpenAI a lancé Codex Security, un agent de sécurité applicative alimenté par l'IA conçu pour analyser les dépôts GitHub à la recherche de vulnérabilités. Cette sortie intervient peu de temps après qu'Anthropic ait présenté son outil concurrent, Claude Code Security. Codex Security vise à renforcer la sécurité des bases de code en identifiant les vulnérabilités, en les validant dans des environnements isolés, et en proposant des correctifs à examiner par les développeurs. L'outil s'appuie sur l'écosystème Codex d'OpenAI, qui a connu une adoption significative avec 1,6 million d'utilisateurs hebdomadaires.
L'approche de Codex Security implique une validation en bac à sable pour réduire les faux positifs, permettant à l'IA de classer les résultats en fonction des preuves recueillies lors des tests. Cela contraste avec Claude Code Security d'Anthropic, qui utilise un système de vérification en plusieurs étapes pour analyser les logiciels comme un chercheur en sécurité humain. Les deux entreprises exploitent l'IA pour améliorer la sécurité des applications, un marché estimé à générer 20 milliards de dollars par an, en proposant des outils capables de surpasser les scanners de vulnérabilités traditionnels.
OpenAI dévoile Codex Security pour rivaliser avec Claude Code Security d'Anthropic
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
