OpenAIは、GitHubリポジトリの脆弱性をスキャンするために設計されたAI搭載のアプリケーションセキュリティエージェント「Codex Security」を発表しました。このリリースは、Anthropicが競合ツールである「Claude Code Security」を導入した直後に行われました。Codex Securityは、脆弱性を特定し、隔離された環境で検証し、開発者がレビューできる修正案を提案することで、コードベースのセキュリティを強化することを目的としています。このツールは、週160万人のユーザーに利用されているOpenAIのCodexエコシステムを基盤としています。 Codex Securityのアプローチは、サンドボックス検証を用いて誤検知を減らし、テスト中に収集された証拠に基づいてAIが発見をランク付けすることを可能にしています。これは、AnthropicのClaude Code Securityが人間のセキュリティ研究者のようにソフトウェアを分析する多段階検証システムを使用しているのとは対照的です。両社は、年間200億ドルと推定されるアプリケーションセキュリティ市場において、従来の脆弱性スキャナーを凌駕するツールを提供することで、AIを活用してアプリケーションセキュリティの向上を図っています。