OpenAI hat Codex Security eingeführt, einen KI-gestützten Anwendungssicherheitsagenten, der dazu entwickelt wurde, GitHub-Repositories auf Schwachstellen zu scannen. Diese Veröffentlichung erfolgt kurz nachdem Anthropic sein konkurrierendes Tool Claude Code Security vorgestellt hat. Codex Security zielt darauf ab, die Sicherheit von Codebasen zu verbessern, indem Schwachstellen identifiziert, in isolierten Umgebungen validiert und Entwicklern Korrekturvorschläge zur Überprüfung unterbreitet werden. Das Tool baut auf dem Codex-Ökosystem von OpenAI auf, das mit 1,6 Millionen wöchentlichen Nutzern eine bedeutende Verbreitung erfahren hat.
Der Ansatz von Codex Security beinhaltet eine Sandbox-Validierung, um Fehlalarme zu reduzieren, wodurch die KI die Ergebnisse basierend auf während der Tests gesammelten Beweisen bewerten kann. Dies steht im Gegensatz zu Anthropics Claude Code Security, das ein mehrstufiges Verifizierungssystem verwendet, um Software wie ein menschlicher Sicherheitsexperte zu analysieren. Beide Unternehmen nutzen KI, um die Anwendungssicherheit zu verbessern, einem Markt, der auf jährlich 20 Milliarden Dollar geschätzt wird, indem sie Werkzeuge anbieten, die traditionelle Schwachstellenscanner übertreffen können.
OpenAI stellt Codex Security vor, um mit Anthropics Claude Code Security zu konkurrieren
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
