AI 모델들은 17가지의 다양한 주입 방식을 테스트하며 프롬프트 인젝션 공격을 탐지하는 능력을 평가받고 있습니다. 이 평가의 목적은 이러한 인젝션을 인식하지 못하는 모델들의 잠재적 취약점을 식별하여 AI 보안 조치 개선이 필요한 부분을 강조하는 데 있습니다.