AIモデルは、プロンプトインジェクション攻撃を検出する能力について評価されており、17種類の異なるインジェクション手法がテストされています。この取り組みは、これらのインジェクションを認識できないモデルの潜在的な脆弱性を特定し、AIセキュリティ対策の改善点を明らかにすることを目的としています。