Les modèles d'IA sont évalués pour leur capacité à détecter les attaques par injection de prompt, avec 17 méthodes d'injection différentes testées. Cet exercice vise à identifier les vulnérabilités potentielles des modèles qui ne parviennent pas à reconnaître ces injections, mettant en lumière les domaines à améliorer dans les mesures de sécurité de l'IA.