Modelos de IA estão sendo avaliados quanto à sua capacidade de detectar ataques de injeção de prompt, com 17 métodos diferentes de injeção testados. O exercício tem como objetivo identificar vulnerabilidades potenciais em modelos que não conseguem reconhecer essas injeções, destacando áreas para melhorias nas medidas de segurança da IA.