Se están evaluando modelos de IA para su capacidad de detectar ataques de inyección de comandos, probando 17 métodos diferentes de inyección. El ejercicio tiene como objetivo identificar posibles vulnerabilidades en los modelos que no logran reconocer estas inyecciones, destacando áreas para mejorar las medidas de seguridad en la IA.