KI-Modelle werden daraufhin bewertet, wie gut sie Prompt-Injection-Angriffe erkennen können, wobei 17 verschiedene Injektionsmethoden getestet werden. Ziel der Übung ist es, potenzielle Schwachstellen in Modellen zu identifizieren, die diese Injektionen nicht erkennen, und damit Bereiche für Verbesserungen bei den Sicherheitsmaßnahmen von KI aufzuzeigen.