OpenAI выпустила предупреждение о рисках атак с внедрением подсказок (prompt injection) в AI-браузерах, которые могут заставить AI-агентов выполнять вредоносные команды. Для борьбы с этими угрозами OpenAI использует противника на основе большой языковой модели (LLM) для тестирования и выявления потенциальных уязвимостей. Пользователям рекомендуется ограничить доступ агентов в качестве меры предосторожности. Помимо OpenAI, такие компании, как Anthropic и Google, подчеркивают важность внедрения многоуровневых мер безопасности для защиты от подобных атак. Это развитие особенно актуально для трейдеров, рассматривающих инвестиции в криптоактивы, связанные с AI, поскольку им следует тщательно оценивать соотношение риска и вознаграждения с учетом этих проблем безопасности.