A OpenAI emitiu um alerta sobre os riscos de ataques de injeção de prompt em navegadores de IA, que podem manipular agentes de IA para executar comandos prejudiciais. Para combater essas ameaças, a OpenAI está utilizando um adversário baseado em um grande modelo de linguagem (LLM) para testar e identificar vulnerabilidades potenciais. Os usuários são aconselhados a restringir o acesso dos agentes como medida de precaução. Além da OpenAI, empresas como Anthropic e Google enfatizam a importância de implementar medidas de segurança em camadas para proteger contra esses ataques. Esse desenvolvimento é particularmente relevante para traders que consideram investimentos em ativos criptográficos relacionados à IA, pois devem avaliar cuidadosamente a relação risco-retorno à luz dessas preocupações de segurança.