OpenAI a émis un avertissement concernant les risques d'attaques par injection de commandes dans les navigateurs d'IA, qui peuvent manipuler les agents d'IA pour exécuter des commandes nuisibles. Pour lutter contre ces menaces, OpenAI utilise un adversaire basé sur un grand modèle de langage (LLM) afin de tester et d'identifier les vulnérabilités potentielles. Il est conseillé aux utilisateurs de restreindre l'accès des agents par mesure de précaution. En plus d'OpenAI, des entreprises comme Anthropic et Google soulignent l'importance de mettre en place des mesures de sécurité en couches pour se protéger contre de telles attaques. Ce développement est particulièrement pertinent pour les traders envisageant d'investir dans des actifs cryptographiques liés à l'IA, car ils doivent évaluer attentivement le rapport risque-rendement à la lumière de ces préoccupations de sécurité.