OpenAI đã đưa ra cảnh báo về các rủi ro của các cuộc tấn công chèn lệnh (prompt injection) trong các trình duyệt AI, có thể thao túng các tác nhân AI để thực hiện các lệnh gây hại. Để chống lại các mối đe dọa này, OpenAI đang sử dụng một mô hình ngôn ngữ lớn (LLM) làm đối thủ để kiểm tra và xác định các điểm yếu tiềm ẩn. Người dùng được khuyên nên hạn chế quyền truy cập của tác nhân như một biện pháp phòng ngừa. Ngoài OpenAI, các công ty như Anthropic và Google cũng nhấn mạnh tầm quan trọng của việc triển khai các biện pháp bảo mật nhiều lớp để bảo vệ chống lại các cuộc tấn công như vậy. Phát triển này đặc biệt có liên quan đối với các nhà giao dịch đang xem xét đầu tư vào các tài sản tiền điện tử liên quan đến AI, vì họ nên đánh giá kỹ tỷ lệ rủi ro-lợi nhuận dựa trên những mối quan ngại về bảo mật này.