OpenAI và Anthropic đã đứng lên phản đối yêu cầu của Lầu Năm Góc về việc sử dụng công nghệ AI không giới hạn. Anthropic, công ty phát triển mô hình AI Claude, đã từ chối tuân thủ tối hậu thư của Lầu Năm Góc yêu cầu loại bỏ các hạn chế hợp đồng đối với giám sát hàng loạt và vũ khí tự động, chấp nhận rủi ro mất hợp đồng trị giá 200 triệu đô la. Đáp lại, Lầu Năm Góc đã gán cho Anthropic danh hiệu "rủi ro an ninh chuỗi cung ứng," hiệu quả cấm công nghệ của họ được sử dụng trong quân đội. Trong một bước ngoặt bất ngờ, OpenAI, ban đầu đồng thuận với quan điểm đạo đức của Anthropic, đã ký hợp đồng với Lầu Năm Góc dưới các điều kiện tương tự nhưng không có các biện pháp bảo vệ bổ sung của Anthropic. Động thái này làm nổi bật những động lực phức tạp giữa các công ty AI và các hợp đồng chính phủ, khi OpenAI chiếm vị trí mà Anthropic để lại, đặt ra câu hỏi về sự cân bằng giữa nguyên tắc đạo đức và cơ hội kinh doanh.