Anthropic đã loại bỏ một cam kết an toàn quan trọng khỏi chính sách mở rộng có trách nhiệm của mình, quyết định không tạm dừng việc đào tạo AI ngay cả khi các biện pháp giảm thiểu rủi ro chưa hoàn chỉnh. Thay đổi này, được Giám đốc Khoa học Jared Kaplan nhấn mạnh, phản ánh sự không thực tế của việc tạm dừng đơn phương trong bối cảnh cạnh tranh AI. Tương tự, OpenAI đã thay đổi tuyên bố sứ mệnh của mình, bỏ qua từ "an toàn" để nhấn mạnh việc đảm bảo AI mang lại lợi ích cho nhân loại, phù hợp với kỳ vọng của nhà đầu tư và các nhà hoạch định chính sách. Những thay đổi này diễn ra khi Anthropic huy động được vòng tài trợ 30 tỷ USD, định giá công ty ở mức 380 tỷ USD, trong khi OpenAI đang theo đuổi khoản tài trợ lên đến 100 tỷ USD với sự hỗ trợ từ Amazon, Microsoft và Nvidia. Thêm vào đó, việc Anthropic từ chối cung cấp quyền truy cập đầy đủ vào mô hình AI Claude cho Lầu Năm Góc đã dẫn đến căng thẳng với Bộ trưởng Quốc phòng Mỹ Pete Hegseth, đặt ra câu hỏi về các hợp đồng quốc phòng của công ty.