OpenAI và Anthropic đã đứng lên phản đối yêu cầu của Lầu Năm Góc về việc sử dụng công nghệ AI không giới hạn. Anthropic, công ty phát triển mô hình AI Claude, đã từ chối tuân thủ tối hậu thư của Lầu Năm Góc yêu cầu loại bỏ các hạn chế hợp đồng đối với giám sát hàng loạt và vũ khí tự động, chấp nhận rủi ro mất hợp đồng trị giá 200 triệu đô la. Đáp lại, Lầu Năm Góc đã gán cho Anthropic danh hiệu "rủi ro an ninh chuỗi cung ứng," hiệu quả cấm công nghệ của họ được sử dụng trong quân đội.
Trong một bước ngoặt bất ngờ, OpenAI, ban đầu đồng thuận với quan điểm đạo đức của Anthropic, đã ký hợp đồng với Lầu Năm Góc dưới các điều kiện tương tự nhưng không có các biện pháp bảo vệ bổ sung của Anthropic. Động thái này làm nổi bật những động lực phức tạp giữa các công ty AI và các hợp đồng chính phủ, khi OpenAI chiếm vị trí mà Anthropic để lại, đặt ra câu hỏi về sự cân bằng giữa nguyên tắc đạo đức và cơ hội kinh doanh.
OpenAI và Anthropic Đối Đầu với Lầu Năm Góc Về Đạo Đức AI
Tuyên bố miễn trừ trách nhiệm: Nội dung được cung cấp trên Phemex News chỉ nhằm mục đích cung cấp thông tin.Chúng tôi không đảm bảo chất lượng, độ chính xác hoặc tính đầy đủ của thông tin có nguồn từ các bài viết của bên thứ ba.Nội dung trên trang này không cấu thành lời khuyên về tài chính hoặc đầu tư.Chúng tôi đặc biệt khuyến khích bạn tự tiến hành nghiên cứu và tham khảo ý kiến của cố vấn tài chính đủ tiêu chuẩn trước khi đưa ra bất kỳ quyết định đầu tư nào.
