OpenAI와 Anthropic은 AI 기술의 무제한 사용에 대한 펜타곤의 요구에 반대 입장을 취했습니다. AI 모델 Claude를 개발한 Anthropic은 대규모 감시 및 자율 무기에 대한 계약상의 제한을 제거하라는 펜타곤의 최후통첩에 따르기를 거부하며 2억 달러 규모의 계약을 위험에 빠뜨렸습니다. 이에 대해 펜타곤은 Anthropic을 "공급망 보안 위험"으로 규정하며 사실상 군사적 사용에서 해당 기술을 배제했습니다. 놀랍게도, 처음에는 Anthropic의 윤리적 입장에 동조했던 OpenAI는 유사한 조건으로 펜타곤과 계약을 체결했으나 Anthropic의 추가적인 안전장치는 포함하지 않았습니다. 이 움직임은 AI 기업과 정부 계약 간의 복잡한 역학 관계를 드러내며, OpenAI가 Anthropic이 남긴 자리를 차지함으로써 윤리적 원칙과 사업 기회 간의 균형에 대한 의문을 제기합니다.