Anthropic은 법원 제출 문서에서 펜타곤 환경에 배치된 후에는 AI 모델을 제어하거나 비활성화할 수 없으며, 이러한 시스템에 대한 '킬 스위치'가 없다고 밝혔습니다. 이 사실은 회사의 기술 사용 정책에 대한 우려로 인해 펜타곤이 Anthropic을 공급망 위험으로 분류한 가운데 진행 중인 법적 분쟁 중에 드러났습니다. 이 정책은 Anthropic의 AI를 자율 무기 및 대규모 감시에 사용하는 것을 금지하고 있으며, 펜타곤은 이를 제한적이라고 보고 있습니다. 법적 분쟁은 상반된 법원 판결을 낳았습니다. 워싱턴 법원은 펜타곤의 위험 지정 결정을 유지한 반면, 캘리포니아 법원은 이를 일시 중단했습니다. 결과적으로 Anthropic은 새로운 펜타곤 계약에서 제외되었지만 다른 정부 기관에는 서비스를 계속 제공할 수 있습니다. 한편, 트럼프 행정부는 펜타곤의 보안 우려에도 불구하고 사이버 보안 방어를 강화하기 위해 Anthropic의 새로운 AI 모델인 Mythos를 연방 기관 전반에 배치할 것을 추진하고 있습니다. 다음 법원 심리는 5월 19일로 예정되어 있습니다.