Anthropic는 책임 있는 확장 정책에서 핵심 안전 약속을 제거하고, 위험 완화 조치가 완료되지 않았더라도 AI 훈련을 중단하지 않기로 결정했습니다. 이 변화는 최고 과학 책임자인 Jared Kaplan이 강조했으며, 경쟁이 치열한 AI 환경에서 일방적인 중단이 비현실적임을 반영합니다. 마찬가지로 OpenAI는 미션 선언문에서 "안전하게"라는 용어를 생략하여 AI가 인류에 이익이 되도록 보장하는 데 중점을 두었으며, 이는 투자자와 정책 입안자의 기대에 부합합니다. 이러한 변화는 Anthropic가 300억 달러 규모의 자금 조달 라운드를 확보하여 회사 가치를 3,800억 달러로 평가받는 가운데 이루어졌으며, OpenAI는 Amazon, Microsoft, Nvidia의 지원을 받아 최대 1,000억 달러의 자금 조달을 추진하고 있습니다. 또한 Anthropic가 AI 모델 Claude에 대한 완전한 접근을 미 국방부에 제공하지 않으면서 미 국방장관 Pete Hegseth와의 긴장이 고조되어 방위 계약에 대한 의문이 제기되고 있습니다.