A empresa de IA Anthropic foi destaque na capa da revista Time por sua posição contrária a certas cláusulas de contratos militares com o Pentágono. A empresa recusou-se a aceitar cláusulas que permitissem o uso de sua IA, Claude, para armas letais totalmente autônomas e vigilância em massa de cidadãos dos EUA. Isso levou à sua designação como risco à segurança nacional pelo Departamento de Defesa dos EUA, proibindo-a de contratos militares. Apesar desses desafios, a Anthropic revisou sua "Política de Expansão Responsável" em meio a uma corrida competitiva para desenvolver modelos avançados de IA. A empresa agora se compromete a investimentos em segurança equivalentes ou superiores aos de seus concorrentes. Com produtos como o Claude Code, a Anthropic cresceu rapidamente, alcançando uma avaliação de aproximadamente 380 bilhões de dólares, e sua tecnologia foi utilizada em operações significativas, incluindo a captura do ex-presidente venezuelano Maduro.