A Anthropic removeu uma promessa chave de segurança de sua política de escalonamento responsável, optando por não pausar o treinamento de IA mesmo que as medidas de mitigação de riscos estejam incompletas. Essa mudança, destacada pelo Diretor Científico Jared Kaplan, reflete a impraticabilidade de pausas unilaterais em um cenário competitivo de IA. Da mesma forma, a OpenAI alterou sua declaração de missão, omitindo o termo "com segurança" para enfatizar a garantia de que a IA beneficie a humanidade, alinhando-se às expectativas de investidores e formuladores de políticas. Essas mudanças ocorrem enquanto a Anthropic assegura uma rodada de financiamento de 30 bilhões de dólares, avaliando a empresa em 380 bilhões de dólares, enquanto a OpenAI busca até 100 bilhões de dólares em financiamento com o apoio da Amazon, Microsoft e Nvidia. Além disso, a recusa da Anthropic em fornecer acesso total ao seu modelo de IA Claude ao Pentágono gerou tensões com o Secretário de Defesa dos EUA, Pete Hegseth, levantando questões sobre seus contratos de defesa.