OpenAI e Anthropic tomaram uma posição contra as exigências do Pentágono para o uso irrestrito de tecnologias de IA. A Anthropic, que desenvolveu o modelo de IA Claude, recusou-se a cumprir o ultimato do Pentágono para remover as restrições contratuais contra vigilância em massa e armas autônomas, arriscando um contrato de 200 milhões de dólares. Em resposta, o Pentágono rotulou a Anthropic como um "risco de segurança da cadeia de suprimentos", efetivamente proibindo o uso de sua tecnologia para fins militares. Em uma reviravolta surpreendente, a OpenAI, inicialmente alinhada com a postura ética da Anthropic, assinou um contrato com o Pentágono sob condições semelhantes, mas sem as salvaguardas adicionais da Anthropic. Essa ação destaca a dinâmica complexa entre empresas de IA e contratos governamentais, já que a OpenAI assumiu a posição deixada pela Anthropic, levantando questões sobre o equilíbrio entre princípios éticos e oportunidades de negócios.