Anthropic убрала ключевое обязательство по безопасности из своей политики ответственного масштабирования, решив не приостанавливать обучение ИИ, даже если меры по снижению рисков не завершены. Это изменение, подчеркнутое главным научным сотрудником Джаредом Капланом, отражает непрактичность односторонних пауз в конкурентной среде ИИ. Аналогично, OpenAI изменила свою миссию, исключив термин "безопасно", чтобы подчеркнуть обеспечение пользы ИИ для человечества, что соответствует ожиданиям инвесторов и законодателей. Эти изменения происходят на фоне того, что Anthropic привлекает финансирование в размере 30 миллиардов долларов, оценивая компанию в 380 миллиардов долларов, в то время как OpenAI стремится получить до 100 миллиардов долларов финансирования при поддержке Amazon, Microsoft и Nvidia. Кроме того, отказ Anthropic предоставить Пентагону полный доступ к своей модели ИИ Claude вызвал напряженность с министром обороны США Питом Хегсетом, что вызывает вопросы относительно ее оборонных контрактов.