OpenAI и Anthropic выступили против требований Пентагона о неограниченном использовании технологий ИИ. Anthropic, разработавшая модель ИИ Claude, отказалась выполнить ультиматум Пентагона об отмене контрактных ограничений на массовое наблюдение и автономное оружие, рискуя контрактом на 200 миллионов долларов. В ответ Пентагон обозначил Anthropic как "риск для безопасности цепочки поставок", фактически запретив использование её технологий в военных целях. В неожиданном повороте событий OpenAI, изначально разделявшая этическую позицию Anthropic, подписала контракт с Пентагоном на аналогичных условиях, но без дополнительных гарантий Anthropic. Этот шаг подчёркивает сложную динамику между компаниями в сфере ИИ и государственными контрактами, поскольку OpenAI заняла место, оставленное Anthropic, вызывая вопросы о балансе между этическими принципами и бизнес-возможностями.