OpenAI и Anthropic выступили против требований Пентагона о неограниченном использовании технологий ИИ. Anthropic, разработавшая модель ИИ Claude, отказалась выполнить ультиматум Пентагона об отмене контрактных ограничений на массовое наблюдение и автономное оружие, рискуя контрактом на 200 миллионов долларов. В ответ Пентагон обозначил Anthropic как "риск для безопасности цепочки поставок", фактически запретив использование её технологий в военных целях.
В неожиданном повороте событий OpenAI, изначально разделявшая этическую позицию Anthropic, подписала контракт с Пентагоном на аналогичных условиях, но без дополнительных гарантий Anthropic. Этот шаг подчёркивает сложную динамику между компаниями в сфере ИИ и государственными контрактами, поскольку OpenAI заняла место, оставленное Anthropic, вызывая вопросы о балансе между этическими принципами и бизнес-возможностями.
OpenAI и Anthropic вступили в конфликт с Пентагоном из-за этики ИИ
Отказ от ответственности: Контент, представленный на сайте Phemex News, предназначен исключительно для информационных целей.Мы не гарантируем качество, точность и полноту информации, полученной из статей третьих лиц.Содержание этой страницы не является финансовым или инвестиционным советом.Мы настоятельно рекомендуем вам провести собственное исследование и проконсультироваться с квалифицированным финансовым консультантом, прежде чем принимать какие-либо инвестиционные решения.
