OpenAI와 Anthropic은 AI 기술의 무제한 사용에 대한 펜타곤의 요구에 반대 입장을 취했습니다. AI 모델 Claude를 개발한 Anthropic은 대규모 감시 및 자율 무기에 대한 계약상의 제한을 제거하라는 펜타곤의 최후통첩에 따르기를 거부하며 2억 달러 규모의 계약을 위험에 빠뜨렸습니다. 이에 대해 펜타곤은 Anthropic을 "공급망 보안 위험"으로 규정하며 사실상 군사적 사용에서 해당 기술을 배제했습니다.
놀랍게도, 처음에는 Anthropic의 윤리적 입장에 동조했던 OpenAI는 유사한 조건으로 펜타곤과 계약을 체결했으나 Anthropic의 추가적인 안전장치는 포함하지 않았습니다. 이 움직임은 AI 기업과 정부 계약 간의 복잡한 역학 관계를 드러내며, OpenAI가 Anthropic이 남긴 자리를 차지함으로써 윤리적 원칙과 사업 기회 간의 균형에 대한 의문을 제기합니다.
오픈AI와 앤트로픽, AI 윤리를 놓고 펜타곤과 충돌
면책 조항: Phemex 뉴스에서 제공하는 콘텐츠는 정보 제공 목적으로만 제공됩니다. 제3자 기사에서 출처를 얻은 정보의 품질, 정확성 또는 완전성을 보장하지 않습니다.이 페이지의 콘텐츠는 재무 또는 투자 조언이 아닙니다.투자 결정을 내리기 전에 반드시 스스로 조사하고 자격을 갖춘 재무 전문가와 상담하시기 바랍니다.
