Anthropic는 책임 있는 확장 정책에서 핵심 안전 약속을 제거하고, 위험 완화 조치가 완료되지 않았더라도 AI 훈련을 중단하지 않기로 결정했습니다. 이 변화는 최고 과학 책임자인 Jared Kaplan이 강조했으며, 경쟁이 치열한 AI 환경에서 일방적인 중단이 비현실적임을 반영합니다. 마찬가지로 OpenAI는 미션 선언문에서 "안전하게"라는 용어를 생략하여 AI가 인류에 이익이 되도록 보장하는 데 중점을 두었으며, 이는 투자자와 정책 입안자의 기대에 부합합니다.
이러한 변화는 Anthropic가 300억 달러 규모의 자금 조달 라운드를 확보하여 회사 가치를 3,800억 달러로 평가받는 가운데 이루어졌으며, OpenAI는 Amazon, Microsoft, Nvidia의 지원을 받아 최대 1,000억 달러의 자금 조달을 추진하고 있습니다. 또한 Anthropic가 AI 모델 Claude에 대한 완전한 접근을 미 국방부에 제공하지 않으면서 미 국방장관 Pete Hegseth와의 긴장이 고조되어 방위 계약에 대한 의문이 제기되고 있습니다.
Anthropic와 OpenAI, AI 경쟁 속 안전성 문구 수정
면책 조항: Phemex 뉴스에서 제공하는 콘텐츠는 정보 제공 목적으로만 제공됩니다. 제3자 기사에서 출처를 얻은 정보의 품질, 정확성 또는 완전성을 보장하지 않습니다.이 페이지의 콘텐츠는 재무 또는 투자 조언이 아닙니다.투자 결정을 내리기 전에 반드시 스스로 조사하고 자격을 갖춘 재무 전문가와 상담하시기 바랍니다.
