OpenAIとAnthropicは、ペンタゴンのAI技術の無制限使用要求に対して立場を取った。AIモデルClaudeを開発したAnthropicは、大規模監視や自律兵器に対する契約上の制限を撤廃するというペンタゴンの最後通告に従うことを拒否し、2億ドルの契約を危うくした。これに対し、ペンタゴンはAnthropicを「サプライチェーンのセキュリティリスク」として位置づけ、その技術の軍事利用を事実上禁止した。
驚くべき展開として、当初Anthropicの倫理的立場に賛同していたOpenAIは、同様の条件でペンタゴンと契約を結んだが、Anthropicの追加的な安全策は含まれていなかった。この動きは、AI企業と政府契約の間の複雑な力学を浮き彫りにし、OpenAIがAnthropicの立場を引き継いだことで、倫理原則とビジネス機会のバランスに関する疑問を投げかけている。
OpenAIとAnthropic、AI倫理を巡りペンタゴンと対立
免責事項: Phemexニュースで提供されるコンテンツは、あくまで情報提供を目的としたものであり、第三者の記事から取得した情報の正確性・完全性・信頼性について保証するものではありません。本コンテンツは金融または投資の助言を目的としたものではなく、投資に関する最終判断はご自身での調査と、信頼できる専門家への相談を踏まえて行ってください。
