OpenAIとAnthropicは、ペンタゴンのAI技術の無制限使用要求に対して立場を取った。AIモデルClaudeを開発したAnthropicは、大規模監視や自律兵器に対する契約上の制限を撤廃するというペンタゴンの最後通告に従うことを拒否し、2億ドルの契約を危うくした。これに対し、ペンタゴンはAnthropicを「サプライチェーンのセキュリティリスク」として位置づけ、その技術の軍事利用を事実上禁止した。 驚くべき展開として、当初Anthropicの倫理的立場に賛同していたOpenAIは、同様の条件でペンタゴンと契約を結んだが、Anthropicの追加的な安全策は含まれていなかった。この動きは、AI企業と政府契約の間の複雑な力学を浮き彫りにし、OpenAIがAnthropicの立場を引き継いだことで、倫理原則とビジネス機会のバランスに関する疑問を投げかけている。