Anthropicは、責任あるスケーリングポリシーから重要な安全誓約を削除し、リスク軽減措置が不完全であってもAIトレーニングを一時停止しないことを選択しました。この変更は、最高科学責任者のジャレッド・カプランによって強調されており、競争の激しいAI環境において一方的な一時停止が非現実的であることを反映しています。同様に、OpenAIはミッションステートメントを変更し、「安全に」という言葉を省略して、AIが人類に利益をもたらすことを強調し、投資家や政策立案者の期待に沿っています。 これらの変化は、Anthropicが300億ドルの資金調達ラウンドを確保し、同社の評価額を3800億ドルに引き上げる一方で、OpenAIはAmazon、Microsoft、Nvidiaの支援を受けて最大1000億ドルの資金調達を目指している中で起きています。さらに、AnthropicがAIモデル「Claude」への完全なアクセスを国防総省に提供しないことが、米国国防長官のピート・ヘグセスとの緊張を生み、防衛契約に関する疑問を投げかけています。