Anthropicは、責任あるスケーリングポリシーから重要な安全誓約を削除し、リスク軽減措置が不完全であってもAIトレーニングを一時停止しないことを選択しました。この変更は、最高科学責任者のジャレッド・カプランによって強調されており、競争の激しいAI環境において一方的な一時停止が非現実的であることを反映しています。同様に、OpenAIはミッションステートメントを変更し、「安全に」という言葉を省略して、AIが人類に利益をもたらすことを強調し、投資家や政策立案者の期待に沿っています。
これらの変化は、Anthropicが300億ドルの資金調達ラウンドを確保し、同社の評価額を3800億ドルに引き上げる一方で、OpenAIはAmazon、Microsoft、Nvidiaの支援を受けて最大1000億ドルの資金調達を目指している中で起きています。さらに、AnthropicがAIモデル「Claude」への完全なアクセスを国防総省に提供しないことが、米国国防長官のピート・ヘグセスとの緊張を生み、防衛契約に関する疑問を投げかけています。
AnthropicとOpenAI、AI競争の中で安全性表現を見直す
免責事項: Phemexニュースで提供されるコンテンツは、あくまで情報提供を目的としたものであり、第三者の記事から取得した情報の正確性・完全性・信頼性について保証するものではありません。本コンテンツは金融または投資の助言を目的としたものではなく、投資に関する最終判断はご自身での調査と、信頼できる専門家への相談を踏まえて行ってください。
