スタンフォード大学、MIT、その他の機関による共同研究により、コーディング作業におけるAIエージェントのトークン消費量が非常に高いことが明らかになりました。これらのエージェントはコードのバグを修正しようとする際に数百万トークンを消費することが判明しました。この研究は2026年4月に発表され、AIエージェントにコードを書かせるコストは、標準的なAI会話の約1,000倍に達することが強調されています。これは、コードの広範な「読み込み」が必要であるためで、プロジェクトのコンテキスト、操作ログ、エラーメッセージをモデルに入力することで、入力トークンが指数関数的に増加することに起因します。 また、研究ではコストに大きな変動があることも判明しており、同じタスクでも実行ごとにコストが2倍になることもあります。さらに、GPT-5のような一部のモデルは他のモデルよりもトークン効率が良く、企業向けアプリケーションの財務結果に影響を与えることが確認されました。調査結果は、現在のAIモデルには「ストップロス認識」が欠如しており、解決不可能なタスクに対しても多くのトークンを消費しがちであることを示唆しています。研究は、トークン消費を効果的に管理するための予算意識を持ったポリシーの開発を求めており、予測不可能なコストがAIエージェントのサブスクリプション価格モデルの持続可能性に挑戦していると指摘しています。