Stanford, MIT ve diğer kurumların ortak çalışması, kodlama görevlerinde yapay zeka ajanlarının yüksek token tüketimini ortaya koydu; bu ajanların kod hatalarını düzeltmeye çalışırken milyonlarca token harcayabildiğini gösterdi. Nisan 2026'da yayımlanan araştırma, bir yapay zeka ajanının kod yazmasının maliyetinin, gerekli olan kapsamlı kod "okuma" nedeniyle standart yapay zeka sohbetlerinden yaklaşık 1.000 kat daha yüksek olduğunu vurguluyor. Bu süreç, modele proje bağlamı, işlem kayıtları ve hata mesajları beslemeyi içeriyor ve bu da giriş tokenlarında üssel bir artışa yol açıyor. Araştırma ayrıca maliyetlerde önemli değişkenlikler olduğunu, aynı görevin farklı çalıştırmalarda iki kat daha fazla maliyete neden olabileceğini ortaya koydu. Ayrıca, GPT-5 gibi bazı modellerin diğerlerine göre daha token verimli olduğu tespit edildi; bu da kurumsal uygulamalarda finansal sonuçları etkiliyor. Bulgular, mevcut yapay zeka modellerinin "stop-loss farkındalığı"ndan yoksun olduğunu, çözülemeyen görevlerde genellikle daha fazla token tükettiğini gösteriyor. Çalışma, token tüketimini etkili bir şekilde yönetmek için bütçe bilincine sahip politikaların geliştirilmesini çağrısında bulunuyor; çünkü öngörülemeyen maliyetler, yapay zeka ajanı senaryolarında abonelik fiyatlandırma modellerinin sürdürülebilirliğini zorlaştırıyor.