Một nghiên cứu chung của Stanford, MIT và các tổ chức khác đã tiết lộ mức tiêu thụ token cao của các tác nhân AI trong các nhiệm vụ lập trình, cho thấy các tác nhân này có thể tiêu tốn hàng triệu token khi cố gắng sửa lỗi mã. Nghiên cứu, được công bố vào tháng 4 năm 2026, nhấn mạnh rằng chi phí để một tác nhân AI viết mã cao hơn khoảng 1.000 lần so với các cuộc trò chuyện AI tiêu chuẩn do việc "đọc" mã rộng rãi cần thiết. Điều này bao gồm việc cung cấp cho mô hình bối cảnh dự án, nhật ký hoạt động và thông báo lỗi, dẫn đến sự tăng trưởng theo cấp số nhân của các token đầu vào. Nghiên cứu cũng phát hiện sự biến động đáng kể về chi phí, với cùng một nhiệm vụ có thể tốn gấp đôi chi phí trong các lần chạy khác nhau. Ngoài ra, nghiên cứu xác định rằng một số mô hình, như GPT-5, hiệu quả hơn về token so với các mô hình khác, ảnh hưởng đến kết quả tài chính trong các ứng dụng doanh nghiệp. Các phát hiện cho thấy các mô hình AI hiện tại thiếu "nhận thức dừng lỗ," thường tiêu thụ nhiều token hơn trong các nhiệm vụ không thể giải quyết. Nghiên cứu kêu gọi phát triển các chính sách nhận thức ngân sách để quản lý hiệu quả việc tiêu thụ token, vì chi phí không thể dự đoán được gây thách thức cho tính bền vững của các mô hình định giá theo đăng ký trong các kịch bản tác nhân AI.