Một nghiên cứu chung của Stanford, MIT và các tổ chức khác đã tiết lộ mức tiêu thụ token cao của các tác nhân AI trong các nhiệm vụ lập trình, cho thấy các tác nhân này có thể tiêu tốn hàng triệu token khi cố gắng sửa lỗi mã. Nghiên cứu, được công bố vào tháng 4 năm 2026, nhấn mạnh rằng chi phí để một tác nhân AI viết mã cao hơn khoảng 1.000 lần so với các cuộc trò chuyện AI tiêu chuẩn do việc "đọc" mã rộng rãi cần thiết. Điều này bao gồm việc cung cấp cho mô hình bối cảnh dự án, nhật ký hoạt động và thông báo lỗi, dẫn đến sự tăng trưởng theo cấp số nhân của các token đầu vào.
Nghiên cứu cũng phát hiện sự biến động đáng kể về chi phí, với cùng một nhiệm vụ có thể tốn gấp đôi chi phí trong các lần chạy khác nhau. Ngoài ra, nghiên cứu xác định rằng một số mô hình, như GPT-5, hiệu quả hơn về token so với các mô hình khác, ảnh hưởng đến kết quả tài chính trong các ứng dụng doanh nghiệp. Các phát hiện cho thấy các mô hình AI hiện tại thiếu "nhận thức dừng lỗ," thường tiêu thụ nhiều token hơn trong các nhiệm vụ không thể giải quyết. Nghiên cứu kêu gọi phát triển các chính sách nhận thức ngân sách để quản lý hiệu quả việc tiêu thụ token, vì chi phí không thể dự đoán được gây thách thức cho tính bền vững của các mô hình định giá theo đăng ký trong các kịch bản tác nhân AI.
Tiêu thụ Token của các Đại lý AI trong Nhiệm vụ Lập trình được Tiết lộ bởi Nghiên cứu Stanford-MIT
Tuyên bố miễn trừ trách nhiệm: Nội dung được cung cấp trên Phemex News chỉ nhằm mục đích cung cấp thông tin.Chúng tôi không đảm bảo chất lượng, độ chính xác hoặc tính đầy đủ của thông tin có nguồn từ các bài viết của bên thứ ba.Nội dung trên trang này không cấu thành lời khuyên về tài chính hoặc đầu tư.Chúng tôi đặc biệt khuyến khích bạn tự tiến hành nghiên cứu và tham khảo ý kiến của cố vấn tài chính đủ tiêu chuẩn trước khi đưa ra bất kỳ quyết định đầu tư nào.
