Um estudo conjunto da Stanford, MIT e outras instituições revelou o alto consumo de tokens por agentes de IA em tarefas de codificação, mostrando que esses agentes podem consumir milhões de tokens ao tentar corrigir bugs no código. A pesquisa, publicada em abril de 2026, destaca que o custo de ter um agente de IA escrevendo código é aproximadamente 1.000 vezes maior do que em conversas padrão de IA, devido à extensa "leitura" de código necessária. Isso envolve alimentar o modelo com o contexto do projeto, registros de operações e mensagens de erro, levando a um crescimento exponencial nos tokens de entrada. O estudo também encontrou uma variabilidade significativa nos custos, com a mesma tarefa podendo custar o dobro em execuções diferentes. Além disso, a pesquisa identificou que alguns modelos, como o GPT-5, são mais eficientes no uso de tokens do que outros, impactando os resultados financeiros em aplicações empresariais. As descobertas sugerem que os modelos atuais de IA carecem de "consciência de stop-loss", frequentemente consumindo mais tokens em tarefas insolúveis. O estudo pede o desenvolvimento de políticas conscientes do orçamento para gerenciar efetivamente o consumo de tokens, já que custos imprevisíveis desafiam a sustentabilidade dos modelos de precificação por assinatura em cenários com agentes de IA.