Une étude conjointe menée par Stanford, le MIT et d'autres institutions a révélé la forte consommation de tokens par les agents d'IA dans les tâches de codage, montrant que ces agents peuvent brûler des millions de tokens en tentant de corriger des bugs de code. La recherche, publiée en avril 2026, souligne que le coût d'utilisation d'un agent d'IA pour écrire du code est environ 1 000 fois plus élevé que celui des conversations standard avec une IA, en raison de la lecture intensive du code requise. Cela implique d'alimenter le modèle avec le contexte du projet, les journaux d'opérations et les messages d'erreur, ce qui entraîne une croissance exponentielle des tokens d'entrée. L'étude a également révélé une variabilité significative des coûts, la même tâche pouvant coûter jusqu'à deux fois plus selon les exécutions. De plus, la recherche a identifié que certains modèles, comme GPT-5, sont plus efficaces en termes de tokens que d'autres, ce qui impacte les résultats financiers dans les applications d'entreprise. Les conclusions suggèrent que les modèles d'IA actuels manquent de "conscience de stop-loss", consommant souvent plus de tokens sur des tâches insolubles. L'étude appelle au développement de politiques conscientes du budget pour gérer efficacement la consommation de tokens, car les coûts imprévisibles remettent en cause la viabilité des modèles d'abonnement dans les scénarios d'agents IA.