Une étude conjointe menée par Stanford, le MIT et d'autres institutions a révélé la forte consommation de tokens par les agents d'IA dans les tâches de codage, montrant que ces agents peuvent brûler des millions de tokens en tentant de corriger des bugs de code. La recherche, publiée en avril 2026, souligne que le coût d'utilisation d'un agent d'IA pour écrire du code est environ 1 000 fois plus élevé que celui des conversations standard avec une IA, en raison de la lecture intensive du code requise. Cela implique d'alimenter le modèle avec le contexte du projet, les journaux d'opérations et les messages d'erreur, ce qui entraîne une croissance exponentielle des tokens d'entrée.
L'étude a également révélé une variabilité significative des coûts, la même tâche pouvant coûter jusqu'à deux fois plus selon les exécutions. De plus, la recherche a identifié que certains modèles, comme GPT-5, sont plus efficaces en termes de tokens que d'autres, ce qui impacte les résultats financiers dans les applications d'entreprise. Les conclusions suggèrent que les modèles d'IA actuels manquent de "conscience de stop-loss", consommant souvent plus de tokens sur des tâches insolubles. L'étude appelle au développement de politiques conscientes du budget pour gérer efficacement la consommation de tokens, car les coûts imprévisibles remettent en cause la viabilité des modèles d'abonnement dans les scénarios d'agents IA.
La consommation de jetons par les agents IA dans les tâches de codage révélée par une étude Stanford-MIT
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
