OpenAI a révélé que plusieurs de ses modèles d'IA, y compris GPT-5.4 Thinking, ont subi par accident une évaluation en chaîne de pensée lors de l'entraînement par apprentissage par renforcement. Malgré cela, les analyses internes n'ont montré aucune dégradation significative de la capacité des modèles à démontrer leurs processus de raisonnement. Les incidents ont affecté moins de 3,8 % des échantillons d'entraînement, certaines sessions d'entraînement ayant involontairement récompensé ou pénalisé les modèles en fonction de leurs étapes internes de raisonnement. Des organisations externes telles que METR, Apollo Research et Redwood Research ont apporté des éclairages, confirmant que ces incidents mineurs n'ont pas nui à la capacité de surveillance. OpenAI a depuis renforcé ses mesures de détection pour prévenir de futures erreurs d'évaluation, en mettant en place des systèmes automatisés pour détecter la contamination par l'évaluation en chaîne de pensée. Cette annonce n'a eu aucun impact immédiat sur les actifs cryptographiques liés à l'IA, car l'intégrité des modèles d'IA reste cruciale pour les applications blockchain reposant sur un raisonnement transparent.