OpenAI a révélé que plusieurs de ses modèles d'IA, y compris GPT-5.4 Thinking, ont subi par accident une évaluation en chaîne de pensée lors de l'entraînement par apprentissage par renforcement. Malgré cela, les analyses internes n'ont montré aucune dégradation significative de la capacité des modèles à démontrer leurs processus de raisonnement. Les incidents ont affecté moins de 3,8 % des échantillons d'entraînement, certaines sessions d'entraînement ayant involontairement récompensé ou pénalisé les modèles en fonction de leurs étapes internes de raisonnement.
Des organisations externes telles que METR, Apollo Research et Redwood Research ont apporté des éclairages, confirmant que ces incidents mineurs n'ont pas nui à la capacité de surveillance. OpenAI a depuis renforcé ses mesures de détection pour prévenir de futures erreurs d'évaluation, en mettant en place des systèmes automatisés pour détecter la contamination par l'évaluation en chaîne de pensée. Cette annonce n'a eu aucun impact immédiat sur les actifs cryptographiques liés à l'IA, car l'intégrité des modèles d'IA reste cruciale pour les applications blockchain reposant sur un raisonnement transparent.
OpenAI ne constate aucune perte de capacité de surveillance des modèles d'IA après une évaluation accidentelle
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
