OpenAI gab bekannt, dass mehrere seiner KI-Modelle, darunter GPT-5.4 Thinking, während des Trainings mit Verstärkendem Lernen versehentlich einer Chain-of-Thought-Bewertung unterzogen wurden. Trotz dessen zeigten interne Analysen keine signifikante Verschlechterung der Fähigkeit der Modelle, ihre Denkprozesse darzustellen. Die Vorfälle betrafen weniger als 3,8 % der Trainingsbeispiele, wobei einige Trainingsläufe unbeabsichtigt Modelle basierend auf ihren internen Denkprozessen belohnten oder bestraften. Externe Organisationen wie METR, Apollo Research und Redwood Research lieferten Erkenntnisse, die bestätigten, dass die geringfügigen Vorfälle die Überwachbarkeit nicht beeinträchtigten. OpenAI hat seitdem seine Erkennungsmaßnahmen verbessert, um zukünftige Bewertungsfehler zu verhindern, und automatisierte Systeme implementiert, die eine Kontamination durch Chain-of-Thought-Bewertungen erkennen. Die Ankündigung hatte keine unmittelbaren Auswirkungen auf KI-bezogene Krypto-Assets, da die Integrität der KI-Modelle für Blockchain-Anwendungen, die auf transparente Argumentation angewiesen sind, weiterhin von entscheidender Bedeutung ist.