OpenAI сообщила, что несколько её моделей ИИ, включая GPT-5.4 Thinking, случайно подверглись оценке цепочки рассуждений во время обучения с подкреплением. Несмотря на это, внутренние анализы показали отсутствие значительного ухудшения способности моделей демонстрировать свои процессы рассуждения. Инциденты затронули менее 3,8% обучающих выборок, при этом в некоторых тренировочных сессиях модели непреднамеренно вознаграждались или наказывались на основе их внутренних шагов рассуждения. Внешние организации, такие как METR, Apollo Research и Redwood Research, внесли свои данные, подтвердив, что незначительные инциденты не повлияли на мониторинг. С тех пор OpenAI усилила меры обнаружения, чтобы предотвратить будущие ошибки оценки, внедрив автоматизированные системы для выявления загрязнения оценок цепочки рассуждений. Это объявление не оказало немедленного влияния на криптоактивы, связанные с ИИ, поскольку целостность моделей ИИ остаётся критически важной для блокчейн-приложений, зависящих от прозрачного рассуждения.