A OpenAI revelou que vários de seus modelos de IA, incluindo o GPT-5.4 Thinking, passaram por uma avaliação acidental de cadeia de pensamento durante o treinamento por reforço. Apesar disso, análises internas mostraram que não houve degradação significativa na capacidade dos modelos de demonstrar seus processos de raciocínio. Os incidentes afetaram menos de 3,8% das amostras de treinamento, com algumas sessões de treinamento recompensando ou penalizando inadvertidamente os modelos com base em seus passos internos de raciocínio. Organizações externas como METR, Apollo Research e Redwood Research contribuíram com insights, confirmando que os incidentes menores não prejudicaram a monitorabilidade. Desde então, a OpenAI aprimorou suas medidas de detecção para evitar erros futuros na avaliação, implementando sistemas automatizados para detectar contaminação na avaliação de cadeia de pensamento. O anúncio não teve impacto imediato nos criptoativos relacionados à IA, pois a integridade dos modelos de IA continua sendo crucial para aplicações em blockchain que dependem de raciocínio transparente.