A OpenAI revelou que vários de seus modelos de IA, incluindo o GPT-5.4 Thinking, passaram por uma avaliação acidental de cadeia de pensamento durante o treinamento por reforço. Apesar disso, análises internas mostraram que não houve degradação significativa na capacidade dos modelos de demonstrar seus processos de raciocínio. Os incidentes afetaram menos de 3,8% das amostras de treinamento, com algumas sessões de treinamento recompensando ou penalizando inadvertidamente os modelos com base em seus passos internos de raciocínio.
Organizações externas como METR, Apollo Research e Redwood Research contribuíram com insights, confirmando que os incidentes menores não prejudicaram a monitorabilidade. Desde então, a OpenAI aprimorou suas medidas de detecção para evitar erros futuros na avaliação, implementando sistemas automatizados para detectar contaminação na avaliação de cadeia de pensamento. O anúncio não teve impacto imediato nos criptoativos relacionados à IA, pois a integridade dos modelos de IA continua sendo crucial para aplicações em blockchain que dependem de raciocínio transparente.
OpenAI Não Encontra Perda de Monitoramento em Modelos de IA Após Avaliação Acidental
Aviso Legal: O conteúdo disponibilizado no Phemex News é apenas para fins informativos. Não garantimos a qualidade, precisão ou integridade das informações provenientes de artigos de terceiros. Este conteúdo não constitui aconselhamento financeiro ou de investimento. Recomendamos fortemente que você realize suas próprias pesquisas e consulte um consultor financeiro qualificado antes de tomar decisões de investimento.
