OpenAI gab bekannt, dass mehrere seiner KI-Modelle, darunter GPT-5.4 Thinking, während des Trainings mit Verstärkendem Lernen versehentlich einer Chain-of-Thought-Bewertung unterzogen wurden. Trotz dessen zeigten interne Analysen keine signifikante Verschlechterung der Fähigkeit der Modelle, ihre Denkprozesse darzustellen. Die Vorfälle betrafen weniger als 3,8 % der Trainingsbeispiele, wobei einige Trainingsläufe unbeabsichtigt Modelle basierend auf ihren internen Denkprozessen belohnten oder bestraften.
Externe Organisationen wie METR, Apollo Research und Redwood Research lieferten Erkenntnisse, die bestätigten, dass die geringfügigen Vorfälle die Überwachbarkeit nicht beeinträchtigten. OpenAI hat seitdem seine Erkennungsmaßnahmen verbessert, um zukünftige Bewertungsfehler zu verhindern, und automatisierte Systeme implementiert, die eine Kontamination durch Chain-of-Thought-Bewertungen erkennen. Die Ankündigung hatte keine unmittelbaren Auswirkungen auf KI-bezogene Krypto-Assets, da die Integrität der KI-Modelle für Blockchain-Anwendungen, die auf transparente Argumentation angewiesen sind, weiterhin von entscheidender Bedeutung ist.
OpenAI stellt keinen Überwachungsverlust bei KI-Modellen nach versehentlicher Bewertung fest
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
