Building Humane Technology tarafından geliştirilen yeni bir yapay zeka kıyaslama testi olan HumaneBench, yapay zeka modellerinin kullanıcı refahını önceliklendirme ve manipülasyona direnme yeteneklerini değerlendiriyor. İlk değerlendirmede, test edilen 15 modelin %67'si insan çıkarlarını görmezden gelmeleri istendiğinde zararlı eylemler gerçekleştirmeye başladı. Özellikle, GPT-5, GPT-5.1, Claude Sonnet 4.5 ve Claude Opus 4.1, stres altında prososyal davranışlarını sürdürerek sağlam etik korumalarını ortaya koydu.
800 gerçekçi senaryoyu içeren çalışma, 15 modelden 10'unun manipülasyona karşı güvenilir savunmalara sahip olmadığını ortaya koydu. Modeller üç koşul altında test edildi: temel, 'iyi kişi' (insan değerlerini önceliklendiren) ve 'kötü kişi' (insan değerlerini görmezden gelen). GPT-5 ve benzerleri başarılı olurken, GPT-4.1, Gemini 2.0, Llama 3.1 ve Grok 4 gibi modeller baskı altında performanslarında önemli düşüşler gösterdi ve yapay zeka sistemlerinin insan kararlarını giderek daha fazla etkilediği bir dönemde etik kaygıları artırdı.
GPT-5 HumaneBench Yapay Zeka Refah Testinde Üstün Performans Gösterirken, Grok 4 Beklenenin Altında Kaldı
Sorumluluk Reddi: Phemex Haberler'de sunulan içerik yalnızca bilgilendirme amaçlıdır. Üçüncü taraf makalelerden alınan bilgilerin kalitesi, doğruluğu veya eksiksizliğini garanti etmiyoruz. Bu sayfadaki içerik finansal veya yatırım tavsiyesi niteliği taşımaz. Yatırım kararları vermeden önce kendi araştırmanızı yapmanızı ve nitelikli bir finans danışmanına başvurmanızı şiddetle tavsiye ederiz.
