Anthropic, sorumlu ölçeklendirme politikasından önemli bir güvenlik taahhüdünü kaldırdı ve risk azaltma önlemleri tamamlanmamış olsa bile yapay zeka eğitimini durdurmamayı tercih etti. Baş Bilim Sorumlusu Jared Kaplan tarafından vurgulanan bu değişiklik, rekabetçi bir yapay zeka ortamında tek taraflı duraklamaların uygulanabilir olmadığını yansıtıyor. Benzer şekilde, OpenAI de misyon beyanını değiştirdi ve "güvenli bir şekilde" terimini çıkararak yapay zekanın insanlığa fayda sağlamasını vurguladı; bu da yatırımcılar ve politika yapıcıların beklentileriyle uyumlu.
Bu değişiklikler, Anthropic'in şirket değerini 380 milyar dolara çıkaran 30 milyar dolarlık bir finansman turunu güvence altına almasıyla gelirken, OpenAI ise Amazon, Microsoft ve Nvidia'nın desteğiyle 100 milyar dolara kadar finansman arayışında. Ayrıca, Anthropic'in yapay zeka modeli Claude'a Pentagon'a tam erişim sağlamayı reddetmesi, ABD Savunma Bakanı Pete Hegseth ile gerilimlere yol açtı ve savunma sözleşmeleri hakkında soruları gündeme getirdi.
Anthropic ve OpenAI, Yapay Zeka Yarışı Ortasında Güvenlik Dilini Gözden Geçiriyor
Sorumluluk Reddi: Phemex Haberler'de sunulan içerik yalnızca bilgilendirme amaçlıdır. Üçüncü taraf makalelerden alınan bilgilerin kalitesi, doğruluğu veya eksiksizliğini garanti etmiyoruz. Bu sayfadaki içerik finansal veya yatırım tavsiyesi niteliği taşımaz. Yatırım kararları vermeden önce kendi araştırmanızı yapmanızı ve nitelikli bir finans danışmanına başvurmanızı şiddetle tavsiye ederiz.
