OpenAI ve Anthropic, Pentagon'un yapay zeka teknolojilerinin sınırsız kullanımı taleplerine karşı duruş sergiledi. Yapay zeka modeli Claude'u geliştiren Anthropic, kitlesel gözetim ve otonom silahlar karşıtı sözleşme kısıtlamalarının kaldırılması yönündeki Pentagon'un ültimatomuna uymayı reddetti ve 200 milyon dolarlık bir sözleşmeyi riske attı. Buna karşılık Pentagon, Anthropic'i "tedarik zinciri güvenlik riski" olarak nitelendirerek teknolojisinin askeri kullanımını fiilen yasakladı. Şaşırtıcı bir gelişmeyle, başlangıçta Anthropic'in etik duruşuyla uyumlu olan OpenAI, benzer koşullar altında ancak Anthropic'in ek güvenlik önlemleri olmadan Pentagon ile bir sözleşme imzaladı. Bu hamle, yapay zeka şirketleri ile devlet sözleşmeleri arasındaki karmaşık dinamikleri ortaya koyarken, OpenAI'nin Anthropic'in bıraktığı pozisyonu güvence altına alması, etik ilkeler ile iş fırsatları arasındaki denge hakkında soruları gündeme getiriyor.