Le PDG de Palantir, Alex Karp, a critiqué l'implication d'Anthropic dans des projets d'IA militaire, suite à la classification d'Anthropic par le Pentagone comme un « risque pour la chaîne d'approvisionnement ». Cette désignation pourrait affecter l'utilisation par Palantir des modèles Claude d'Anthropic dans les opérations de défense américaines, qui contribuent actuellement à 42 % des 4,5 milliards de dollars de revenus annuels de Palantir. Karp a mis en garde la Silicon Valley contre l'opposition aux intérêts militaires, suggérant une possible nationalisation de la technologie. En réponse, Amodei d'Anthropic a soulevé des préoccupations en matière de sécurité, critiquant les solutions d'IA proposées par Palantir comme largement inefficaces. Il a soutenu que les mesures de sécurité de Palantir sont « presque entièrement symboliques » et a souligné des problèmes tels que l'incapacité des modèles d'IA à évaluer des contextes plus larges, y compris l'origine des données et le consentement. Amodei a suggéré que l'accent mis sur la gestion du moral des employés éclipsait les véritables préoccupations de sécurité.