La société d'intelligence artificielle Anthropic a fait la une du magazine Time pour sa position contre certaines clauses des contrats militaires avec le Pentagone. L'entreprise a refusé d'accepter des clauses permettant l'utilisation de son IA, Claude, pour des armes létales entièrement autonomes et la surveillance de masse des citoyens américains. Cela a conduit à sa désignation comme un risque pour la sécurité nationale par le Département de la Défense des États-Unis, l'empêchant de conclure des contrats militaires. Malgré ces défis, Anthropic a révisé sa "Politique d'expansion responsable" dans un contexte de course compétitive au développement de modèles d'IA avancés. L'entreprise s'engage désormais à des investissements en matière de sécurité équivalents ou supérieurs à ceux de ses concurrents. Avec des produits comme Claude Code, Anthropic a connu une croissance rapide, atteignant une valorisation d'environ 380 milliards de dollars, et sa technologie a été utilisée dans des opérations majeures, notamment la capture de l'ancien président vénézuélien Maduro.