OpenAI et Anthropic ont pris position contre les exigences du Pentagone pour une utilisation sans restriction des technologies d'IA. Anthropic, qui a développé le modèle d'IA Claude, a refusé de se conformer à l'ultimatum du Pentagone visant à supprimer les restrictions contractuelles contre la surveillance de masse et les armes autonomes, risquant ainsi un contrat de 200 millions de dollars. En réponse, le Pentagone a qualifié Anthropic de « risque pour la sécurité de la chaîne d'approvisionnement », interdisant effectivement l'utilisation de sa technologie à des fins militaires. Dans un retournement surprenant, OpenAI, initialement aligné sur la position éthique d'Anthropic, a signé un contrat avec le Pentagone dans des conditions similaires mais sans les garanties supplémentaires d'Anthropic. Cette décision met en lumière la dynamique complexe entre les entreprises d'IA et les contrats gouvernementaux, OpenAI ayant pris la place laissée par Anthropic, soulevant des questions sur l'équilibre entre principes éthiques et opportunités commerciales.