OpenAI und Anthropic haben sich gegen die Forderungen des Pentagons nach uneingeschränkter Nutzung von KI-Technologien gestellt. Anthropic, das das KI-Modell Claude entwickelt hat, weigerte sich, dem Ultimatum des Pentagons nachzukommen, vertragliche Beschränkungen gegen Massenüberwachung und autonome Waffen aufzuheben, und riskierte damit einen Vertrag über 200 Millionen Dollar. Als Reaktion darauf bezeichnete das Pentagon Anthropic als "Risiko für die Sicherheit der Lieferkette" und sperrte dessen Technologie effektiv für den militärischen Einsatz. In einer überraschenden Wendung unterzeichnete OpenAI, das zunächst mit der ethischen Haltung von Anthropic übereinstimmte, einen Vertrag mit dem Pentagon unter ähnlichen Bedingungen, jedoch ohne die zusätzlichen Schutzmaßnahmen von Anthropic. Dieser Schritt verdeutlicht die komplexen Dynamiken zwischen KI-Unternehmen und Regierungsverträgen, da OpenAI die von Anthropic hinterlassene Position einnahm und damit Fragen zum Gleichgewicht zwischen ethischen Prinzipien und Geschäftsmöglichkeiten aufwirft.