Anthropic hat ein zentrales Sicherheitsversprechen aus seiner Richtlinie für verantwortungsbewusstes Wachstum entfernt und sich dafür entschieden, das Training von KI nicht zu pausieren, selbst wenn Maßnahmen zur Risikominderung unvollständig sind. Diese Änderung, hervorgehoben vom Chief Scientific Officer Jared Kaplan, spiegelt die Unpraktikabilität einseitiger Pausen in einem wettbewerbsintensiven KI-Umfeld wider. Ebenso hat OpenAI seine Missionserklärung geändert und den Begriff "sicher" weggelassen, um zu betonen, dass die KI der Menschheit zugutekommen soll, was den Erwartungen von Investoren und politischen Entscheidungsträgern entspricht. Diese Veränderungen erfolgen, während Anthropic eine Finanzierungsrunde über 30 Milliarden Dollar abschließt, die das Unternehmen mit 380 Milliarden Dollar bewertet, während OpenAI eine Finanzierung von bis zu 100 Milliarden Dollar mit Unterstützung von Amazon, Microsoft und Nvidia anstrebt. Darüber hinaus hat Anthropics Weigerung, dem Pentagon vollen Zugang zu seinem KI-Modell Claude zu gewähren, zu Spannungen mit dem US-Verteidigungsminister Pete Hegseth geführt, was Fragen zu seinen Verteidigungsverträgen aufwirft.