Anthropic ha eliminado una promesa clave de seguridad de su política de escalado responsable, optando por no pausar el entrenamiento de IA incluso si las medidas de mitigación de riesgos están incompletas. Este cambio, destacado por el Director Científico Jared Kaplan, refleja la impracticabilidad de las pausas unilaterales en un panorama competitivo de IA. De manera similar, OpenAI ha modificado su declaración de misión, omitiendo el término "de manera segura" para enfatizar la garantía de que la IA beneficie a la humanidad, alineándose con las expectativas de inversores y legisladores. Estos cambios se producen mientras Anthropic asegura una ronda de financiación de 30 mil millones de dólares, valorando la empresa en 380 mil millones, mientras OpenAI busca hasta 100 mil millones en financiamiento con el respaldo de Amazon, Microsoft y Nvidia. Además, la negativa de Anthropic a proporcionar acceso completo a su modelo de IA Claude al Pentágono ha generado tensiones con el Secretario de Defensa de EE. UU., Pete Hegseth, planteando dudas sobre sus contratos de defensa.