Anthropic ha revelado en documentos judiciales que no puede controlar ni desactivar sus modelos de IA una vez desplegados en entornos del Pentágono, careciendo de un "interruptor de apagado" para dichos sistemas. Esta revelación surge en medio de disputas legales en curso con el Pentágono, que ha calificado a Anthropic como un riesgo en la cadena de suministro debido a preocupaciones sobre las políticas de uso de tecnología de la empresa. Estas políticas prohíben el uso de la IA de Anthropic en armas autónomas y vigilancia masiva, lo que el Pentágono considera restrictivo. La batalla legal ha resultado en decisiones judiciales contradictorias: un tribunal de Washington confirmó la designación de riesgo del Pentágono, mientras que un tribunal de California la suspendió temporalmente. En consecuencia, Anthropic tiene prohibido obtener nuevos contratos con el Pentágono, pero aún puede servir a otras agencias gubernamentales. Mientras tanto, la administración Trump está promoviendo el despliegue del nuevo modelo de IA de Anthropic, Mythos, en agencias federales para fortalecer las defensas de ciberseguridad, a pesar de las preocupaciones de seguridad del Pentágono. La próxima audiencia judicial está programada para el 19 de mayo.