Anthropic ha acusado a tres laboratorios chinos de inteligencia artificial — DeepSeek, Moonshot y Minimax — de llevar a cabo ataques de destilación a gran escala contra su modelo de lenguaje, Claude. La empresa afirma que estos laboratorios orquestaron campañas que involucraron más de 16 millones de intercambios a través de aproximadamente 24,000 cuentas fraudulentas para replicar las capacidades de Claude. La destilación, un método común de entrenamiento de IA, se vuelve problemática cuando se utiliza para replicar funciones avanzadas sin incurrir en costos de desarrollo. Anthropic advierte que tales actividades representan riesgos geopolíticos, ya que podrían permitir que regímenes autoritarios con capacidades cibernéticas avanzadas se fortalezcan. La empresa planea mejorar los sistemas de detección, compartir inteligencia sobre amenazas y reforzar los controles de acceso, instando a la cooperación de la industria para contrarrestar estas amenazas. El incidente resalta la necesidad de medidas de seguridad robustas en los modelos de IA, especialmente a medida que se vuelven parte integral de sistemas automatizados en diversos sectores, incluidos los mercados de criptomonedas.