A Anthropic acusou três laboratórios chineses de IA — DeepSeek, Moonshot e Minimax — de realizarem ataques de destilação em larga escala em seu modelo de linguagem, Claude. A empresa afirma que esses laboratórios orquestraram campanhas envolvendo mais de 16 milhões de trocas por meio de aproximadamente 24.000 contas fraudulentas para replicar as capacidades do Claude. A destilação, um método comum de treinamento de IA, torna-se problemática quando usada para replicar recursos avançados sem incorrer nos custos de desenvolvimento. A Anthropic alerta que tais atividades representam riscos geopolíticos, potencialmente capacitando regimes autoritários com capacidades cibernéticas avançadas. A empresa planeja aprimorar os sistemas de detecção, compartilhar inteligência sobre ameaças e reforçar os controles de acesso, incentivando a cooperação da indústria para combater essas ameaças. O incidente destaca a necessidade de medidas de segurança robustas em modelos de IA, especialmente à medida que se tornam parte integrante de sistemas automatizados em vários setores, incluindo os mercados de criptomoedas.